Loving Coding & Visual Design

Bash快速备份网站程序

有个网站用的是国外的服务器,上面很多图片和页面,通过Cpanel下载网站备份超过一个G,下载下来要大半天,很没有效率。考虑到图片和程序的分离备份。用Bash写个脚本是最简单的。主要目的是打包过滤只想下载备份的文件。

脚本参考如下:
find ./public_html/ -type f ! -name  '*.jpg' ! -name '*.png' ! -name '*.gif' ! -name '*.cache' > list.txt
tar -czvf backup-20100907.tar.gz --files-from list.txt

这样取出图片部分,备份文件才20多M,这才是效率~



下一页


最 近 文 章

  1. Zencart的模板 - Sat, 23 Oct 2010 10:41:05 +0000
  2. 数据库编码导致discuz无法登录和注册 - Wed, 20 Oct 2010 15:51:29 +0000
  3. Discuz7.2数据库莫名错误 - Wed, 13 Oct 2010 16:46:57 +0000
  4. 现在从香港带奶粉一个人最多6罐 - Fri, 01 Oct 2010 14:12:22 +0000
  5. JSON.parse是多余的 - Sun, 26 Sep 2010 16:42:16 +0000
  6. 享受Google AppEngine做Python开发 - Sat, 25 Sep 2010 14:35:10 +0000
  7. Oauth authorize失效的问题 - Wed, 22 Sep 2010 03:51:00 +0000
  8. Django模板有特色的几个地方 - Tue, 21 Sep 2010 17:10:58 +0000
  9. 整理一下在家赚钱的项目 - Fri, 17 Sep 2010 16:11:40 +0000
  10. Windows7无线网络提示有限的访问权限的问题 - Mon, 13 Sep 2010 12:52:47 +0000