Loving Coding & Visual Design
Bash快速备份网站程序
有个网站用的是国外的服务器,上面很多图片和页面,通过Cpanel下载网站备份超过一个G,下载下来要大半天,很没有效率。考虑到图片和程序的分离备份。用Bash写个脚本是最简单的。主要目的是打包过滤只想下载备份的文件。
脚本参考如下:
find ./public_html/ -type f ! -name '*.jpg' ! -name '*.png' ! -name '*.gif' ! -name '*.cache' > list.txt
tar -czvf backup-20100907.tar.gz --files-from list.txt
这样取出图片部分,备份文件才20多M,这才是效率~
脚本参考如下:
find ./public_html/ -type f ! -name '*.jpg' ! -name '*.png' ! -name '*.gif' ! -name '*.cache' > list.txt
tar -czvf backup-20100907.tar.gz --files-from list.txt
这样取出图片部分,备份文件才20多M,这才是效率~
最 近 文 章
- Zencart的模板 - Sat, 23 Oct 2010 10:41:05 +0000
- 数据库编码导致discuz无法登录和注册 - Wed, 20 Oct 2010 15:51:29 +0000
- Discuz7.2数据库莫名错误 - Wed, 13 Oct 2010 16:46:57 +0000
- 现在从香港带奶粉一个人最多6罐 - Fri, 01 Oct 2010 14:12:22 +0000
- JSON.parse是多余的 - Sun, 26 Sep 2010 16:42:16 +0000
- 享受Google AppEngine做Python开发 - Sat, 25 Sep 2010 14:35:10 +0000
- Oauth authorize失效的问题 - Wed, 22 Sep 2010 03:51:00 +0000
- Django模板有特色的几个地方 - Tue, 21 Sep 2010 17:10:58 +0000
- 整理一下在家赚钱的项目 - Fri, 17 Sep 2010 16:11:40 +0000
- Windows7无线网络提示有限的访问权限的问题 - Mon, 13 Sep 2010 12:52:47 +0000