全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 3977|回复: 15
打印 上一主题 下一主题

[疑问] dropbox自动上传备份 并自动分日期删除远程过期文件

[复制链接]
跳转到指定楼层
1#
发表于 2012-5-3 23:47:11 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 suwubee 于 2012-5-4 09:57 编辑

使用前请参考dropbox_uploader的使用办法,因为最下面是用dropbox uploader上传的,需申请dropbox api
  1. #!/bin/bash
  2. DROPBOX_DIR="/XXX"
  3. MYSQL_USER="root"
  4. MYSQL_PASS="XXX"
  5. YM_DATA=/usr/XXX
  6. BACK_DATA=/XXX
  7. DATA=/XXX

  8. #定义数据库的名字和旧数据库的名字
  9. DataBakName=Data_$(date +"%Y%m%d").tar.gz
  10. WebBakName=Web_$(date +%Y%m%d).tar.gz
  11. YMName=ym_$(date +%Y%m%d).tar.gz
  12. OldData=Data_$(date -d -3day +"%Y%m%d").tar.gz
  13. OldWeb=Web_$(date -d -3day +"%Y%m%d").tar.gz
  14. OldYM=YM_$(date -d -3day +"%Y%m%d").tar.gz

  15. #删除本地3天前的数据
  16. rm -rf $BACK_DATA/$OldData $BACK_DATA/$OldWeb $BACK_DATA/$OldYM

  17. cd $BACK_DATA

  18. #使用命令导出SQL数据库,并且按数据库分个压缩
  19. for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
  20.     (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
  21. done
  22. #压缩数据库文件合并为一个压缩文件
  23. tar zcf $BACK_DATA/$DataBakName $BACK_DATA/*.sql.gz
  24. rm -rf $BACK_DATA/*.sql.gz

  25. #压缩网站数据
  26. cd $DATA
  27. tar zcf $BACK_DATA/$WebBakName ./*

  28. #压缩域名信息,建议LNMP整个VPS迁移的话备份下这些子域名配置文件
  29. cd $YM_DATA
  30. tar zcf $BACK_DATA/$YMName ./*

  31. cd $BACK_DATA
  32. #开始上传
  33. sh dropbox_uploader.sh upload  $BACK_DATA/$DataBakName $DROPBOX_DIR/$DataBakName
  34. sh dropbox_uploader.sh upload  $BACK_DATA/$WebBakName $DROPBOX_DIR/$WebBakName
  35. sh dropbox_uploader.sh upload  $BACK_DATA/$YMName $DROPBOX_DIR/$YMName

  36. #开始删除远程3天前的文件
  37. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldData
  38. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldWeb
  39. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldYM

  40. echo -e "Thank you! all down"
复制代码
api目前有个限制,关于太大的文件无法上传。大文件我传到30M左右就挂了。
此外阿里云的脚本已经完成,但是鉴于是国内机器,不便国外备份。
请关注此帖,正在考虑最佳方案。

我的博客:http://bing.sudake.cn/

经常会写错变量,不好意思。已修改~
2#
发表于 2012-5-3 23:50:45 | 只看该作者
技术贴留名
3#
发表于 2012-5-3 23:51:39 | 只看该作者
本帖最后由 云生 于 2012-5-3 23:54 编辑

收藏,
30M 就不能上传这怎么行啊。
数据库一压缩,很快就超过30M了
4#
发表于 2012-5-4 00:07:22 | 只看该作者
api据说是有限制,但不应该传30多M就有问题,我传80多M的文件都可以呀.
5#
发表于 2012-5-4 00:42:02 来自手机 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
6#
发表于 2012-5-4 01:07:58 | 只看该作者
何苦啊。dropbox本来就能保存30天的不同的版本
根本没必要去删除

api和网页上传最大都是300m
7#
发表于 2012-5-4 01:24:37 | 只看该作者
收藏
8#
发表于 2012-5-4 01:36:43 | 只看该作者
量小非君子呀。。30M不够。。。80M也不够啊..
9#
发表于 2012-5-4 01:37:29 | 只看该作者
MARK
10#
发表于 2012-5-4 01:43:03 | 只看该作者
数据这么重要为什么都不买 备份空间啊
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-11-6 00:27 , Processed in 0.069403 second(s), 13 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表