设为首页收藏本站

简体中文 繁體中文 English 日本語 Deutsch 한국 사람 بالعربية TÜRKÇE português คนไทย french

搜索
热搜: 活动 交友 discuz

dropbox自动上传备份 并自动分日期删除远程过期文件 [复制链接]
查看:108 | 回复:13

9

主题

73

回帖

209

积分

中级会员

积分
209
发表于 2012-5-3 23:47:11 | 显示全部楼层 |阅读模式
本帖最后由 suwubee 于 2012-5-4 09:57 编辑

使用前请参考dropbox_uploader的使用办法,因为最下面是用dropbox uploader上传的,需申请dropbox api[ol]
  • #!/bin/bash
  • DROPBOX_DIR="/XXX"
  • MYSQL_USER="root"
  • MYSQL_PASS="XXX"
  • YM_DATA=/usr/XXX
  • BACK_DATA=/XXX
  • DATA=/XXX
  • #定义数据库的名字和旧数据库的名字
  • DataBakName=Data_$(date +"%Y%m%d").tar.gz
  • WebBakName=Web_$(date +%Y%m%d).tar.gz
  • YMName=ym_$(date +%Y%m%d).tar.gz
  • OldData=Data_$(date -d -3day +"%Y%m%d").tar.gz
  • OldWeb=Web_$(date -d -3day +"%Y%m%d").tar.gz
  • OldYM=YM_$(date -d -3day +"%Y%m%d").tar.gz
  • #删除本地3天前的数据
  • rm -rf $BACK_DATA/$OldData $BACK_DATA/$OldWeb $BACK_DATA/$OldYM
  • cd $BACK_DATA
  • #使用命令导出SQL数据库,并且按数据库分个压缩
  • for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
  •     (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
  • done
  • #压缩数据库文件合并为一个压缩文件
  • tar zcf $BACK_DATA/$DataBakName $BACK_DATA/*.sql.gz
  • rm -rf $BACK_DATA/*.sql.gz
  • #压缩网站数据
  • cd $DATA
  • tar zcf $BACK_DATA/$WebBakName ./*
  • #压缩域名信息,建议LNMP整个VPS迁移的话备份下这些子域名配置文件
  • cd $YM_DATA
  • tar zcf $BACK_DATA/$YMName ./*
  • cd $BACK_DATA
  • #开始上传
  • sh dropbox_uploader.sh upload  $BACK_DATA/$DataBakName $DROPBOX_DIR/$DataBakName
  • sh dropbox_uploader.sh upload  $BACK_DATA/$WebBakName $DROPBOX_DIR/$WebBakName
  • sh dropbox_uploader.sh upload  $BACK_DATA/$YMName $DROPBOX_DIR/$YMName
  • #开始删除远程3天前的文件
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldData
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldWeb
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldYM
  • echo -e "Thank you! all down"[/ol]复制代码api目前有个限制,关于太大的文件无法上传。大文件我传到30M左右就挂了。
    此外阿里云的脚本已经完成,但是鉴于是国内机器,不便国外备份。
    请关注此帖,正在考虑最佳方案。

    我的博客:http://bing.sudake.cn/

    经常会写错变量,不好意思。已修改~
  • 725

    主题

    5072

    回帖

    1万

    积分

    论坛元老

    积分
    12401
    发表于 2012-5-3 23:50:45 | 显示全部楼层
    技术贴留名

    434

    主题

    809

    回帖

    3000

    积分

    论坛元老

    积分
    3000
    发表于 2012-5-3 23:51:39 | 显示全部楼层
    本帖最后由 云生 于 2012-5-3 23:54 编辑

    收藏,
    30M 就不能上传这怎么行啊。
    数据库一压缩,很快就超过30M了

    3

    主题

    190

    回帖

    419

    积分

    中级会员

    积分
    419
    发表于 2012-5-4 00:07:22 | 显示全部楼层
    api据说是有限制,但不应该传30多M就有问题,我传80多M的文件都可以呀.

    30

    主题

    136

    回帖

    406

    积分

    中级会员

    积分
    406
    发表于 2012-5-4 00:42:02 | 显示全部楼层
    何苦啊。dropbox本来就能保存30天的不同的版本
    根本没必要去删除

    api和网页上传最大都是300m

    100

    主题

    1524

    回帖

    3408

    积分

    论坛元老

    积分
    3408
    发表于 2012-5-4 01:07:58 | 显示全部楼层
    收藏

    32

    主题

    323

    回帖

    778

    积分

    高级会员

    积分
    778
    发表于 2012-5-4 01:24:37 | 显示全部楼层
    量小非君子呀。。30M不够。。。80M也不够啊..

    1

    主题

    247

    回帖

    541

    积分

    高级会员

    积分
    541
    发表于 2012-5-4 01:36:43 | 显示全部楼层
    MARK

    60

    主题

    949

    回帖

    2182

    积分

    金牌会员

    积分
    2182
    发表于 2012-5-4 01:37:29 | 显示全部楼层
    数据这么重要为什么都不买 备份空间啊g grive 有沒有類似的方法來備份?

    0

    主题

    1

    回帖

    4

    积分

    新手上路

    积分
    4
    发表于 2012-5-4 01:43:03 | 显示全部楼层
    数据库一压缩,很快就超过30M了
    您需要登录后才可以回帖 登录 | 立即注册

    论坛客服/商务合作/投诉举报:2171544 (QQ)
    落伍者创建于2001/03/14,本站内容均为会员发表,并不代表落伍立场!
    拒绝任何人以任何形式在本论坛发表与中华人民共和国法律相抵触的言论!
    落伍官方微信:2030286 邮箱:(djfsys@gmail.com|tech@im286.com)
    © 2001-2014

    浙公网安备 33060302000191号

    浙ICP备11034705号 BBS专项电子公告通信管[2010]226号

      落伍法律顾问: ITlaw-庄毅雄

    Archiver|手机版|Discuz! X

    GMT+8, 2026-3-30 03:03 , Processed in 0.019413 second(s), 4 queries , Gzip On, Redis On.

    返回顶部