1 缘起与目的
最近有个需求,要求实现对某个数据库进行双机备份,每天凌晨备份一次,要求主机器只保留最近十五天的记录。经过深思熟虑的研究(疯狂baidu),我们决定用shell脚本加定时任务的方式来实现这个需求。
考虑到有的小伙伴mysql使用docker部署,最后我们也会贴出docker环境下的部署脚本。
环境准备:
- 两台都装好ssh的机器,保证网络通常。我们使用的跨库复制命令scp基于openssh-clients-XXX,所以要求基础的ssh环境。
- mysql服务所在机器Expect命令正常
- mysql服务正常。(docker容器也可)
这里贴一段离线自动安装expect命令的脚本
#!/bin/bash
CURRENT_DIR=`pwd`
function install_expect()
{
echo "install start..."
cp expect-5.45.0.tar.gz tcl8.4.11-src.tar.gz /usr/
cd /usr/
tar -zxvf expect-5.45.0.tar.gz
tar -zxvf tcl8.4.11-src.tar.gz
cd tcl8.4.11/unix
./configure --prefix=/usr/tcl --enable-shared
make -j8
make install
cp tclUnixPort.h ../generic/
cd ../../expect-5.45
./configure --prefix=/usr/expect --with-tcl=/usr/tcl/lib --with-tclinclude=../tcl8.4.11/generic
make -j8
make install
ln -s /usr/expect/bin/expect /usr/tcl/bin/expect
ln -s /usr/expect/bin/expect /usr/bin/expect
cd ..
rm -rf expect-5.45.0.tar.gz tcl8.4.11-src.tar.gz
cd $CURRENT_DIR
echo "install finished..."
}
install_expect
在放上上述脚本所需要的两个包的下载地址
nchc.dl.sourceforge.net/sourceforge…
2 确认环境
这个环节我们来手动确认一个脚本的关键命令,保证脚本能够正常执行。
2.1 导出数据库sql脚本
mysqldump -u数据库用户名 -p数据库密码 需要导出的数据库名称 > /mnt/data/mysql_backup/导出后的sql脚本名称.sql
sql脚本正常导出。
2.2 跨机器拷贝
scp -P ssh端口号 /mnt/data/mysql_backup/导出后的sql脚本名称.sql 另一台机器的用户名比如root@另一台机器IP:/mnt/data/mysql_backup/
第一次拷贝失败,原因另一台机器需要保证/mnt/data/mysql_backup/这个路径存在,再次执行即可成功。
2.3 docker容器确认环境
#数据库备份
docker exec -u root mysql bash -c 'rm -rf /usr/local/pm/* && mysqldump -u用户名 -p密码 数据库名 > /usr/local/pm/pm_yantai_$(date "+%Y-%m-%d").sql'
#sql拷贝出来
docker cp mysql:/usr/local/pm/pm_yantai_$(date "+%Y-%m-%d").sql
#跨机器拷贝
scp -P ssh端口号 /mnt/data/mysql_backup/导出后的sql脚本名称.sql 另一台机器的用户名比如root@另一台机器IP:/mnt/data/mysql_backup/
3 构建脚本
3.1 脚本内容
1.非dockermysql
#!/bin/bash
#导出sql脚本
echo $(date "+%Y-%m-%d") backup start
echo mysql backup start
mysqldump -u数据库用户名 -p数据库密码 pm_prod2.0 > /mnt/data/mysql_backup/pm_shandong_$(date "+%Y-%m-%d").sql
echo mysql backup finish
#scp跨机器备份
echo sql scp start
/usr/bin/expect <<-EOF
set timeout -1;
spawn scp -P ssh端口号 /mnt/data/mysql_backup/pm_shandong_$(date "+%Y-%m-%d").sql 另一台机器用户名@另一台机器IP:/mnt/data/mysql_backup/
expect {
"*password:" {send "另一台机器密码r";exp_continue;}
"yes/no" {send "yesr";}
}
EOF
#删除过期sql
echo remove file /mnt/data/mysql_backup/pm_shandong_$(date -d "7 day ago" +%Y-%m-%d).sql
rm -rf /mnt/data/mysql_backup/pm_shandong_$(date -d "7 day ago" +%Y-%m-%d).sql
echo finish! The file is pm_shandong_$(date "+%Y-%m-%d").sql
2.docker容器mysql
#!/bin/bash
echo $(date "+%Y-%m-%d") backup start
echo mysql docker backup start
docker exec -u root mysql bash -c 'rm -rf /usr/local/pm/* && mysqldump -u用户名 -p密码 数据库名 > /usr/local/pm/pm_yantai_$(date "+%Y-%m-%d").sql'
echo mysql docker backup finish
echo sql copy start
docker cp mysql:/usr/local/pm/pm_yantai_$(date "+%Y-%m-%d").sql /usr/local/sdyy/pm/mysql_backup/pm_yantai_$(date "+%Y-%m-%d").sql
echo sql scp start
/usr/bin/expect <<-EOF
set timeout -1;
spawn scp -P ssh端口号 /usr/local/sdyy/pm/mysql_backup/pm_yantai_$(date "+%Y-%m-%d").sql 另一台机器用户名@另一台机器IP:/usr/local/sdyy/pm/mysql_backup/
expect {
"*password:" {send "另一台机器登录密码r";exp_continue;}
"yes/no" {send "yesr";}
}
EOF
echo remove file /usr/local/sdyy/pm/mysql_backup/pm_yantai_$(date -d "15 day ago" +%Y-%m-%d).sql
rm -rf /usr/local/sdyy/pm/mysql_backup/pm_yantai_$(date -d "15 day ago" +%Y-%m-%d).sql
echo finish! The file is pm_yantai_$(date "+%Y-%m-%d").sql
3.2 手动执行脚本确认正常
sh mysql_backup.sh
注意:如果你是从windows直接上传的shell脚本,应该会报如下错误。
这是因为你的备份文件多了个?
总的原因是在windows创建的文件格式是dos格式的缘故。
解决方式如下:
1.在Windows下转换:
利用一些编辑器如UltraEdit或EditPlus等工具先将脚本编码转换,再放到Linux中执行。转换方式如下(UltraEdit):File–>Conversions–>DOS->UNIX即可。
2.在Linux下转换 用vim打开该sh文件,输入: :set ff 回车,显示fileformat=dos,重新设置下文件格式: :set ff=unix 保存退出: :wq
重新执行命令
4 定时任务
- 编辑定时任务
crontab -e
在末尾行加上如下行
0 3 * * * /mnt/data/mysql_backup/mysql_backup.sh >> /mnt/data/mysql_backup/backup.log
前面是corn表达式,代表每天三点执行。
这里贴一段可能会用到的cron表达式。
后面是shell脚本绝对路径,后面将执行日志追加到日志文件。
保存并退出。
- 查询当前有哪些定时任务
crontab -l
- 添加可执行权限
chmod +x /mnt/data/mysql_backup/mysql_backup.sh
到此这篇关于shell脚本实现mysql数据库双机定时备份的文章就介绍到这了,更多相关shell脚本mysql定时备份内容请搜索aitechtogether.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持aitechtogether.com!