阅读全文 »

栏目: 数据库 · 发布时间: 6年前

内容简介:上个月跟朋友一起做了个微信小程序,趁着5.20节日的热度,两个礼拜内迅速积累了一百多万用户,我们在小程序页面增加了收集formid的埋点,用于给微信用户发送模板消息通知。这个小程序一开始的后端逻辑是用平常开发中,我们比较经常使用的数据备份迁移方式是用

上个月跟朋友一起做了个微信小程序,趁着5.20节日的热度,两个礼拜内迅速积累了一百多万用户,我们在小程序页面增加了收集formid的埋点,用于给微信用户发送模板消息通知。

这个小程序一开始的后端逻辑是用 douchat 框架写的,使用框架自带的 dc_mp_fans 表存储微信端授权登录的用户信息,使用 dc_mp_tempmsg 表存储formid。截止到目前,收集到的数据超过380万,很大一部分formid都已经成功使用给用户发送过模板通知,起到了较好的二次推广的效果。

随着数据量的增大,之前使用的服务器空间开始有点不够用,最近新写了一个专门用于做小程序后台开发的框架,于是想把原来的数据迁移到新系统的数据库。买了一台4核8G的机器,开始做数据迁移。下面对迁移过程做一个简单的记录。

阅读全文 »

方案选择

  • mysqldump迁移

平常开发中,我们比较经常使用的数据备份迁移方式是用 mysqldump 工具导出一个 sql 文件,再在新数据库中导入sql来完成数据迁移。试验发现,通过mysqldump导出百万级量的数据库成一个sql文件,大概耗时几分钟,导出的sql文件大小在1G左右,然后再把这个1G的sql文件通过 scp 命令复制到另一台服务器,大概也需要耗时几分钟。在新服务器的数据库中通过 source 命令来导入数据,我跑了一晚上都没有把数据导入进来, cpu 跑满。

  • 脚本迁移

直接通过命令行操作数据库进行数据的导出和导入是比较便捷的方式,但是数据量较大的情况下往往会比较耗时,对服务器性能要求也比较高。如果对数据迁移时间要求不是很高,可以尝试写脚本来迁移数据。虽然没有实际尝试,但是我想过大概有两种脚本方案。

第一种方式,在迁移目标服务器跑一个迁移脚本,远程连接源数据服务器的数据库,通过设置查询条件,分块读取源数据,并在读取完之后写入目标数据库。这种迁移方式效率可能会比较低,数据导出和导入相当于是一个同步的过程,需要等到读取完了才能写入。如果查询条件设计得合理,也可以通过多线程的方式启动多个迁移脚本,达到并行迁移的效果。

第二种方式,可以结合 redis 搭建一个“生产+消费”的迁移方案。源数据服务器可以作为数据生产者,在源数据服务器上跑一个多线程脚本,并行读取数据库里面的数据,并把数据写入到 redis 队列。目标服务器作为一个消费者,在目标服务器上也跑一个多线程脚本,远程连接redis,并行读取redis队列里面的数据,并把读取到的数据写入到目标数据库。这种方式相对于第一种方式,是一种异步方案,数据导入和数据导出可以同时进行,通过redis做数据的中转站,效率会有较大的提升。

可以使用 go 语言来写迁移脚本,利用其原生的并发特性,可以达到并行迁移数据的目的,提升迁移效率。

  • 文件迁移

第一种迁移方案效率太低,第二种迁移方案编码代价较高,通过对比和在网上找的资料分析,我最终选择了通过 mysqlselect data into outfile file.txtload data infile file.txt into table 的命令,以导入导出文件的形式完成了百万级数据的迁移。

迁移过程

  1. 在源数据库中导出数据文件

    select * from dc_mp_fans into outfile '/data/fans.txt';
    
  2. 复制数据文件到目标服务器

    zip fans.zip /data/fans.txt
    scp fans.zip root@ip:/data/
    
  3. 在目标数据库导入文件

    unzip /data/fans.zip
    
load data infile '/data/fans.txt' into table wxa_fans(id,appid,openid,unionid,@dummy,created_at,@dummy,nickname,gender,avatar_url,@dummy,@dummy,@dummy,@dummy,language,country,province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy);

按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作。

注意项

mysql安全项设置

在mysql执行 load data infileinto outfile 命令都需要在mysql开启了 secure_file_priv 选项,

可以通过 show global variables like '%secure%'; 查看mysql是否开启了此选项,默认值Null标识不允许执行导入导出命令。通过 vim /etc/my.cnf 修改mysql配置项,将 secure_file_priv 的值设置为空:

[mysqld]
  secure_file_priv=''

则可通过命令导入导出数据文件。

导入导出的数据表字段不对应

上面示例的从源数据库的 dc_mp_fans 表迁移数据到目标数据库的 wxa_fans 表,两个数据表的字段分别为:

  • dc_mp_fans

    阅读全文 »
  • wxa_fans

    阅读全文 »

在导入数据的时候,可以通过设置字段名来匹配目标字段的数据,可以通过 @dummy 丢弃掉不需要的目标字段数据。

总结

结合本次数据迁移经历,总结起来就是:

mysqldump

在新系统展示数据的效果:

阅读全文 »

下一篇将写一写前段时间通过脚本20分钟内给18万微信小程序粉丝群发模板通知的经历。敬请期待。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

特斯拉之父

特斯拉之父

竹内一正 / 千太阳 / 中信出版社 / 2014-12 / 39.00

马斯克的成就前无古人地跨越了各个领域,曾大起大落,成为亿万富翁后,又曾濒临破产。他凭借极强的控制欲、坚强的意志力把人生浓缩得异常精彩,拓展了人类对自身智力与能力限度的想象。乔布斯离开了,马斯克来了,后者离人更远,离神更近。 他的创业故事就是一部真实的好莱坞大片 美国《财富》杂志 “2013年度商业人物” 史上最富激情、传奇、未来感的企业家 他是个外表优雅的生意人、太空的挑战......一起来看看 《特斯拉之父》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

MD5 加密
MD5 加密

MD5 加密工具

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具