百万级MySQL的数据量,该如何快速的完成数据迁移?

栏目: IT技术 · 发布时间: 5年前

  • select  *  from  dc_mp_fans  into  outfile  '/data/fans.txt'
  • 复制数据文件到目标服务器

    zip fans.zip /data/fans.txt 
    scp fans.zip root@ip:/data/ 
    

    在目标数据库导入文件

    unzip /data/fans.zip 
     
    load data infile '/data/fans.txt' into table wxa_fans(id,appid,openid,unionid,@dummy,created_at,@dummy,nickname,gender,avatar_url,@dummy,@d 
    

    按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作。

    注意项

    • mysql安全项设置

    mysql 执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv选项, 可以通过show global variables like '%secure%';查看mysql是否开启了此选项,默认值Null标识不允许执行导入导出命令。通过vim /etc/my.cnf修改mysql配置项,将secure_file_priv的值设置为空:

    [mysqld] 
      secure_file_priv='' 
    

    则可通过命令导入导出数据文件。

    导入导出的数据表字段不对应

    上面示例的从源数据库的dc_mp_fans表迁移数据到目标数据库的wxa_fans表,两个数据表的字段分别为:- dc_mp_fans

    百万级MySQL的数据量,该如何快速的完成数据迁移?" src="http://p3-tt.byteimg.com/large/pgc-image/e014d84cc95746c28abe00cc3578b58b?from=pc" width="640" height="467">

    在导入数据的时候,可以通过设置字段名来匹配目标字段的数据,可以通过@dummy丢弃掉不需要的目标字段数据。

    总结

    结合本次数据迁移经历,总结起来就是:小数据量可以使用mysqldump命令进行导入导出,这种方式简单便捷。- 数据量较大,且有足够的迁移耐心时,可以选择自己写脚本,选择合适的并行方案迁移数据,这种方式编码成本较高。- 数据量较大,且希望能在短时间内完成数据迁移时,可以通过mysql导入导出文件的方式来迁移,这种方式效率较高。


    以上所述就是小编给大家介绍的《百万级MySQL的数据量,该如何快速的完成数据迁移?》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

    查看所有标签

    猜你喜欢:

    本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

    Tagging

    Tagging

    Gene Smith / New Riders / 2007-12-27 / GBP 28.99

    Tagging is fast becoming one of the primary ways people organize and manage digital information. Tagging complements traditional organizational tools like folders and search on users desktops as well ......一起来看看 《Tagging》 这本书的介绍吧!

    HTML 压缩/解压工具
    HTML 压缩/解压工具

    在线压缩/解压 HTML 代码

    JSON 在线解析
    JSON 在线解析

    在线 JSON 格式化工具