百万级MySQL的数据量,该如何快速的完成数据迁移?

栏目: IT技术 · 发布时间: 5年前

  • select  *  from  dc_mp_fans  into  outfile  '/data/fans.txt'
  • 复制数据文件到目标服务器

    zip fans.zip /data/fans.txt 
    scp fans.zip root@ip:/data/ 
    

    在目标数据库导入文件

    unzip /data/fans.zip 
     
    load data infile '/data/fans.txt' into table wxa_fans(id,appid,openid,unionid,@dummy,created_at,@dummy,nickname,gender,avatar_url,@dummy,@d 
    

    按照这么几个步骤操作,几分钟内就完成了一个百万级数据表的跨服务器迁移工作。

    注意项

    • mysql安全项设置

    mysql 执行load data infile和into outfile命令都需要在mysql开启了secure_file_priv选项, 可以通过show global variables like '%secure%';查看mysql是否开启了此选项,默认值Null标识不允许执行导入导出命令。通过vim /etc/my.cnf修改mysql配置项,将secure_file_priv的值设置为空:

    [mysqld] 
      secure_file_priv='' 
    

    则可通过命令导入导出数据文件。

    导入导出的数据表字段不对应

    上面示例的从源数据库的dc_mp_fans表迁移数据到目标数据库的wxa_fans表,两个数据表的字段分别为:- dc_mp_fans

    百万级MySQL的数据量,该如何快速的完成数据迁移?" src="http://p3-tt.byteimg.com/large/pgc-image/e014d84cc95746c28abe00cc3578b58b?from=pc" width="640" height="467">

    在导入数据的时候,可以通过设置字段名来匹配目标字段的数据,可以通过@dummy丢弃掉不需要的目标字段数据。

    总结

    结合本次数据迁移经历,总结起来就是:小数据量可以使用mysqldump命令进行导入导出,这种方式简单便捷。- 数据量较大,且有足够的迁移耐心时,可以选择自己写脚本,选择合适的并行方案迁移数据,这种方式编码成本较高。- 数据量较大,且希望能在短时间内完成数据迁移时,可以通过mysql导入导出文件的方式来迁移,这种方式效率较高。


    以上所述就是小编给大家介绍的《百万级MySQL的数据量,该如何快速的完成数据迁移?》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

    查看所有标签

    猜你喜欢:

    本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

    艾伦•图灵传

    艾伦•图灵传

    (英)安德鲁·霍奇斯 / 孙天齐 / 湖南科学技术出版社 / 2012-8-1 / 68.00元

    《艾伦·图灵传:如谜的解谜者》是图灵诞辰100周年纪念版,印制工艺更为精美。本书是世界共认的最权威的图灵传记。艾伦?图灵是现代人工智能的鼻祖,在24岁时奠定了计算机的理论基础。二战期间,他为盟军破译密码,为结束战争做出巨大贡献。战后,他开创性地提出人工智能的概念,并做了大量的前期工作。因同性恋问题事发,被迫注射激素,后来吃毒苹果而死。作者是一名数学家,也是一名同性恋者。他对图灵的生平有切身的体会,......一起来看看 《艾伦•图灵传》 这本书的介绍吧!

    HTML 压缩/解压工具
    HTML 压缩/解压工具

    在线压缩/解压 HTML 代码

    JS 压缩/解压工具
    JS 压缩/解压工具

    在线压缩/解压 JS 代码

    MD5 加密
    MD5 加密

    MD5 加密工具