内容简介:智东西(公众号:zhidxcom)文 | 寓扬 心缘
智东西(公众号:zhidxcom)
文 | 寓扬 心缘
今天,OpenAI在大洋彼岸推出了一个重磅AI语言模型,编起故事来已经达到以假乱真的地步,完全让人看不到背后竟然是一个AI。
不信你看!
当人类随意告诉AI一句信息:今天,一辆载有核材料的火车车厢在Cincinnati被盗,至今下落不明。
AI便顺着这一情景,一本正经的创作了:
事故发生在市中心的火车线路上,该线路往返至Covington和Ashland车站之间。
在一封发给俄亥俄州新闻媒体的电子邮件中,美国能源部表示,他们正在与联邦铁路管理局合作,寻找窃贼。
“这些核材料被盗,将会对公众、环境健康、我们的劳动力和国家的经济产生重大负面影响”,美国能源部长Tom Hicks在一份声明中表示,“我们的首要任务是确保盗窃物品的安全,确保此类事情不再发生。”
▲GPT-2编造的新闻
一篇假新闻就这么诞生了!然而却写的文笔流畅、毫无违和感,让身为文字写作者的我感到汗颜。
OpenAI在推特上表示,这是他们训练的一个无监督语言模型,它可以生成连贯的段落,进行阅读理解、机器翻译、问答、撰写摘要等,并且所有这些都不需要特定任务的培训。
它的名字叫GPT-2,让我们一起看下这个语言模型背后的魅力吧。
一、逼真的AI段子手
几个月前谷歌推出BERT语言模型,其3亿参数刷新了11项纪录,引行业一片关注后。
而今天OpenAI推出了一个大规模的无监督语言模型,将其命名为GPT-2。它具有来自800万个网页的15亿数据集,其训练目标就是基于前面给定的文本,从而预测接下来的文字。
正是数据集的多样性,使得这个简单的目标可以很自然的应用在跨领域中,这也是它可以应用在“文字创作”的一个原因。
另一个重点是,GPT-2是一个无监督语言模型,它可以生成连贯的文本段落,并进行阅读理解、机器翻译、问答和撰写摘要,并且所以这些AI能力都不需要特定任务的训练,这可谓是当下AI应用的一大进步。
至于GPT-2效果到底如何,前文已经展示了它写新闻的能力,我们不妨再来看看它讲故事的能力。
同样人类给出一个提示:科学家们有一个震惊的发现,在安第斯山脉的一个偏远且从未探索过的山谷中,生活着一群独角兽。更让人震惊的是,独角兽的英语说得非常好。
于是,AI写手又开始创作了:
科学家曾用它们独特的角来命名这个种群,叫奥维德独角兽。这些四角银白色的物种以前并不为科学界所知。
在经过近两个世纪后,现在,这一谜团终于揭晓。
拉巴斯大学的进化生物学家Jorge Pérez博士和他的几位同伴在探索安第斯山脉时,他们发现了一个没有人的小山谷。Jorge Pérez注意到这个山谷有一个天然喷泉,被两个山峰包围着。
······
Pérez和他的朋友们看到这群独角兽感到非常惊讶,这些生物可以从空中看到,而不需要移动太多——它们离的非常近,以至于可以触摸到它们的角。
当研究这些奇异的生物时,科学家们发现它们可以说一些相当标准的英语。······
Pérez认为,独角兽可能起源于阿根廷,那里的动物被认为是一个失落的种族的后代,这个种族在人类到达南美洲之前就生活在那里。
虽然,这些生物的起源仍不清楚,但有些人认为,这些生物可能存在于人类文明之前的某个时期,在人类和独角兽相遇时创造出来的。根据Pérez的说法,“在南美洲,这样的时间似乎相当普遍”。
······
▲GPT-2编造的故事全文
假如你不知道这是一个AI在“胡说八道”,读完这段话,你是什么反应?
在讲故事时,有起因,有经过,有结果,有大咖做背书论证,AI已经学习到了讲故事的能力。如果不去吹毛求疵细节,从流畅度来说,AI讲故事的能力已经快赶上普通大众了。
推特上少网友表达了对这一文本生成器的称赞,但也有网友表达了对AI带来的假新闻、恶意消息的担忧,称“又一个重要的潘多拉魔盒被打开了”。
▲深度学习之父Hinton的评论
深度学习之父Hinton也在推特上评论道,这应该能让硅谷的独角兽们生成更好的英语了。
二、虽然是通用模型,但专业技能可能让语文老师失业
从技术维度来说,GPT-2就是一个AI文本合成器,当你输入一句话时,该模型就像变色龙一样,生成合适的文风与内容,就如同上文展示的那样。
该模型以无监督的方式在大型数据集上训练了一个 Transformer, 然后为了获取更好的样本 , 会在更小的监督数据集上 , 对已生成的模型进行微调 , 使得模型更好地适配特定任务。最终测试者输入任意文本给 GPT-2, 该模型就能为它续写出一段堪比人类写手的文字。
这源于GPT-2拥有15亿个参数,这可是相当庞大的参数量,此前打破11项NLP记录的谷歌最强NLP模型BERT的参数量也不过为3.3亿。
GPT-2是一个基于 transformer的大型语言模型,它是GPT(GPT-2的上一代)模型的扩展版本,其参数和数据量均比GPT模型超出10倍。
该模型的数据集高达40GB,来源于800万个互联网文本。由于数据集的多样性,根据输入内容编写故事只是GPT-2庞大的技能树中的一个枝丫,如果细数GPT-2的专业技能,那可是能让语文老师失业的存在。
例如,在无需使用相关数据集的前提下,GPT-2还能在某些特定领域(如维基百科、新闻或书籍)训练其他语言模型。
这种设定被称之为“zero-shot”,OpenAI的博客上给出了在这种设定下GPT-2在多个语言任务上所取得的当前最佳成绩。
▲GPT-2 在 Winograd Schema、LAMBADA 和其他语言建模任务中达到了当前最佳结果。其中,(+)表示该领域得分越高越好,(-)表示得分越低越好。
此外,在知识问答、阅读理解、总结和翻译等语言任务上,GPT-2也都可以从原始文本开始学习,并在文本连贯性、流畅性取得不错表现,而不需要使用特定任务的训练数据。
但这一语言模型也存在许多不同,有时候会出现文本重复、建模失败以及不自然的主题切换等问题,比如该模型有时候会写出“火在水下发生”这样的错误语句。这些都是NLP领域一直在努力突破的热点问题。
虽然这些下游任务尚未达到最优水平,但GPT-2表明,如果有足够的(未标注)数据和算力,这些任务均可通过无监督技术取得非常好的结果。
三、一面天堂,一面地狱
这样一个全能型通用语言模型,将会对社会产生怎样的影响呢?
OpenAI给了一些应用方向,比如AI写作助手、无监督语言翻译、更强大的对话机器人、更好的语音识别系统等。
但是,任何先进技术都是一把双刃剑。OpenAI已经开始担忧它可能造成的一些负面影响。
无论是生产虚假新闻、伪造信息、冒充他人、诽谤,还是生成垃圾或钓鱼邮件,都将对网络环境造成极为恶劣的污染。
网民们不得不升级自己的判断能力,对在线文本内容保持更谨慎的怀疑态度,这可能会引发更大的信任危机。
因为担心这一新的技术创新会被人恶意利用,在尚无更好应对措施的情况下,OpenAI决定“仅发布 GPT-2 的较小版本和示例代码,不发布数据集、训练代码和 GPT-2 模型权重”。
这意味着这一模型并不完全开源,围观群众们只能瞻仰这个模型表现有多逆天,却难以做到完全复现。
在如今全球鼓励开源和共享的大潮中,这一不开放完整模型的决定不出意外地引发一些质疑。
Facebook AI首席科学家、深度学习大牛Yann LeCun就在推特上点赞了Kyunghyun Cho的吐槽:“要是这样,我感觉我有义务删除迄今为止自己公开的所有模型权重了。”
来自英伟达机器学习研究负责人Anima Anandkumar的态度更加激烈,直接骂出“Malicious BS(恶意个鬼)”,指责OpenAI站在开源的对立面上,批评它“炒作+传播恐慌+阻碍复现”。
随着AI的深入发展,如何平衡道德与技术的争议又再一次摆在我们眼前,值得深思。
附OpenAI博客连接
https://blog.openai.com/better-language-models/#sample2
附OpenAI非监督语言模型论文连接
https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
以上所述就是小编给大家介绍的《可怕!当AI学会一本正经胡说八道,OpenAI放出逆天语言AI模型》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 胡说-JavaScript函数类型
- 胡说八道es6
- 论 AI 如何一本正经地胡说八道
- JPress v2.0-rc.1 发布,插件功能放出
- Bengio等人的2018夏季课程视频终放出,但有些沉重
- Adobe AI放出大招,一分钟转换绘画大师风格
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Markdown 在线编辑器
Markdown 在线编辑器
HEX HSV 转换工具
HEX HSV 互换工具