内容简介:是什么让机器拥有对春联这项技能?通过智能春联H5,“刷脸”对春联只需几秒就能实现,而这背后是一系列“不可描述”的高深技术。视觉方面,主要应用了人脸检测、属性分析、人脸融合等技术,可对图片中的人脸进行检测,分析人脸对应的年龄、性别、颜值、微笑指数、是否佩戴眼镜等信息,并通过一个词语概括人脸的特性;进而将图片中的人脸,与指定模板图中的人脸进行融合,得到新的图片。这些技术的难度在于,需要对各种角度的人脸进行检测,并且能够提取人脸的五官特征,以便能够生成与原始人脸相似,但也和模板人脸神似,且毫无违和感的新图片。其次
是什么让机器拥有对春联这项技能?通过智能春联H5,“刷脸”对春联只需几秒就能实现,而这背后是一系列“不可描述”的高深技术。视觉方面,主要应用了人脸检测、属性分析、人脸融合等技术,可对图片中的人脸进行检测,分析人脸对应的年龄、性别、颜值、微笑指数、是否佩戴眼镜等信息,并通过一个词语概括人脸的特性;进而将图片中的人脸,与指定模板图中的人脸进行融合,得到新的图片。这些技术的难度在于,需要对各种角度的人脸进行检测,并且能够提取人脸的五官特征,以便能够生成与原始人脸相似,但也和模板人脸神似,且毫无违和感的新图片。
其次是自然语言处理(NLP)方面,基于百度深度学习框架PaddlePaddle先进的神经网络机器翻译技术,可以将春联创作转化为“翻译”的过程,所不同的是,翻译是在两种语言之间建立联系,而春联是在同一种语言中建立联系。当然,有些人可能会中招“彩蛋”,这些不是AI写的春联。比如你刷脸得出“戏精”这个关键词,就会获得一副“流量体质天生有戏,主角光环盖不住你”,横批“过足戏瘾”的春联,这么霸气十足可是由人工专门为你埋的梗哦!这样的春联出现在朋友圈里,毫无疑问,点赞人数会疯狂UpUpUp……
让我们尝试体验一下吧!PaddlePaddle作为深度学习框架,不仅支持深度学习算法的开发和调研,而且官方发布的模型库(https://github.com/PaddlePaddle/models)里面汇集了各种领先的图像分类、自然语言处理算法。通过这些算法,我们可以很方便地实现各种好玩有趣的功能,比如:智能春联。
智能春联有各种玩法,可以根据用户输入的关键词,生成一副对联,实现定制化的专属春联,比如:用户输入“好运”,百度的人工智能春联生成程序就会创作出上下联为“一年好运满园锦绣,万众同心遍地辉煌”、横批为“春光满园”的春联;用户输入自己的名字,智能春联生成程序可以把自己的名字藏在生成的春联中,形成个性化非常强的春联,用来发送给自己的朋友;甚至用户不需要输入关键词,只需要拍一张照片,然后就可以根据这张照片生成图文并茂的春联。那这些功能都是怎么做到的呢?这里我们给大家介绍一下如何用PaddlePaddle开发一套专属的智能春联生成系统。
一、我们的系统需要先做到能理解图像的内容,比如:用户输入的到底是什么?
这是一个典型图像分类的问题,图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉中重要的基础问题,是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层视觉任务的基础,在许多领域都有着广泛的应用。在深度学习时代,图像分类的准确率大幅度提升,PaddlePaddle在经典的数据集ImageNet上,开放了常用的模型,包括AlexNet、VGG、GoogLeNet、ResNet、Inception-v4、MobileNet、DPN(Dual Path Network)、SE-ResNeXt模型,同时也开源了训练的模型方便用户下载使用。基于这些图像分类算法,可以知道用户输入的类别,用类似的技术,还可以知道一些更具体的属性,比如:对于一张人脸的照片,可以知道性别、年龄这些属性。有了图片的这些特征和属性之后,我们可以进行关键词扩展。比如:对于年轻的女性可以联想出一些关键词“风华绝代”、“秀丽”、“端庄”等等,对于小孩可以联想出关键词“活泼可爱”、“机智”、“勇敢”等等。
图1. 智能春联系统结构图
二、拿到这些关键词之后,接下来的任务是什么?
根据一个关键词,自动生成一副相关的春联。春联的生成过程可以分成2个步骤,第一个步骤是从关键词生成一副上联。然后再根据上联生成一副下联。那么如何实现这2个生成步骤呢?我们发现这个任务跟机器翻译很相似,可以用类似的技术来实现。机器翻译(Machine Translation, MT)是用计算机来实现不同语言之间翻译的技术。被翻译的语言通常称为源语言(Source Language),翻译成的结果语言称为目标语言(Target Language)。机器翻译即实现从源语言到目标语言转换的过程,是自然语言处理的重要研究领域之一。PaddlePaddle的模型库(PaddlePaddle/models)里面,提供了两个机器翻译算法的实现,一个是经典的基于LSTM的Seq2Seq模型,另一个是最新的基于Attention的Transformer模型。 类比于机器翻译任务,可以把智能春联输入的关键词看作是机器翻译里的源语言句子,然后把根据关键词生成的上联,看作是机器翻译里的目标语言译文。相较于此前 Seq2Seq 模型中广泛使用的循环神经网络(Recurrent Neural Network, RNN),使用(Self)Attention 进行输入序列到输出序列的变换主要具有以下优势:计算复杂度更小、计算并发度更高、更容易学到长距离的依赖关系。我们推荐使用翻译效果更好的Transformer模型,通常Transfomer可以得到比Seq2Seq更好的翻译效果。
图2. Transformer模型核心组件Multi-Head Attention
def scaled_dot_product_attention(q, k, v, attn_bias, d_key, dropout_rate):
"""
Scaled Dot-Product Attention
"""
scaled_q = layers.scale(x=q, scale=d_key**-0.5)
product = layers.matmul(x=scaled_q, y=k, transpose_y=True)
if attn_bias:
product += attn_bias
weights = layers.softmax(product)
if dropout_rate:
weights = layers.dropout(
weights,
dropout_prob=dropout_rate,
seed=ModelHyperParams.dropout_seed,
is_test=False)
out = layers.matmul(weights, v)
return out
图3. Scaled Dot-Product Attention的PaddlePaddle代码实现
三、选定了使用的生成算法之后,如何让机器能够学会写春联呢?
接下来就需要给系统准备训练数据了,所谓“熟读唐诗三百首”,对于机器来说,需要见到大量的春联,才能够学会春联里用词和用字的规律。我们可以去互联网上找到大量的春联数据,比如:“爆竹传吉语”“腊梅报新春”等等,然后把它们作为训练数据,通常需要几万条。有了这些数据后,我们从上联里抽取出关键词,“爆竹”-> “爆竹传吉语”,训练一个从关键词到上联的生成模型;然后我们再用“爆竹传吉语”“腊梅报新春”训练一个从上联到下联的生成模型。
准备好训练数据后,就可以启动Transformer模型的训练了,可以参考PaddlePaddle/models/neural_machine_translation/transformer里的命令。这个是英德翻译的例子,在做关键词到上联的生成时,需要把训练数据替换成“关键词”到对应“春联上联”的数据;在做上联到下联生成时,需要把训练数据替换成“春联上联”到对应“春联下联”的数据。
python -u train.py \
--src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \
--trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \
--special_token '<s>''<e>''<unk>' \
--train_file_pattern gen_data/wmt16_ende_data_bpe/train.tok.clean.bpe.32000.en-de \
--token_delimiter ' ' \
--use_token_batch True \
--batch_size 4096 \
--sort_type pool \
--pool_size 200000
训练完成后就可以得到一个关键词到上联的生成模型,还有一个从上联到下联的生成模型。注意生成过程,需要执行2次Transformer的预测过程,先输入一个关键词,生成上联;然后输入生成的上联,再生成一个下联。具体生成参考以下命令。
python -u infer.py \
--src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \
--trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \
--special_token '<s>''<e>''<unk>' \
--test_file_pattern gen_data/wmt16_ende_data_bpe/newstest2016.tok.bpe.32000.en-de \
--token_delimiter ' ' \
--batch_size 32 \
model_path trained_models/iter_100000.infer.model \
beam_size 4 \
max_out_len 255
根据以上PaddlePaddle官方模型库提供的一些技术,就可以实现一个好玩的智能春联系统了。当然还可以做很多有意思的扩展,比如,可以增加一些古诗词作为训练语料,使得生成的春联内容更为丰富;藏头春联,把关键词按字分开,通过Grid Beam Search的技术,保证生成的关键词会在春联特定的位置出现。
感兴趣的朋友,可以收集好春联训练语料,便可尝试实现一个好玩的智能春联系统了。
Github地址: https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleNLP/neural_machine_translation/transformer/README_cn.md
以上所述就是小编给大家介绍的《如何用深度学习框架PaddlePaddle实现智能春联》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 智能春联新玩法:AI「刷脸」生成的春联效果如何?
- 用机器学习把春联写起来
- 为了写春联,我用 Transformer 训练了一个 “对穿肠”
- 基于Google MVVM框架的baseMVVM框架
- Spring 框架是怎么出生的(二):重构提炼出框架
- Spring 框架是怎么出生的(二):重构提炼出框架
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
无处安放的互联网隐私
【美】茱莉亚·霍维兹 【美】杰拉米·斯科 / 中国人民大学出版社有限公司 / 2017-7-1 / CNY 55.00
在当今互联网时代,我们的隐私权已经受到了威胁,政府或企业可以追踪我们的电话,搜索引擎可以记录我们的在线浏览记录以及恒温器的设置以及更多信息。在当代,保卫隐私权不只是简单地描述出存在的问题或者警告人们隐私权已经丧失,隐私权的护卫者们提出了解决策略。他们密切关注商业实践、公共政策和技术设计以及人物,应该继续下去吗?条件就是:有问题,让我们找到解决之道。一起来看看 《无处安放的互联网隐私》 这本书的介绍吧!