内容简介:最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。但是要判断用户输入的内容是否符合预期其实还是比较费劲的。我这里使用
最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。
但是要判断用户输入的内容是否符合预期其实还是比较费劲的。
安装库
pip3 install jieba
官网的例子可以看下
import jieba
content = "好的,谢谢,我的问题已经解决了"
seg_list = jieba.cut(content, cut_all=False)
key = []
for i in seg_list:
key.append(i)
print(key)
listcontent = ["好","好的","谢谢","可以了","明白","感谢","好评"]
count = int(len(list(set(listcontent).intersection(set(key)))))
print(count)
输出
['好', '的', ',', '谢谢', ',', '我', '的', '问题', '已经', '解决', '了']
我判断下 A 和 B 2个 list 是否有交集大概可以判断用户的问题是什么?但其实并不特别准。
另外关于 python list 比较我这里也收集了些资料
#求交集的两种方式 retA = [i for i in listA if i in listB] retB = list(set(listA).intersection(set(listB))) print "retA is: ",retA print "retB is: ",retB #求并集 retC = list(set(listA).union(set(listB))) print "retC1 is: ",retC #求差集,在B中但不在A中 retD = list(set(listB).difference(set(listA))) print "retD is: ",retD retE = [i for i in listB if i not in listA] print "retE is: ",retE
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 基于海量公司分词ES中文分词插件
- 北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
- 复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学
- 分词,难在哪里?
- 隐马尔可夫分词
- 【NLP】分词算法综述
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
REST实战
Jim Webber、Savas Parastatidis、Ian Robinson / 李锟、俞黎敏、马钧、崔毅 / 东南大学出版社 / 2011-10 / 78.00元
为何典型的企业项目无法像你为web所开发的项目那样运行得如此平滑?对于建造分布式和企业级的应用来说,rest架构风格真的提供了一个可行的替代选择吗? 在这本富有洞察力的书中,三位soa专家对于rest进行了讲求实际的解释,并且通过将web的指导原理应用到普通的企业计算问题中,向你展示了如何开发简单的、优雅的分布式超媒体系统。你将会学习到很多技术,并且随着一家典型的公司从最初的小企业逐渐成长为......一起来看看 《REST实战》 这本书的介绍吧!