内容简介:最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。但是要判断用户输入的内容是否符合预期其实还是比较费劲的。我这里使用
最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。
但是要判断用户输入的内容是否符合预期其实还是比较费劲的。
安装库
pip3 install jieba
官网的例子可以看下
import jieba
content = "好的,谢谢,我的问题已经解决了"
seg_list = jieba.cut(content, cut_all=False)
key = []
for i in seg_list:
key.append(i)
print(key)
listcontent = ["好","好的","谢谢","可以了","明白","感谢","好评"]
count = int(len(list(set(listcontent).intersection(set(key)))))
print(count)
输出
['好', '的', ',', '谢谢', ',', '我', '的', '问题', '已经', '解决', '了']
我判断下 A 和 B 2个 list 是否有交集大概可以判断用户的问题是什么?但其实并不特别准。
另外关于 python list 比较我这里也收集了些资料
#求交集的两种方式 retA = [i for i in listA if i in listB] retB = list(set(listA).intersection(set(listB))) print "retA is: ",retA print "retB is: ",retB #求并集 retC = list(set(listA).union(set(listB))) print "retC1 is: ",retC #求差集,在B中但不在A中 retD = list(set(listB).difference(set(listA))) print "retD is: ",retD retE = [i for i in listB if i not in listA] print "retE is: ",retE
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 基于海量公司分词ES中文分词插件
- 北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
- 复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学
- 分词,难在哪里?
- 隐马尔可夫分词
- 【NLP】分词算法综述
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Java Web入门经典
王国辉、陈英 / 机械工业出版社 / 2013-6 / 69.00元
《Java Web入门经典》以初学者为核心,全面介绍了JavaWeb开发中常用的各种技术。内容排列上由浅入深,让读者循序渐进掌握编程技术;在内容讲解上结合丰富的图解和形象的比喻,帮助读者理解“晦涩难懂”的技术;在内容形式上附有大量的提示、技巧、说明等栏目,夯实读者编程技术,丰富编程经验。全书共分4篇19章,其中,第一篇为“起步篇”,主要包括开启JavaWeb之门、不可不知的客户端应用技术、驾驭Ja......一起来看看 《Java Web入门经典》 这本书的介绍吧!