内容简介:最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。但是要判断用户输入的内容是否符合预期其实还是比较费劲的。我这里使用
最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。
但是要判断用户输入的内容是否符合预期其实还是比较费劲的。
安装库
pip3 install jieba
官网的例子可以看下
import jieba content = "好的,谢谢,我的问题已经解决了" seg_list = jieba.cut(content, cut_all=False) key = [] for i in seg_list: key.append(i) print(key) listcontent = ["好","好的","谢谢","可以了","明白","感谢","好评"] count = int(len(list(set(listcontent).intersection(set(key))))) print(count)
输出
['好', '的', ',', '谢谢', ',', '我', '的', '问题', '已经', '解决', '了']
我判断下 A 和 B 2个 list 是否有交集大概可以判断用户的问题是什么?但其实并不特别准。
另外关于 python list 比较我这里也收集了些资料
#求交集的两种方式 retA = [i for i in listA if i in listB] retB = list(set(listA).intersection(set(listB))) print "retA is: ",retA print "retB is: ",retB #求并集 retC = list(set(listA).union(set(listB))) print "retC1 is: ",retC #求差集,在B中但不在A中 retD = list(set(listB).difference(set(listA))) print "retD is: ",retD retE = [i for i in listB if i not in listA] print "retE is: ",retE
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 基于海量公司分词ES中文分词插件
- 北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
- 复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学
- 分词,难在哪里?
- 隐马尔可夫分词
- 【NLP】分词算法综述
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
大数据时代小数据分析
屈泽中 / 电子工业出版社 / 2015-7-1 / 69.00元
《大数据时代小数据分析》是一本大数据时代下进行小数据分析的入门级教材,通过数据分析的知识点,将各类分析工具进行串联和对比,例如:在进行线性规划的时候可以选择使用Excel或LINGO或Crystal Ball。工具的应用难易结合,让读者循序渐进地学习相关工具。JMP和Mintab用来分析数据,分析的结果使用Excel、LINGO、Crystal Ball来建立数据模型,最后使用Xcelsius来动......一起来看看 《大数据时代小数据分析》 这本书的介绍吧!
HTML 编码/解码
HTML 编码/解码
XML 在线格式化
在线 XML 格式化压缩工具