内容简介:最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。但是要判断用户输入的内容是否符合预期其实还是比较费劲的。我这里使用
最近写的那个机器人,我想让他更加智能些,比如根据用户回复的内容来进行判断该如何进行回复。
但是要判断用户输入的内容是否符合预期其实还是比较费劲的。
安装库
pip3 install jieba
官网的例子可以看下
import jieba content = "好的,谢谢,我的问题已经解决了" seg_list = jieba.cut(content, cut_all=False) key = [] for i in seg_list: key.append(i) print(key) listcontent = ["好","好的","谢谢","可以了","明白","感谢","好评"] count = int(len(list(set(listcontent).intersection(set(key))))) print(count)
输出
['好', '的', ',', '谢谢', ',', '我', '的', '问题', '已经', '解决', '了']
我判断下 A 和 B 2个 list 是否有交集大概可以判断用户的问题是什么?但其实并不特别准。
另外关于 python list 比较我这里也收集了些资料
#求交集的两种方式 retA = [i for i in listA if i in listB] retB = list(set(listA).intersection(set(listB))) print "retA is: ",retA print "retB is: ",retB #求并集 retC = list(set(listA).union(set(listB))) print "retC1 is: ",retC #求差集,在B中但不在A中 retD = list(set(listB).difference(set(listA))) print "retD is: ",retD retE = [i for i in listB if i not in listA] print "retE is: ",retE
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 基于海量公司分词ES中文分词插件
- 北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
- 复旦大学提出中文分词新方法,Transformer连有歧义的分词也能学
- 分词,难在哪里?
- 隐马尔可夫分词
- 【NLP】分词算法综述
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
HTML & CSS设计与构建网站
[美] Jon Duckett / 刘涛、陈学敏 / 清华大学出版社 / 2013-1 / 59.80元
欢迎您选择一种更高效的学习HTML和CSS的方式。不管您设计和建立新网站,还是想更好地控制现有网站,都可以在《HTML & CSS 设计与构建网站》一书的指导下创建出用户友好、令用户赏心悦目的Web内容。我们知道,编码是一项令人望而生畏的工作,而本书却采用有别于许多传统编程书籍的新颖编排方式,将使您收到事半功倍的学习效果。 每一页都在短小精悍的示例代码的引导下,简明直观、直截了当地阐述一个新......一起来看看 《HTML & CSS设计与构建网站》 这本书的介绍吧!