我开发了一个温柔的智能客服聊天机器人ChatBot,并回答为什么不是ChatGPT(附思路和代码)

   日期:2024-12-26    作者:chink 移动:http://mip.riyuangf.com/mobile/quote/43880.html

若问2023年科技领域什么最火,那当然是ChatGPT了,这么智能的对话机器人,给人带来无限的想象,围绕着ChatpGPT的各种热点和创意层出不穷。作为一个多年从事编程开发的程序员,我对于这么大的一个热点也很兴奋,每天琢磨着围绕ChatGPT干点啥。

我开发了一个温柔的智能客服聊天机器人ChatBot,并回答为什么不是ChatGPT(附思路和代码)

当然还是先要认清现实,心再高也不能想着去开发一个ChatGPT一样的东西。这个投入太大,难度太高,成果太不可预料,团队、成本、技术、模型、算力、数据、安全、法规等等,每一项对于中小型企业都是重大挑战。国内也只有几个IT巨头能玩,能玩到什么程度不知道,就像某度啊,纯属瞎凑热闹。那么多企业非得去凑热闹,非的要去沾个亲,这个是无可厚非的,不管是博人眼球,还为了是抬高身价,作用还是立竿见影的,凑热闹就凑吧。

思量一番,ChatGPT开发不出来,开发一个它的近亲ChatBot还是没有多大难度的。于是亲自考察了一下公司线上客服的聊天内容,大致如下

 

再细细分析一下近年来的客服聊天记录,竟然大部分对话都相似,相同的问题和答复,时刻都在重复上演!我的天啊,这也太程式化了吧,让我们客服天天干这种事请也太浪费资源了!不行,我要改变这种情形

问一下客服们,之前用过智能客服对话机器人吗?她们说是用过啊,用过阿某云的、华某云的,不太好用,经常是答非所问、似是而非,很少获客。那就定了,我要给你们开发一个好用的Chatbot智能客服,彻底解放生产力

大话说出来了,就只有去干了。经过两周的努力,终于实现了一个线上智能客服系统。虽然不是太智能,还算温柔可人,能回答常见的客户问题,比如

 

哈哈,跟我们客服回答的有点像啊,有兴趣可以跟她聊聊: ​​http://v.ruiboyun.cn/chat/​​

我建议您先不要急着去跟这个机器人聊天,她并不是很聪明,还是希望您继续往下看。

理想很丰满,现实须努力,为难于易,为大于细,那就一步一步的来吧。

技术架构

终端类型浏览器,客户通过浏览器访问公司网站和浏览公司产品,聊天对话的场所就是浏览器中。

通信协议Websocket,最适合进行双向交互,低延迟,高效率,没有更好的选择了。

后端框架Java、PHP、Nodejs,好像都可以,但若要是做即时通信,前端面向浏览器,那Nodejs应该是不二之选。为啥?前后端用一种语言,前后端可以共用代码,前后端工程师可以复用,配合起来就像左手拉右手,你说香不香。使用Nodejs,就可以使用Socket.IO来进行聊天通信,那就更简单了。当然还有别的理由,往后看。

技术选型确定后,后面的工作都是基于这个技术框架来开展,我就不再做解释。

全文搜索引擎(full-text search)

做客服型Chatbot,全文搜索引擎是必须的,大量的聊天语料包准备好后,需要有高效灵活的搜索引擎来查找对应的内容。

可用的全文搜索引擎系统很多,最终我把选择范围缩小到如下两个

1)RediSearch

2)FlexSearch

RediSearch是Redis的一个插件模块,用于实现全文搜索,具有开源、高效、多字段检索、精确短语匹配、搜索结果聚集等特点。

参考网址:​​https://redis.io/docs/stack/search/​​

FlexSearch是一个Nodejs模块,具有开源、轻量、纯JS、零依赖、内存内索引等特点。

参考网址:​​https://github.com/nextapps-de/flexsearch​​

仔细对比两个产品,RediSearch明显具有成熟、灵活、参考资源多等优势,如果要做商用产品或长远打算,那就应该选择RediSearch。

再看FlexSearch的介绍和API接口,除了参考文档少的可怜、成熟案例少之外,好像也没有什么大的不足,也能满足我的要求。更有吸引力的是轻量、JS源码、有了问题可以追根溯源的去修改,这恰恰符合我的脾气。

那就选择FlexSearch吧,虽然我选择FlexSearch,并不代表它是最好的,如果你要做更高级的商用系统,我还是建议你用RediSearch。

中文分词(tokenization&segmentation)

使用全文搜索引擎,一个重要的工作就是分词。索引过程是先对原始文本进行分词,然后对分词结果索引;搜索过程是先对问句进行分词,在使用分词结果去查询。

中文分词相对于拉丁语等其他语言的分词有很大的不同,拉丁语使用空格、标点符号作为分词标记,每个单词具有明确意义,因此分词过程要简单的多。

而中文分词则要复杂抽象一些,每个独立汉字放到不同的词语中意义就不同,若以每个汉字作为分词结果,想要在海量的全文中搜索你期望的结果是不可预期的,干扰噪声会完全淹没你的期望结果。

中文分词需要向后扫描要处理的文本序列,将单字、多字组合与字典中的词语(或你自己预定义的词语、术语)来对比,以此确定分词位置和分词结果。

于是开始找中文分词器,还好,我们要选择的两个全文搜索系统都有可用的中文分词器。

RediSearch使用了​​Friso​​库进行中文分词,Friso 是使用 c 语言开发的一款开源的高性能中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入其他程序中。到Github浏览了一下这个库,发现相当不错

参考网址:​​https://github.com/lionsoul2014/friso​​

FlexSearch则要更加灵活,可以自己选择好用的中文分词库。上述Friso之封装了了php5, php7, ocaml, lua的插件,并没有封装Nodejs包,若要使用需要自己封装,这个可以参考Nodejs的N-API或Node-Addon-API。对于我目前的开发项目,当然还用不着再去将Friso封装成Nodejs插件,这个有点走弯路了。在Nodejs家族里只要找一款中文分词库,那应该是很容易的,果不其然,github搜一下就有很多选择。

nodejieba星最多,拿来测试一下,感觉分词效果还可以,就用它吧。

文档结构

技术选型做好之后,开始设计聊天语料的文档结构。我们把每一轮聊天互动(一问一答)的内容定义为一个文档,使用json对象来描述。文档结构定义如下

 

所有文档保存在数组中

 

文档的query属性会交给全文搜索引擎进行索引,搜索过程就是搜索匹配的问句的过程,搜索到匹配问句后,将answer内容反馈给提问方。

对于海量的语料,文档问句词语的重复会是常见的,一个问句可能会返回多个结果,因此需要有手段选择最佳匹配,尽量让答复接近提问者的期望。这是一个较为复杂的问题,后面会有进一步说明。

技术选型做好了,文档结构也设计好了,下面就是编码实现了,好激动啊。前一周参考了那么多技术,论证也比较充分了,所以我计划再花1周时间来开发实现。

后端服务

Nodejs+socketio,主要实现即时文本通信,还需要实现一些其他WebAPI接口,这个对于熟悉Nodejs的工程师是小菜一碟。

主逻辑代码app.js

 

下面就是聊天机器人的核心逻辑了。实现一个全文搜索引擎封装文件 chatter.js

 

可以看到,在这个module中实现了较多的内容,包括创建全文索引系统、创建分词器,以及添加语料接口、查询接口、文档获取接口等。

最终能力的输出通过chat接口实现。看chat函数代码,原理简单,根据问句检索答句,如果有多条,则返回第一条。

语料的加载,在app.js通过实现一个loader来实现的

 

loader的任务是将语料库加载到内存中,然后逐条传递给全文索引系统进行索引。

前端页面

前端页面找我们前端美女实现,设计一个聊天界面那是分分钟的事情了,机器人的回答有一个汽包等待动画,就像ChatGPT那样,那是机器人在检索数据。

前端代码,通信部分大致是这样的

 
 

人任何时候都不能高估自己啊,要时刻提醒自己爬得高摔得重。通过几天的努力,我的Chatbot已经可以给你聊条对话了,可是效果如何呢,评测一下大致如下

 

简直是无聊,很多问题的答复落在要给答案上

其实这是预料之中的事情,为啥,一是因为语料库内容有限,二是检索结果没有经过任何优化。Flexsearch对多关键字的检索(multi-search)打分,偏离的离谱,只能自己去优化。既然是开源的,那就可以优化,或者变着法子使用你的优点,绕开你的缺点。

优化一,找最佳匹配结果

如果查到多个记录,那就看看哪个匹配度最高,怎么计算匹配度高低呢?用了与i个简单的方法,那就是问句中的所有分词在哪个答案里出现的次数最多,就选则那个答案。

于是对查询过程进行优化

1)搜索前主动分词、去重、排除干扰字词

2)搜索结果对比,寻找出现频次最多的结果

于是,在chatter中实现如下搜索接口

 

优化后,测试一下,果然准确度大幅攀升,基本上答复符合预期。

优化二,优化商务语料包,定义自有词库

这一步也很重要,商务语料包是用来回答客户问题的,尽量要简洁、通俗(符合大众问句习惯)、去除干扰词。

例如,下面问句,显然第二句更好些

 

然后就是定义词库,把客户常用词、公司的产品和术语做成一个词典给分词器,让按照自定义词典分词,这样检索命中率就会更好。

优化三,上下文相关搜索

上下文相关搜索是把相关的内容放置在更优先的反馈结果里,这样智能机器人返回的结果就更像真人的聊天内容,想想看,如果一次聊天对话能够仅仅围绕相同或相近的话题,是不是更有趣。

语料库里放着所有的问句和答句,如果要让chatbot更加博学和聪明,就要不断丰富你的语料库。语料库的答句风格也就是chatbot的风格,她可以是个温柔的助理,也可以是个野蛮的匹夫,这些取决于你的语料内容。

语料库我把它分成两个部分,用tag进行标注。一个是专用商务语料包,里面涵盖了各类客户常见问题和答案,这部分由我峨嵋你公司的商务人员负责提供和优化,并且不断丰富。一个是闲聊语料包,用于与客户闲聊,应对一些商务问题之外的问题,这个可以从网上搜,也可以通过商业渠道获取。

最终,我们编辑了1000条商务语料,并从网上找了100万条闲聊语料。100万条多吗,其实不多,全文搜索引擎几个毫秒就可以索索一边,不用担心效率问题。

前面已经说过了,研发类ChatGPT系统,需要的是人才、投入和海量的语料/资料,以及大量的语料清洗校正工作,所以一般的企业炒炒概念也就算了,这个艰巨的任务还是留给我们的科技巨头吧。

ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,是全球技术精英经过多年技术积累,花费数十亿美刀研发出的东西,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。ChatGPT使用了Transformer神经网络架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。

ChatGPT受到关注的重要原因是引入新技术RLHF (Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。RLHF 解决了生成模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。ChatGPT是AIGC(AI- Generated Content,人工智能生成内容)技术进展的成果。

抛开算法、算力的技术壁垒和投入,我们单从语料说起,ChatGPT使用的语料是数百亿条,除了聊天语料,还有海量的新闻资讯、天文地理、音乐绘画、财经政治等等书籍资料,也包括我们中文的大部分历史文集、诗词歌赋等。

传统的Chatbot不具备、或者具备有限的智能,主要任务还是搜索和回答,再进一步就是关联上下文环境的互动聊天,以及可插入任务中间件的互动聊天,譬如问天气、问路况、问航班、问行情、电器设备控制、行业问题答疑等等,都在传统聊天机器人的范畴之内。而ChatGPT,则是具有了学习、模仿、关联、归纳总结、创造等能力。

好了,聊到这里也算结束了,我的Chatbot还有很多地方需要优化提升,希望您给出宝贵意见哦,您现在可以给她聊几句了:​​http://v.ruiboyun.cn/chat/​​

这个机器人脑路有限,多多包涵 ~:)


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号