智能助力:大模型自动填写工单准确率达95%

2024-04-12 23:28

本文主要是介绍智能助力:大模型自动填写工单准确率达95%,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

基于大模型优秀的问答、总结和话术生成能力,主流联络中心纷纷接入大模型升级智能知识库、智能工单、智能陪练等应用。

图片

以智能填单为例,借助大模型能够轻松从对话中提取出实体信息、判定对话意图、识别情绪、生成沟通摘要等。通过简单的Prompt,完成工单字段的提取任务更是轻而易举。

然而在初期效果测试中,大模型获取的工单填单结果对比客服的真实填写结果准确率不足30%,且大模型的处理速度也达不到业务方提出2秒内返回结果的要求。

大模型并非传统的NLP技术,无法依靠业务标注数据进行自主优化,那么大模型的调用方在业务应用中,该如何进行使用效果优化成为了现实考题。

现实考题,五大因素影响填单可用率

提不准

众所周知,工单填写对字段有着明确的格式要求,尤其是选项或统计类的字段,需要大模型严格按照格式输出指定结果。

图片

幻觉问题

例如,若需要判断客户的注册渠道,大模型必须严格返回“支付宝”三个字段。而现实情景中,大模型往往返回连篇累牍的描述,导致工单系统无法收到准确的结果。

此外大模型不仅“啰嗦”,还容易“胡编乱造”,返回的结果是经过“理解”、“联想”加工的,这在对容错性有着严格要求的现实业务场景中是不能被接受的。

缺乏业务背景

在真实业务场景中,客户和坐席之间的对话内容往往无法清晰、明确地对照工单中所需记录、填写的信息标准发生。例如,坐席能够根据消费者的模糊描述,“使用的是一款能够进行AI画脸的产品”精准匹配出对应的产品。而大模型则难以做出正确的判断,无法胜任绝大多数的工单填写任务。

缺乏判断能力

更大的挑战是,在退订业务等双方存在复杂拉扯的对话场景中,大模型容易按照任意一方的“片面之词”判定最终结果,而不是根据业务逻辑得出准确结论。例如,客户申请退回三个月的费用金额,客服表示只能退回一个月。

如果客户同意,那实际双方达成一致的退回金额为一个月的费用,而非三个月。如果客户表示不同意,则实际退回费用为0。如果大模型没有“理解”这一判定标准,则最终退回的金额会在一个月或三个月中随机生成。

填太慢

实际业务中,坐席的工作节奏非常快,需要在通话进行中,2秒内完成工单内容的填写,通话结束后5秒内完成通话小结的填写。如果大模型不能比坐席的填写速度更快,那么大模型应用的意义与价值将大打折扣。

图片

实时场景的时延问题

坐席辅助场景要求低时延,而智能填单旨在自动帮助人工填写工单,如果填单时间超过2秒,便基本失去了帮助坐席提率的可能。坐席不可能在对话过程中,等待大模型输出结果后再询问客户下一个问题。但即使只调用一次大模型进行小结,平均时延也在5秒左右。

而通话会话小结的评价指标为:要素完备性、要素准确率、业务接受率。若对会话小结中的细分场景、业务细则、专有名词等方面有更高的要求,便需要在通用格式的会话小结中再补充业务要素。这就需要多次调用大模型,智能小结的时延将会达到10秒左右。

连接调用不稳定产生漏损

大模型调用会有失败的情况,就像有时会遇到偶发的不响应情况,这在C端应用中用户尚可容忍,但是在企业服务应用中,尤其是嵌入核心作业流程的场景下,业务对于偶发的漏损情况则较为敏感,小结的漏损率会在5%左右。

四大路径,巧妙解决准确率与时效性问题

作为领先的对话式AI解决方案提供商,中关村科金【会话洞察产研组】始终致力于打破技术应用瓶颈,为用户带来更加卓越、智能的体验。经过一年的研究和内部测试,我们有了一些新的解决方案,或许正是众多企业苦苦找寻的答案。

考题一:大模型应用的准确率与延时如何改善?

路径一:小模型对输出结果进行验证以解决幻觉问题

最初,大多技术专家通过JSON对大模型的输出进行限制,以确保大模型每次输出的结果都尽可能满足业务要求,但仍存在一定概率的幻觉问题。为此,中关村科金另辟蹊径,在大模型输出结果后,叠加一层相似度判定模型,让大模型的输出结果对齐到预设的选项中。

图片

在此基础上,中关村科金还增加了对大模型输出结果的各类格式转化,以满足将大模型输出内容转化为工单所需的数值、百分比、日期、时间等各类字段类型的需求。

路径二:让运营人员便捷地将业务背景“录入”大模型

中关村科金利用不同行业的客户数据,对Prompt进行了针对性的优化,并在自研的模型上进行了微调,以确保大模型在不同行业、不同场景中,拥有通用的“领域知识”。与此同时,我们还通过对常见的智能填单场景进行抽象,让用户可以便捷地输入企业专属知识。通过将运营人员输入的信息与经过验证的Prompt进行拼接后,大模型的数据准确率最高提升到了95%以上。

图片

在复杂的对话场景中,通过对每一轮的分析结果进行修正,大模型不仅能够从对话中区分出渠道,还能够准确判断出前述举例中,最终需要退还给客户的正确金额。此类需要一定逻辑推理的场景,大模型智能填单的准确率也能稳定在85%。

图片

此外,借助预设的字段,不仅能够准确判定返回退款的金额,还能够根据实际对话内容确定返回退款的比例、退回多少个月的费用等,覆盖对话总结、业务办理情况收集、用户反馈问题收集、用户需求收集、用户信息收集5大类型的智能填单需求。

考题二:大模型应用时效性怎么保障?

路径一:分布式分析实现“抢跑”

面对通话结束后才填写的会话小结,中关村科金进行分步拆解,在通话开始后先执行不依赖全部通话内容分析的任务,每进行几轮对话,就进行一次分析,从而将分析拆解到对话进行中“悄悄”完成。通话结束后,只需执行剩余需要依赖全部通话内容的分析任务,从而将会话小结的智能填单时间从10秒缩减到了平均3秒内。

路径二:更小的领域大模型带来更快的速度

在时效性要求更高的工单场景,中关村科金使用了自研的得助大模型,针对电销、客服等更聚焦的场景训练的领域大模型,实现了更小的参数、更高的准确率。同时,由于训练时已具备了对领域的通用知识,无需多次调用大模型完成业务录入,便可实现1~2秒内稳定返回结果的应用成效。

智能助力,得助智能填单降本增效显著

目前,中关村科金智能填单系统已正式上线得助智能联络中心,并向广大客户开放使用,帮助客户提升坐席的填单效率,并更详细的记录通话中的信息。

图片

在多个项目应用中,得助智能填单都取得了预期效果,在帮助运营人员提升工作效率、节省企业运营成本等方面展现出明显优势。

显著提高会话工单的准确率

由于客服日常的工作强度高,尤其是在线坐席常常需要同时处理多通对话,难免出现信息错填、漏填的情况。而得助智能填单不仅能够帮助坐席减轻工作负担,还能够对填写有误的地方进行提醒、矫正。

帮助运营人员获取更丰富的信息

过往为了不给客服增加不必要的负担,会话小结字段只要求客服填写关键的几项信息,坐席填写的内容也不够详细。使用得助智能填单后,系统可以帮助运营人员更全面地收集信息、更完整地记录信息。

节省出海业务的运营成本

对于出海客户而言,大模型具备多语种理解和翻译能力,客户使用智能小结功能对英文邮件进行字段提取,不仅准确率高达93%以上,还能大幅节省人工翻译成本。

大模型智能填单作为一种新兴的技术应用,未来随着应用边界不断拓展,将进一步改变企业的运营方式和效率。而中关村科金一直坚持探索前沿人工智能技术与千行百业应用场景的落地融合,力求打破技术应用瓶颈,为客户提供最优质、最智能的解决方案。

随着技术逐步成熟和实践不断积累,中关村科金将持续优化和完善得助智能填单系统,以满足不同行业、不同场景下的多样化需求,为千行百业的数字化转型贡献更多力量。

这篇关于智能助力:大模型自动填写工单准确率达95%的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/898532

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

基于 Java 实现的智能客服聊天工具模拟场景

服务端代码 import java.io.BufferedReader;import java.io.IOException;import java.io.InputStreamReader;import java.io.PrintWriter;import java.net.ServerSocket;import java.net.Socket;public class Serv

WordPress网创自动采集并发布插件

网创教程:WordPress插件网创自动采集并发布 阅读更新:随机添加文章的阅读数量,购买数量,喜欢数量。 使用插件注意事项 如果遇到404错误,请先检查并调整网站的伪静态设置,这是最常见的问题。需要定制化服务,请随时联系我。 本次更新内容 我们进行了多项更新和优化,主要包括: 界面设置:用户现在可以更便捷地设置文章分类和发布金额。代码优化:改进了采集和发布代码,提高了插件的稳定

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著

【青龙面板辅助】JD商品自动给好评获取京豆脚本

1.打开链接 开下面的链接进入待评价商品页面 https://club.jd.com/myJdcomments/myJdcomments.action?sort=0 2.登陆后执行脚本 登陆后,按F12键,选择console,复制粘贴以下代码,先运行脚本1,再运行脚本2 脚本1代码 可以自行修改评价内容。 var content = '材质很好,质量也不错,到货也很快物流满分,包装快递满