光大银行大模型赋能智能客服,填单时间已缩短13秒
近日,光大银行分享了在智能客服领域的大模型应用实践。针对远程银行客服全链路服务场景,该行依托大小模型协同,完成了从通话前、通话中到通话后的全流程智能化升级。
在通话前场景,光大银行通过大模型的文本理解与总结能力,上线通话前情提要、工单前情提要两大智能化应用,可自动识别并提炼进线客户的历史通话诉求、座席处理结论,以及历史工单流转信息与各环节处理意见,帮助座席快速掌握客户背景信息,提升座席响应时间。
在通话中场景,该行推出首个微调大模型——工单小结大模型。该模型可实时生成对话摘要,将冗长对话浓缩为关键要点,上线后将座席填单时间缩短了13秒,同时降低核心内容的遗漏概率。
在通话后场景,该行通过小模型对通话文本进行自动打标,确保工单正确归类,并按照预设规则完成自动化流转与工单任务分配。上线的多个分类模型,包括投诉工单分类模型、信用卡分类模型等,实现了工单的自动归类和路由,降低人工填选成本,提高工单处理效率。
从技术上看,本次实践发挥了大小模型的差异化优势:小模型凭借参数少、性能高、资源消耗低的特点,承担文本分类、实体抽取、文本纠错等任务;大模型则依托强文本理解、意图识别与生成能力,完成内容总结、摘要生成等复杂语义处理任务。
由于客服场景行业术语密集、实时响应要求严格(单次响应需控制在5秒内)、长上下文易引发高延时的痛点,光大银行采用了数据驱动的模型迭代方案,即基于业务标注数据,对不同尺寸大模型进行微调。
经过对比不同训练方式的显存消耗,以及不同分布式训练策略的硬件适配能力,光大银行最终选定监督微调(SFT)方案。测评数据显示,经数据微调后,Qwen3 32B模型问题摘要准确率达90%、可用率达95%;Qwen2.5 14B微调模型准确率82%、可用率92%,效果优于未微调的32B大模型,为硬件资源受限的业务场景提供了可行的部署方案。
目前,前情提要模型已嵌入光大银行客服交易子系统,座席可通过页签切换,快速调取通话、工单的前情摘要信息,相关功能已进入常态化应用阶段。
- 光大银行高级安全专项支持服务选型入围项目中标候选人公示
- 光大银行郑州分行信用卡场景渠道获客项目招标
- AI入局政企销售场景!光大银行推出TO B/TO G AI销售智能体
- 光大银行杨兵兵:从三方面着手系统化落地AI应用
- 光大银行高管变动、科技子公司董事长回归总行,近期调整数字金融架构
- 光大银行科技架构和需求资产类应用系统开发服务选型入围项目中标候选人公示
- 光大银行再次调整数字金融架构,近期内部提拔一位金融科技部副总
- 12月银行AI项目动态:光大银行3.4亿采购算力服务器,智能外呼成热门场景
- 光大银行内部管理综合审批类应用系统开发服务选型入围项目中标候选人公示
- 光大银行武汉分行2026年上半年信用卡数字化渠道获客业务采购项目中标候选人公示

粤公网安备 44030602000994号