联络中心的ChatGPT有什么问题?

关于 ChatGPT(和其他生成式人工智能系统)为联络中心带来的机会。在 Talkdesk,我们相信像 ChatGPT 这样的生成式预训练转换器 (GPT) 大型语言模型 (LLM) 支持系统将成为下一代联络中心即服务 (CCaaS)的支柱。

联络中心的ChatGPT有什么问题?-南华中天

我们推出了第一个功能,利用这些功能自动总结客户对话并准确选择他们的倾向(例如,请求跟进、想要取消服务等)——有效地消除了客户服务代理的大部分电话后工作。我们正在积极地将这些 LLM 集成到其他核心联络中心用例中,并制定我们的路线图以加速我们的客户可以从这些自然语言处理技术中获得的价值。

但我们也了解这项新技术的重要性,以及它可能带来的坏处和好处。

许多著名的技术领袖——包括伊隆·马斯克、史蒂夫·沃兹尼亚克和安德鲁·杨——公开呼吁暂停训练比 ChatGPT-4 更强大的人工智能系统,人们普遍担心失控的人工智能将超越人类的能力好好利用它。我认为现在是为联络中心描述这些新法学硕士的一些最重要的道德问题的好时机。任何考虑在其联络中心使用这些人工智能模型的公司都应该意识到潜在的陷阱,并考虑有助于确保安全和积极的客户体验的流程。

ChatGPT 在联络中心的五个道德问题

1.透明度

在联络中心使用 ChatGPT 和其他生成式 AI 系统的第一个道德问题是透明度,这既适用于清楚 AI 驱动的决策是如何做出的,也适用于它是由 AI 做出的事实。客户有权知道他们的互动是否由 AI 介导。例如,如果客户认为他们是在与人交谈,后来发现他们是在与聊天机器人交谈,这可能会削弱对公司的信任并损害客户与品牌的关系。在设计聊天机器人和虚拟代理时,向客户充分披露信息至关重要。

联络中心的ChatGPT有什么问题?-南华中天

2.偏见

另一个伦理问题是聊天机器人和虚拟代理的反应可能存在偏见。ChatGPT是一种基于大量文本数据进行训练的机器学习模型,并且存在该数据可能以某种方式存在偏差的风险。例如,如果自动质量审查偏向于一种说话模式而不是另一种,这可能会导致对代理人的不平等对待,从而导致歧视。

3.数据安全

与任何处理个人身份数据的软件系统一样,流经 LLM 的数据需要保持端到端的静态加密,并遵循所有确保客户数据安全的数据隐私注意事项。

4.如实输出

另一个道德问题是 ChatGPT 可能会产生“幻觉”或编造可能不真实的答案,但会以令人信服的方式传达这些替代事实。当然,我们不想向客户提供错误信息,尤其是当他们用它来做出人生决定时。

5.工作置换

最后,还有工作流离失所的问题。随着越来越多的公司转向基于 AI 的聊天机器人,例如 ChatGPT,人工联络中心代理可能会失业。公司必须考虑自动化可能对其员工产生的影响,并采取措施减轻任何负面影响,尤其是要想象通过将大部分日常工作自动化来提供更好服务的新机会。

联络中心的ChatGPT有什么问题?-南华中天

在 GPT-4 暂停?

法学硕士最近的发展速度令人震惊,并且存在如上所述的合理担忧。在没有保障措施(至少考虑和减轻负面结果)的情况下快速发展人工智能可能会导致这些负面结果出现。

生命未来研究所( FLI)——这封呼吁暂停的公开信的作者——希望确保人工智能技术的发展方式有利于人类并避免潜在的风险和危险。他们担心主要的人工智能实验室处于“失控”的军备竞赛中,目前没有适当的监督来确保他们以合乎道德的方式工作。

随着时间的推移,我们会仔细跟踪这些讨论。但我们对我们的客户以及每天与我们的软件系统交互的数百万人的承诺是,根据上述道德考虑不断评估我们的决策的影响。

最后的想法

对于我们已经投放市场和正在开发的 LLM 支持的功能,我们允许透明的决策;如果存在偏见,由人工审阅者进行修改以纠正偏见;对数据隐私和安全的绝对承诺;反幻觉技术;仔细考虑 LLM 对人类代理的影响——着眼于想象人类在自动化时代的扩展角色(我最近写了关于监督机器人团队的指导代理的概念)。虽然 LLM 将为数百万寻求我们所爱的公司的帮助和支持的我们提高服务质量,但我们当中的软件工程师、设计师和产品负责人有责任在我们构建时考虑和解决这些道德问题。