ChatGPT 由 OpenAI 于 2022 年 11 月 30 日推出,已经积累了 100 万用户,成为有史以来增长最快的技术平台,其下一代生成式 AI 点燃了互联网,激发了工程师、语言学家、营销人员和学生的想象力, 和更多。
ChatGPT 的核心是世界上最先进的通用聊天机器人,源自大型语言模型 (LLM) GPT-3.5。它代表了 InstructGPT 的迭代,它于 2022 年 1 月上线,并在对话式人工智能领域掀起了类似但规模较小的浪潮。GPT-3.5 是 GPT-3 模型的一个变体,在 2021 年底对选定的摘录和代码的广泛组合进行了训练,达到 1750 亿个参数。到目前为止,结果令人印象深刻。
ChatGPT 可以利用莎士比亚的力量来写十四行诗,制定大学水平的论文从复杂的文本中,提供创意喜剧和娱乐,包括晦涩的说唱歌词,最值得注意的是,领域高度复杂的常识问题——想想看,谷歌智能助理遇到了一个自动化的 Quora。
它被吹捧为打破作家障碍的 AI 破坏球,以及非凡的新搜索引擎。毫无疑问,ChatGPT 令人瞠目结舌的内容生成能力以及在整个对话过程中展开的上下文保留是无与伦比的。但是,虽然面向消费者的用例很明确,但 OpenAI 的最新奇迹仍然有很多不足之处,因为它与企业和 B2B,或 B2B2C,现实世界的实施有关。
ChatGPT(和/或任何其他基于 LLM 的聊天机器人)是食谱中的一个主要成分,而不是整道菜。虽然自然语言理解 (NLU) 方面的障碍肯定已经被打破,但 ChatGPT 的对话能力也只能到此为止。统计准确是不够的——接近正确,对于敏感的垂直行业,如医疗保健和政府,企业实施是行不通的。
秘诀的另一半,针对业务用例,将实时访问专门的组织知识(他们的专有数据)与动态业务逻辑(他们不断变化的内部和外部流程)相匹配,以确保在导航用户时的准确性以实现他们的目标。如果没有额外的关键成分,使用 ChatGPT 或任何其他基于 LLM 的聊天机器人就不是一种选择——因此与此同时,期望组织在菜单上订购不同的企业解决方案。
输入:现有的对话式人工智能公司。
米其林星级厨师不会自己种植西红柿,但他们肯定知道如何找到最好的——类似于大多数对话式人工智能解决方案不会用 STT(语音到文本)和 TTS(文本-to-Speech),而不是选择从谷歌或微软采购现有的最强大的,因此对话式人工智能公司也将在他们的对话堆栈中嵌入 GPT-3.5,现在是世界上最顶级的大型语言模型。
那些将无缝地做到这一点的公司——同时优先考虑客户的安全性和精确性——将成为生成式和对话式 AI 新时代的赢家。这就是企业真正神奇的地方。
让我们探讨一下当前对话式 AI 解决方案和 ChatGPT 之间的共存情况。首先,我们将介绍成功部署商业级对话式 AI 所需的条件。为了对企业和其他“信息密集型”组织可行,对话式人工智能需要勾选 5 个关键框:
为了做出数据驱动的决策,包括安排与医生的约会,或查找技术产品信息,用户需要即时更新和准确的业务和产品信息,通常通过 API 捕获。这些数据集和业务规则对于每个组织来说都是独一无二的,除了像 ChatGPT 那样有效地理解“常识”知识之外,它们的动态本体理想情况下需要被知识图吸收。对于 ChatGPT,无法访问特定领域甚至特定组织的信息——如前所述,它可以提供的信息基于一个大型语言模型,该模型是根据 2021 年的参数进行训练的,通常呈现充其量是无关紧要的数据。自动更新组织的知识库,
对于那些在其部署范围内优先考虑客户服务用例和个性化的组织,这增加了另一层缺失的知识——一般数据需要轻松地与正在进行的对话上下文和登录的个人客户偏好集成,比方说,像 Salesforce 这样的 CRM。当仅使用 LLM 的通用和过时信息时,这是一个有据可查的障碍,因为在遇到新数据点和不断变化的场景时,行动中的 AI 助手将无法学习或接受再培训。
早在 2021 年,我们就介绍了 GPT-3,与大多数神经网络一样,它代表了一个黑盒子,很难理解实际对话输出背后的推理。ChatGPT 所基于的 GPT-3.5 也同样缺乏可见性。当然,构建 ChatGPT 的人可以控制输入(摄入的数据)并见证产生的输出,但不幸的是,我们无法理解如何组合不同的变量和参数来创建这些输出。
ChatGPT 及其所基于的 LLM 因其正确回答大量复杂问题的能力而令人印象深刻,但由于过时的数据和提供有偏见的答案的能力,它也会产生大量不准确的回答。当助手失败时,没有责任——没有办法调试手头的问题或跟踪/查明不准确输出的来源。通俗地说,ChatGPT 不知道它不知道什么,此外,不能对用户提出的推定提出异议。
企业开始探索知识图谱技术的主要原因之一是避免缺乏数据透明度和可解释性。任何无法迭代和修改的面向用户的界面在业务环境中都是不可持续或可扩展的,尤其是当这些行业被认为是高度敏感的时候。
这是现有对话式 AI 解决方案优于 LLM 的另一个方面。即使是最底层的 DIY 聊天机器人也允许他们的用户根据需要改变和改进他们的对话流程。在更复杂的对话式 AI 界面的情况下,用户不仅可以清楚地了解错误,还可以立即追踪、诊断和补救问题。
尤其是在医疗保健、政府和银行等数据敏感行业,通用和生成响应会带来我们目前未知的责任和风险。摄入高度敏感的数据,如医疗保健中的 EMR(电子病历),可能会产生损害客户对企业信任的结果,并使整个解决方案的有效性受到质疑。
以下面的简单数学示例为例。2是自然数和整数吧?如果您偏向 ChatGPT 不这么想,则不会:
这个例子表明:
ChatGPT 可以通过用户提示(或通过训练 LLM 的训练数据中的偏差)来操纵。
ChatGPT 可以编造完全错误的答案(无论用户是否试图操纵它),这大大降低了对它的信任。
使用 ChatGPT 的组织无法回溯和了解答案的来源并相应地进行调整。(我有没有提到它是一个黑盒子?)
现在考虑更复杂和敏感的用例,例如症状检查或查询患者门户,这不能留给机会。目前,涉及受 HIPAA 合规约束的个人身份信息 (PII) 的安全保证和用例对于 ChatGPT 作为独立解决方案来说还需要数年时间,除非它受到预先构建到现有对话 AI 平台中的协议的保护。
全渠道部署——聊天是其中的一块拼图,但企业已经开始优先考虑全渠道平台,或者正如 Gartner 所说,“建立语言支持的企业”。目前,ChatGPT 就是——聊天,一个单通道助手。对于其他渠道,例如呼叫中心和智能扬声器,定制不可预测的、冗长的响应以重新用于语音 AI 对于 ChatGPT 目前是不可能的。OpenAI 自己声称 GPT-3 以及 GPT-3.5 的扩展针对未准备好截断的长话语进行了优化。从超过 1000 万次对话的经验来看,这是对转换指标和效率的死刑判决——ChatGPT 以人为本和闲聊的效率太低了,对于面向目标的任务来说是一个不理想的选择。
虽然最初从通过网站的聊天扩展到通过呼叫中心的语音,但我们不得不进行重大改变——优化长度、添加上下文,并确保我们最大限度地缩短实现目标的时间,或实现价值的时间。以下是当您不进行调整时会发生什么的示例:
虽然从文字上看可能并不长,但上面的片段在转换为纯 AI 语音生成时实际上是一段 45 秒的独白。这是通过呼叫中心进行的糟糕的用户体验,与行业打算迁移的类似乒乓球、以人为中心的对话人工智能相去甚远。
复杂操作——作为一个文本界面,ChatGPT 只返回文本输出。为了结合多个复杂的业务逻辑,对话式 AI 助手需要超越响应行为(反应)并演变成可操作的行为——包括主动的复杂动作(交互)。
例如,当患者要求预约医生时,糟糕的体验将是专门传达预约存在,而没有后续步骤。顶级企业的消费者真正需要并且现在期望的是采取积极主动的行动来端到端地完成他们的目标,即,去安排医生的预约,其中可能包括更新多个数据库或 API。
当考虑到复杂的操作时,集成,尤其是垂直特定的集成变得越来越重要——没有它们,ChatGPT 无法在企业级别执行真正的自动化。
语境弹性——ChatGPT 保持语境的能力,特别是在长的话语序列中,并在整个过程中保持人类式的对话,是一项非凡的成就。
众所周知,由于会话流程和预定义意图的僵化,典型的聊天机器人和语音助手会崩溃;使用 ChatGPT,在整个对话过程中不会丢失上下文,这意味着自然容易出现人为错误的客户可以切换方向、更改输入、重新措辞等等,而不会丢失任何信息。结合上下文并参考对话的先前部分,不仅有利于增强客户体验,也有利于提高员工用例的技能协助。
数据至上——ChatGPT 代表了非符号主义者向前迈出的重要一步(参见:颜乐存) 鼓吹更多的数据对于更好的模型至关重要。GPT-3.5 就是这样一种模型,它吸收了数十亿个数据参数,并让人工智能根据自己得出的结论创建自己的规则。
例如,看到足够多的海洋照片,人工智能就可以自信地推断出它是蓝色的。庞大的数据量使企业能够放弃通过机器学习 (ML) 来训练自己的模型这一缓慢而昂贵的过程,并超越了自己训练数据的限制范围。象征主义者(见:加里·马库斯) 另一方面,相信自然语言和对话式 AI 空间已经达到了某种被称为“愚蠢智能”的极限,为了推进这个空间,我们需要做一些截然不同的事情,比如符号人工智能.
前进的道路
结合 ChatGPT 的元素来改善对话体验,同时选择在企业数据上运行的更受控制且安全性更高的引擎,将是我们进入下一波对话和生成 AI 浪潮时的最终路径。当最新的专业知识可以与世界上最强大的大型语言模型无缝结合时,对话自动化的可能性真的是无穷无尽的。
-END-
原文链接: