在过去的几个月里,我通读了人工智能术语表,以了解生成式人工智能新世界的词汇。我认识到我一直在深入研究这个主题,并且可能比普通美国人更了解人工智能,但我仍然认为与生成式人工智能相关的一些关键概念是广为人知和理解的。本周与一位新闻学教授的交谈告诉我事实并非如此:当我解释人工智能工具如何有“幻觉”倾向时,他们茫然地盯着我说:“这是什么意思?”
“Hallucinate”是每个人都应该知道的与 genAI 相关的第一个词汇之一。简而言之,这意味着人工智能引擎,例如 OpenAI 的 ChatGPT,倾向于编造一些不真实但听起来真实的东西。事实上,美国联邦贸易委员会本月早些时候开始调查OpenAI,因为其聊天机器人可能会对 人们做出虚假陈述。人工智能背景下的“幻觉”从何而来? 谷歌 DeepMind 研究人员在 2018 年提出了这个奇怪的术语,称他们发现神经机器翻译系统(NMT)“很容易产生高度病态的翻译,而这些翻译完全不受源材料的束缚。”
高度病态的翻译不受源材料的束缚。我不是工程师,但即使我知道这是一种非常好的方式来表达这些系统确实出了问题。
大多数术语表都对人工智能“幻觉”提供了更直接的解释。该定义由NBC News提供:
“幻觉:幻觉是人工智能程序意外且不正确的反应,其产生原因尚不完全清楚。当你询问有关种植果树的问题时,语言模型可能会突然提出水果沙拉食谱。它也可能构成学术引文,对你要求它分析的数据撒谎,或者编造训练数据中没有的事件事实。目前还没有完全理解为什么会发生这种情况,但可能是由于数据稀疏、信息差距和错误分类造成的。”
为了公平起见,我向 ChatGPT 征求意见,要求它告诉我“幻觉”在指人工智能时意味着什么。这是它的回应:
在人工智能的背景下,术语“幻觉”被用来隐喻地描述不基于直接观察或现实世界数据的内容或信息的生成。当人工智能系统产生“幻觉”时,这意味着它产生的输出可能类似于或模仿训练数据中发现的某些模式或特征,但实际上并不基于现实。
“幻觉”一词并不是人工智能特有的,而是借用了它在心理学领域的用法。在心理学中,幻觉是指在没有任何外界刺激的情况下发生的感知或感官体验。这些看法并非基于现实,而是被经历它们的个人视为真实的。
在人工智能的背景下,该术语用于隐喻地描述生成的输出偏离现实或引入原始数据中不存在的元素的情况。例如,在图像生成领域,人工智能系统可能会生成包含超现实或奇幻元素的图像,这些图像并非基于训练数据中观察到的实际物体或场景。
“幻觉”一词用于强调人工智能系统产生超出直接观察或明确指示的输出的潜力。它反映了人工智能算法推断、组合或创建新模式的能力,有时会产生意想不到的或富有想象力的结果。
在我看来,对于对话式人工智能来说,这是一种冗长而令人费解的方式来表达它编造的东西。如果我不了解的话,我还会说 ChatGPT 有点防御性。
以下是人工智能领域其他值得您关注的事情。