仔细阅读必应的人工智能搜索结果可以发现,该网站可能会犯与它使用的ChatGPT技术基础以及谷歌的竞争对手巴德(Bard)明显相同的错误。
正在限量测试的新版本必应采用了OpenAI的大型语言模型(LLM)技术。OpenAI是微软投资的研究实验室,其ChatGPT人工智能聊天机器人吸引了科技领域的关注。ChatGPT和相关技术在大量互联网上训练,可以产生显著的结果,但它们并不真正了解事实,而且可能会犯错误。
必应试图通过微软的搜索技术来“基础”搜索结果,评估源文件的真实性和权威性,并提供源文件的链接,以便人们可以更好地自行评估结果,从而避免此类错误。但人工智能和搜索引擎研究员德米特里·布里雷顿和其他人发现了必应演示中的错误,包括Gap季度收益报告中的财务数据有缺陷。
这对人工智能来说是个扫兴的时刻。这项技术确实可以产生显著而有用的结果,但问题是评估什么时候它没有这样做。随着搜索引擎行业试图找到正确的模式,预计会更加谨慎。
谷歌在上周的一次演示后感到了痛苦,天辰注册当时它的巴德工具(尚未公开)产生了关于詹姆斯·韦伯太空望远镜的错误信息。
周二,微软对谷歌的失误做出了类似的回应:“我们意识到仍有工作要做,预计系统在预览期间可能会犯错误,这就是为什么反馈是至关重要的,这样我们就可以学习并帮助模型变得更好。”
一个基本问题是,即使使用学术论文和维基百科条目等经过一定程度审查的文本进行训练,大型语言模型也不一定能从原始材料中得到事实性的回应。
正如互联网先驱、谷歌研究员温特·瑟夫(Vint Cerf)周一所说,人工智能“就像一个沙拉射手”,在厨房里到处散布事实,但并不真正知道它在生产什么。“我们离我们想要的自我意识还有很长的路要走,”他在TechSurge峰会上的一次谈话中说。
总结文档似乎在人工智能的高级语言处理能力范围内,但在不引入不适当信息的情况下构建人类可读的句子可能很困难。例如,在这份要求总结佳能新R8无反光镜相机规格表的请求中,必应技术列举了佳能早期R5相机的许多实际功能。