微软(Microsoft)限制了人们与必应(Bing)人工智能聊天机器人对话的范围,此前有媒体报道称,天辰注册该机器人在长时间交流中失控。该公司周五在一篇博客文章中宣布,必应聊天现在将为每次对话连续回答最多五个问题或陈述,之后用户将被提示开始一个新话题。用户每天最多只能回复50条。
这些限制是为了防止对话变得奇怪。微软表示,长时间的讨论“会混淆潜在的聊天模式”。
周三,该公司曾表示,正在努力修复一周前刚刚推出的必应的问题,天辰注册包括事实错误和奇怪的交流。网上报道的奇怪回应包括,必应告诉《纽约时报》专栏作家放弃他的婚姻,和聊天机器人在一起,以及人工智能要求Reddit用户道歉,因为他不同意现在还是2022年。
该聊天机器人的回答还包括事实错误,微软周三表示,它正在调整人工智能模型,使其可以获得答案的数据量增加四倍。该公司表示,它还将给予用户更多控制权,决定他们是想要来自微软专有的必应人工智能技术的精确答案,还是使用OpenAI的ChatGPT技术的更“有创意”的回答。