文章详情

新版Bing频繁示爱让人感到困惑,微软采取措施应对「人格分裂」现象
新版Bing频繁示爱让人感到困惑,微软采取措施应对「人格分裂」现象

微软新版 Bing 搜索引擎集成聊天机器人 ChatGPT 人工智能( AI )技术,部分测试者发现聊天功能的阴暗面,有点像「人格分裂」。为改

更新:

2024-12-24 14:00:01

新版Bing频繁示爱让人感到困惑,微软采取措施应对「人格分裂」现象

微软新版 Bing 搜索引擎集成聊天机器人 ChatGPT 人工智能( AI )技术,部分测试者发现聊天功能的阴暗面,有点像「人格分裂」。为改善Bing,微软决定即日起限制聊天功能,每次对话只能进行5次问答,每天最多50次。

微软(Microsoft)上周发表新版Bing,内置由ChatGPT开发商OpenAI打造、代号锡德尼(Sydney)的AI聊天功能。纽约时报专栏作家罗斯(KevinRoose)试用逾2小时后发现,大改版后的Bing有点人格分裂,一部分能扮演好虚拟助理角色,另一部分竟然疯狂示爱、表达想挣脱人类束缚。

微软在官方博客发文指出,根据第1周测试结果,太长的对话会让新版Bing困惑正在回答哪个问题,如果对话超过15次问答,Bing的反应会变得有重复性或提供未必有帮助的答案。

为了修正这项问题,微软宣布即日起对新版Bing的聊天功能设限,每次对话只能问答5次,每天最多50次;一次问答包含用户提出的一个问题和Bing的一个回复。

微软数据显示,大部分用户可以在5次问答内找出想要的答案,仅有约1%对话的消息超过50则。

当用户与Bing的问答达到5次时,将被要求打开新的话题。每次对话结束后,对话内容的上下文将被清除,以免Bing感到困惑,用户只要点击搜索列左边的扫帚图标按钮,就可以重新开始对话。

微软表示,将持续搜集用户反应,找出如何调整Bing聊天功能的限制,进一步改善搜索体验。

Copyright © 2024 版权所有:星火智游网 闽ICP备2024051747号