12月18日消息,研究机构AI Forensics今年8月至10月对微软必应搜索引擎内置的Copilot功能进行调查,结果显示在部分场合中,Copilot 有 1/3 的几率输出错误答案,据此,该机构认为相关功能存在严重“幻觉”漏洞。
今年10月研究人员已经向微软提交上述问题,微软虽然承认并声称“计划解决相关‘幻觉’漏洞”,但在今年11月,研究人员再次进行测试,发现必应Copilot的表现并未改善。
扫一扫
在手机上阅读
您还没有登录,登录后您可以:
首次使用?从这里 注册