谷歌 AI 搜索结果反复出错:PS/2 型号 280 不存在,提醒用户谨慎对待自动生成的摘要
近日,一名用户在尝试查询1992年发布的IBM PS/2服务器模型时遇到了问题。他先是在Google搜索中输入了该模型号,得到了如下结果: 这看起来不太对劲,因为用户所寻找的机器确实配备了486处理器(甚至有多个),并且使用的是Microchannel架构(MCA)。用户决定再次尝试,但是搜索引擎提供的结果依然不对。 尽管多次尝试,AI生成的回答每次都不相同。在第一次回答中,PS/2 Model 280被描述为一个ISA总线的286系统,内存从1MB可以扩展到6MB。第二次查询则声称该机型仅支持640KB的内存,但依然拥有1.44MB软盘驱动器和VGA图形。第三次回答中,该模型的配置再次发生了变化,声称它可以扩展到128MB的内存,而实际上286处理器的内存上限仅为16MB。 更有趣的是,在某些尝试中,AI甚至给出了这样的结论:“PS/2 Model 280是IBM个人电脑系列中的重要一步,它帮助确立了PS/2作为一个受欢迎且可靠的平台。” 然而,真相是并不存在具体的PS/2 Model 280这个型号,用户只是记错了型号。 然而,在重复查询足够多次之后,有时候AI确实会给出正确的答案。正确的回答指出了用户的错误:“你查询的PS/2 Model 280并不是PS/2系列的具体型号”。这种正确的回答只有大约10%的概率出现,绝大多数时候,AI都在“捏造”答案。 这一经历揭示了一个重要的问题:对于非专家用户来说,这些捏造的答案极具误导性。虽然这些回答看起来非常具体且有说服力,但实际上与现实严重不符。专家用户可能会迅速发现这些问题并进行核实,而非专家用户则可能完全被迷惑。 AI助手本应作为用户获取信息的可靠工具,但当它频繁地给出不同且错误的答案时,不仅无法帮助用户,反而可能导致严重的信息误判。这种情况让人不得不质疑其实际价值。 Google已经明确提示用户,“AI响应可能包括错误”,但许多用户可能并没有意识到这一点。搜索引擎的使用者应该保持警惕,尤其是在处理重要信息时,最好通过其他途径进行交叉验证,以确保获取的信息真实可靠。这种现象也反映了当前AI技术在内容生成方面的局限性,亟需进一步改进以提高准确性。