“人工智能教父”杰弗里·辛顿:过度信任AI聊天机器人的教训
“人工智能教父”杰弗里·辛顿表示他对自己的聊天机器人存在过多信任。“我应该对其提供的答案保持怀疑态度。”他在一次采访中说道。一个典型的例子是他在ChatGPT上测试了一道逻辑题:“Sally有三个兄弟,每个兄弟有两个姐妹,Sally有几个姐妹?”正确的答案是1个,因为Sally本身就是两个姐妹中的一个。然而,GPT-4却给出了错误的答案,即2个。这让他感到非常意外,“这很让我吃惊,它居然还在这种问题上出错。” 尽管GPT-4在某些情况下仍然会出现错误,但辛顿指出这并不是普遍现象。在访谈播出后,许多人在社交媒体上分享了他们使用更新版本的GPT,如GPT-4o和GPT-4.1时,这些模型都能够正确回答这个问题。OpenAI在2023年首次推出GPT-4,作为旗舰大型语言模型,该模型因其在诸如SAT、GRE和律师资格考试等复杂测试中的出色表现而备受关注。随后,在2024年5月,OpenAI推出了GPT-4o,声称这一新版本不仅保持了GPT-4的智能水平,还拥有更高的速度和更大的灵活性,提升了多模态处理能力,尤其是文字、语音和视觉方面。此后,OpenAI又陆续发布了GPT-4.5和最新的GPT-4.1版本。 根据Chatbot Arena排行榜的数据,目前排在榜首的是谷歌的Gemini 2.5-Pro,而OpenAI的GPT-4o和GPT-4.5紧随其后。值得一提的是,一项由AI测试公司Giskard进行的最新研究表明,当要求聊天机器人提供简短回答时,它们更容易“产生幻觉”或编造信息,导致事实错误增加。这表明,为了追求快速、简洁的回答,AI系统可能会牺牲准确性。 尽管辛顿对当前AI的能力表示担忧,但他也承认AI技术的快速发展不容忽视。他认为,AI在很多领域内已经取得了令人瞩目的成就,但在涉及关键信息处理时仍需谨慎对待。他提醒用户应当对AI系统的输出持批评态度,特别是在教育、医疗和法律等专业领域,正确信息的重要性不言而喻。 行业内专家评论称,辛顿的警告对于那些依赖AI技术的企业和个人具有重要意义。他的公开表态不仅强调了当前AI技术存在的局限性和潜在风险,也为开发者和用户提供了宝贵的反思机会。同时,OpenAI在AI领域的领先地位和技术实力使其能够持续改进其模型,保持竞争力。 OpenAI是一家专注于研究、开发和应用先进AI技术的公司,在行业中享有极高的声誉。自成立以来,该公司一直致力于推动AI技术的发展,为社会带来积极影响。辛顿本人曾是OpenAI的研究员之一,后转投Google工作。近年来,他持续关注并评论AI行业的最新进展,成为推动AI伦理和技术进步的重要声音。