韩国研究人员终于开发出了一种新方法,可以让人工智能模型承认它们对人类行为等话题的不熟悉。 韩国科学技术院的研究人员表示,这一突破可以提高自动驾驶和医学等领域使用的人工智能模型的可靠性。 此前的研究强调人工智能“过度自信”是使用此类工具进行决策的主要风险之一,特别是在医疗诊断等领域。 常用的人工智能模型(例如 OpenAI 的 ChatGPT)已被证明会产生“幻觉”或事实,因为它们被鼓励猜测而不是承认自己缺乏知识。 现在,研究人员开发了一种方法,使人工智能能够识别涉及不熟悉或未见过的知识的情况,有助于提高聊天机器人的整体可靠性。 他说,对人工智能过度自信的根本原因是它使用人工神经网络从初始数据中学习的方式,人工神经网络构成了人工智能的骨干基础设施。 此阶段遇到的小错误可能会传播,如果不纠正,则会在后续训练中导致严重错误。 研究人员发现,当在初始阶段将随机数据输入神经网络时,该模型尽管没有学到任何东西,但仍显示出很高的置信度。 这引起了“幻觉”。 Grok、DeepSeek 和 ChatGPT 应用程序显示在手机屏幕上(法新社来自 Getty) 为了解决这个问题,研究人员表示,他们利用了人脑解决问题方式的线索。 对于人类来说,甚至在出生前,大脑信号就在没有外部输入的情况下产生,这有助于解决这个问题。 模仿这一点,科学家们开发了一个系统,其中人工智能模型的神经网络主干在实际学习之前使用随机噪声输入进行了简短的预训练。…
Read More


