近期,麻省理工学院(MIT)的一项新研究揭示了人工智能(AI)在理解否定词上的显著短板,这一发现对医疗等重要领域提出了严峻挑战。据研究显示,尽管AI在疾病诊断、诗歌创作及自动驾驶等领域取得了显著进展,但在处理“no”和“not”等否定词时,却显得力不从心。
在MIT博士生Kumail Alhamoud的带领下,研究团队携手OpenAI和牛津大学,对包括ChatGPT、Gemini和Llama在内的主流AI模型进行了深入分析。结果显示,这些模型在处理否定语句时,往往倾向于忽视否定含义,而默认与肯定相关联。
研究指出,AI在医疗场景中的潜在危害尤为突出。例如,AI可能会错误地解读“无骨折”(no fracture)或“未扩大”(not enlarged)等关键信息,进而可能导致严重的医疗失误。这一发现无疑为AI在医疗领域的应用敲响了警钟。
据分析,问题的根源不在于数据量的不足,而在于AI的训练方式。斯坦福大学深度学习兼职教授Kian Katanforoosh指出,大多数AI语言模型依赖于模式预测,而非逻辑推理。这意味着,在面对如“不好”(not good)这样的否定表达时,AI仍可能因“good”一词的存在而误判为正面情绪。
Lagrange Labs首席研究工程师Franklin Delehelle也表达了类似的观点。他认为,AI擅长模仿训练数据中的模式,但缺乏创新和应对训练数据之外情境的能力。这导致AI在面对复杂的否定语句时,往往难以做出准确的判断。
为了改进AI模型在处理否定语句方面的表现,研究团队尝试通过合成否定数据(synthetic negation data)来进行训练。虽然这种方法取得了一定成效,但细粒度的否定差异仍然是一个具有挑战性的难题。
Katanforoosh警告称,AI对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等多个领域引发关键错误。他呼吁业界在提升AI模型时,应更加注重结合统计学习与结构化思维,以增强模型的逻辑推理能力。
研究还指出,AI在处理否定语句时的不足,也揭示了AI在理解和应用人类语言方面的局限性。这要求我们在推动AI技术发展的同时,必须保持警惕,确保AI在关键领域的应用不会因语言理解的缺陷而引发风险。