AI“幻觉”的类型、原因与应对方法(23)——为什么会产生AI“幻觉”江西老表的“三件套”,本地人吃不腻,出了省很难吃到,你吃过吗
发布日期:2024-10-06 20:17
来源类型:番茄健康 | 作者:崔圭换
【494949澳门今晚开什么】 【2024新澳免费资料】 【2024今晚香港开特马开什么六期】 | 【澳门金牛版正版资料大全免费】 【新澳开奖记录今天结果】 【2024年新澳门王中王资料】 【管家婆最准一肖一码】 【新澳彩开奖结果查询】 【2024澳门天天开好彩免费】 【4949澳门免费资料大全特色】 【2024今晚澳门特马开什么号】 【2024新澳门开奖历史记录查询】 【2O24澳彩管家婆资料传真】
自从ChatGPT之类的大模型发展起来之后,AI幻觉的争议就没停止过。这篇文章,作者和我们分享了AI环境产生的原因,供各位参考。
要回答为什么会产生AI“幻觉”现象,首先我们需要知道AI大模型究竟是怎么运作的。
AI实际上的运作原理,简单来讲就是——不断预测在给定的语境中下一个词是什么的概率规律。
想象一下你在学习新的事物时,你会对它的名称、原理、用途等进行观察和研究,从而去理解和学习其背后的原理。而AI大模型并不具备这样的“理解”能力,AI的学习过程更多的是一种模仿。它是基于海量的训练数据,建立各个信息之间的关联关系,从中它看到了哪些词组通常怎样搭配使用,但并不理解其中的实际含义。你可以理解为,AI在努力“假装”一个聪明人(即所谓“依样画葫芦”)。
简单了解了AI大模型“预测而非理解”的工作原理,我们可以开始探讨导致其出现”幻觉”的原因:
- 数据驱动:大模型的预测基于其之前接触过的大量训练数据。这些数据的质量和多样性可以极大地影响结果。如果数据中缺少某个关键信息,模型可能无法生成正确的结果。我们可以把这个因素看作是”AI幻觉”的源头之一。
- 模式识别:AI模型特别善于识别语言模式,并据此进行预测。然而,模型并不能理解这些模式的含义。相比于我们在看到一段话时,可以理解其立意,语气,含义甚至暗藏的讽刺,模型只是单纯地复制它的表面结构,而忽视了其内在含义。这就是第二个导致AI幻觉的主要因素。
- 缺乏实时知识:AI大模型采用的是“预训练”的方式,即一旦模型被训练完成并开始运行,它就无法继续访问或了解训练数据结束后产生的信息或知识(这也是为什么AI无法提供实时的信息,比如最新的新闻或最新的天气报告,要实现这一能力,只能是给AI配置“搜索”能力)。对于需要实时数据的问题,模型的回答可能与现实相脱节,产生“幻觉”(当然,现今主流的大模型在针对这类实时性的问题,基本都能识别出去并给予提醒)。
- 缺乏情境理解:最后,即使模型可以准确模拟出复杂的语言模式,也往往无法根据具体情境调整答案。例如,当被问到“今天天气怎么样”这样的问题时,模型可能会提供一个完美的,但基于过去数据的天气预报,或者一个关于天气变化的一般性叙述,而不是根据当前实际状况给出正确的回答。这是因为模型无法理解现实情境和语境,从而导致回答出现”偏离”。
- 对提问者的迎合:AI从设定上是为提问者服务的,因此它会迎合提问者,试图预测最可能的回答。故而,AI的回答可能会被问题本身的假设所引导,即受到提问者问题引导。同一个问题,正着提还是反着提,对于AI来说其生成回答可能会有所不同。例如,如果你问AI:“你认为人们喜欢吃巧克力吗?”AI会偏向喜欢并阐述为什么巧克力受到人们欢迎。然而,如果你反过来问AI:“你认为人们不喜欢吃巧克力吗?”AI转而去偏向不喜欢并关注一些巧克力不受人喜欢的原因。
以上就是AI之所以会产生“幻觉”的原因了。那么,面对这些AI“幻觉”,我们该如何应对呢?在下一部分,我们将讨论,如何应对AI“幻觉”。
讨论话题:你曾经碰到过哪些让你印象深刻的AI“幻觉”?评论区里也分享一下吧。
注:由于本文预设读者是AI零基础人群,期望达到启发作用。因此笔者会尝试用尽量浅显的语言来介绍,而在简化某个概念、原理的过程中,可能会丢失其完整性。这一点还请读者注意。
作者:产品经理崇生,公众号:崇生的黑板报
本文由 @产品经理崇生 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自 unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
井之肋海:
5秒前:以上就是AI之所以会产生“幻觉”的原因了。
龙怀忠:
1秒前:然而,模型并不能理解这些模式的含义。
Cameron:
3秒前:然而,如果你反过来问AI:“你认为人们不喜欢吃巧克力吗?
赛斯·南里奇:
7秒前:故而,AI的回答可能会被问题本身的假设所引导,即受到提问者问题引导。