文:王智远| ID:Z201440
最近,阅读了一篇印度医生Atul Gawande的论文,让我对如何感知世界,有了全新的认识。
他解释说, “我们看到的并不是真实的世界”。大脑很大一部分正在“创造”我们看到的世界,这个世界的大部分内容,来源于记忆,而不是眼前实实在在的物体。
做过牙科手术的朋友应该知道,当被麻醉后,会感觉嘴唇比以前要大,实际上,这是大脑根据记忆创造出来的错觉。
大脑还喜欢从复杂的事物找规律,足球杯时,有个流传八十年的老概念,在欧洲举办的世界杯通常欧洲赢,在美洲举办的通常由美洲队赢得。然而,2014年的世界杯打破了这个“规律”,那一年的比赛在巴西举行,但最终由德国队获胜。
因此,基于经验的简化思维并不总可靠,尤其是公司做战略、投资项目时,如果只是简单认为,一个资产过去一直涨,未来也能涨,那就会严重失误。
所以, 必须始终保持警惕,以避免对真实情况的误解。 这些结论你可能都知道,不过,我更认为,比起他们,你处理信息的方式更值得关注,毕竟背后是“信念模型”在主导。
信念模型"(Belief Model)并没有被一个特定的人提出,是随着各领域发展,逐步形成,它在心理学、社会学和人工智能等领域都有其独特的理解和应用。
心理学和社会学中, 这个模型主要被用来预测人的行为 ;人工智能领域, 信念模型主要关注代理(Agent)知识和决策制定。 具体什么意思呢?
讲个故事:
有段时间,我突然对饮食习惯感到担忧,快餐、零食的诱惑,总让我难以抵抗,看到镜子里的肚子越来越丰满,我开始质疑,如果这样下去,健康会不会受到影响?
开始查阅各种饮食信息,通过阅读各种研究,我相信改变饮食习惯能够更健康,还可以预防疾病。
但需要我有决心,克服快餐和诱惑,并做出计划,购买健康材料等;过程中,我收到诸多朋友建议,他们的话就像助推器,让我更相信改变终会有结果。
同样,人工智能领域,信念模型是关键一部分,它可以帮助AI系统理解,并预测环境的变化。
试想一下:
我就像一辆自动驾驶汽车,使用信念模型驾驶在变幻莫测的道路上。开车时,信念模型像我的指南针,帮助我理解和预测路况的变化。
每当路上红绿灯变为红色,我要更新我的信念,明白这是,我需要停下来的信号。当灯变回绿色,我的信念模型又告诉我,可以开始行驶了。
不仅如此,我还得根据信念模型,预测其他道路用户的行为。如果我看见一位行人在路边准备过马路,就会提前预测他可能会走出来,于是减慢速度。我注意到一辆车准备切入我前方的车道,我就会预测他可能会降低速度,所以我也得跟着减速。
作为一辆自动驾驶汽车,我借助信念模型在复杂的环境中决策,预测并适应环境的变化,同时预测其他车辆和行人的行为;根据这些信念,我能做出下一步的行动决定,如何调整我的速度、何时应该停车,或者是否需要切换车道。
你看, 我们通过两个生活案例,看到信念模型如何帮助我,进行决策和行动的。它也揭示了,人们是如何通过信念来指导行为的。
不过,话说回来,荷兰哲学家巴鲁赫·斯宾诺莎(Baruch Spinoza)有个观察,他发现,我们在接触新信息时,通常会快速、凭初步感知形成信念,而不是深入分析。
也就是, 默认情况下,我们会视收到的信息为真实。即便后来这些信息,被证明为错误或虚假,我们最初的信念可能仍然坚定不移。
以新闻为例:
听到一则新闻时,往往会自动地认为它是真实的,即使最后可能证明是错误的。我们可能没有足够的时间、资源去深度分析这条新闻,所以做决策时,会自动地考虑这条新闻的内容。
当面对新信息,尤其是在紧急情况下,我们的反应通常是先接受,然后相信这些信息。我们往往没有时间冷静地权衡证据去验证所接收的信息。
如果我自动接受了一项完整的说法,并且后续没有机会去深入反思,我可能就会真的相信它,从而面临被误导的风险。
总的来说, 大脑视觉感知相对简单,只需要看到就能信任,而对于言语类信息,我们会理解并评估,再判断真假,但这个过程,相对复杂。
大部分喜欢“先入为主”相信一件事,后来却发现,事实不是这样;很多地方存在这些错误的观念,数量惊人,不仅误导公众,还会污染舆论之井,导致虚假的言论,在社会中广泛传播。
类似情况有:
有时,我会从聊天中听到一些医学建议,每天喝10杯水对健康有好处。但是,这种建议可能没有足够证据支持。
或者,有人给公司高管发一封虚假邮件、把商务聚会上,说一些不合适的笑话传播出去,不透露任何来源。
随着信息多次传递,要追溯真实来源,变得非常困难,甚至没有人关心它们的真实性,并当信息以不同方式发出时,可能会携带更多信息,其中包括偏见、不可靠部分,这些,最终导致人们对信息理解产生偏差。
如果某个信息来自特定的意识形态领域,我们不能仅仅因为传播者,有某种特定的偏见,就完全归咎于他们。
除非这个传播者,对所有可用的来源,都持有成熟的阴谋论,我们才能说他们传播信息是出于特定的偏见。
换句话说, 我们不能轻易地,认为某个人传播信息只是因为他们有某种特定的偏见。我们需要更深入地了解情况,考虑信息的来源和背景,以及其他可能的因素,才能做出更准确的判断。
有些人喜欢在抖音、小红书、微博发布各种视频、照片展示豪华旅行、名牌购物、奢侈品收藏等。
虽然这些展示可能是虚构的,与商家合作种草的行为,但很多人会被这些外在的视觉所吸引,误以为,这些人真的过的如此奢华。
他们可能会受到这些表面的信息所影响,产生一种错误的观念,认为这些虚构的展示是真实的。
亦或:
某地发生一场大地震,导致断电和通信中断。这种紧急情况下,人们可能会面临困境,无法联系家人和朋友、无法获得及时的救援和资源等。
然而,有些人,可能会传播关于地震期间的不实言论。比如说,有奇迹般的救援队伍出现,或者,某个地区的居民全都逃离,这些虚假言论会引起其他人的恐慌和混乱,导致更大的困难和紧张局势。
不过,还有一些人可能比较聪明。
他们提倡"不信谣,不传谣"的观点,这当然是一种积极的态度。 可我发现,这些人更容易陷入一种与自动信念模型相悖的思维模式,即 GOSH效应(Gilbert-On-Spinoza Hypothesis) 。
什么意思呢?
面对各类新闻、经验等信息时,他们都一套自己认为的信念,更愿意接受与已有信念相符的信息,并自动忽视与信念相悖的信息,不愿意接受相反的证据、观点。
最常见情况是开会时。
当谈到一个项目决策,其他人支持另一个方案,对你提出的观点怀疑,你会感受到压力和不适,会思考是否坚持自己的观点,还是为了避免冲突,寻求团队认同,而放弃想法。
这种内心挣扎和犹豫,正是GOSH效应的体现。 从反面来讲,如果你是一名管理者,权威比较大,那也可能因“光环效应”默认你是对的,最终忽略一部分事实。
还有比较经典的例子。
我会故意把手表或时钟调快10分钟,这样我会觉得时间比实际上更晚,进而更快地赶去约会。虽然这个做法有点荒谬,我明明知道手表不准确,但我还是会被表面上的信息所影响,误以为手表显示的虚假时间是真实的。
还有,当人们在做决策时,他们往往会过于重视货币的面值,而忽视其他更重要的因素。
比如,假设通货膨胀率为7%,而每月工资只增加1000美元,大多数工人可能会选择这个选项,而不是每月增加50美元的选择,尽管后者的通货膨胀率只有1%。经济学中把叫做“货币错觉”。
这样的选择实际上并不明智,因为实际工资的增长只有3%,而不是7%;相比之下,后者实际工资增长了4%。
也就是说,人们往往只关注加薪的数额,而忽视掉通货膨胀等背后的因素,毕竟,大半人认为,工资高比什么都好使,其实, “钱值不值钱”,与通货膨胀有直接关系。
能得出什么结论?
斯宾诺莎的“自动信念模型”和“GOSH效应”不同在于, 其一,前者,强调个体在对外界信息进行初步感知后,自动形成信念,不需要深入分析。
其二,后者侧重于,人们在信息处理中更容易受到与自身信念相符的信息的影响,以及对与之相悖的信息持怀疑态度。
理解这些,你就明白大脑如何处理信息,以及有些人为什么会如此固执的坚守自己的想法。
那么,我们的这些偏见,到底怎么来的?你会说,别人的影响,好奇心,诸如此类。假设用媒介观察者视角来看,这些只能代表表面现象。
深层次,是一种 “真相饥渴” 。
当我们的情感,和个人信念开始比客观事实更能够影响公众舆论时,真相就变得稀有起来。在社会上涉及公共利益的事件中,真相稀缺的现象有很多原因。
比如说:
权威机构的调查结果,需要经过严格的确认才能发布,这需要时间;很多复杂的事情,并没有简单的非黑即白的答案,事实隐藏得很深。
当我们讨论社会问题时,我们的正义感会被加强,我们更需要那些能代表公序良俗的事实。
从个人的情感角度来看,回顾那些,曾经在社交媒体上引起轰动的话题,现在的人们对真相有一种迫切的渴望,并非无缘无故。
在研究极端案例的传播后果时,许多学者都提到,事件本身对公众心理造成了伤害,比如引发恐慌、导致不信任以及对事实异常敏感等。而真相的信息量有多大,我们自己的想象力就有多大。
换句话说, 如果客观的事实传播不够及时或不够充分,那么我们就干脆自己创造和传播主观的事实。
从概率上来看,我们的想象力并不总能推动真相浮出水面,反而更容易造成混淆;但是我们应该正视这种"真相饥渴",特别是,大家关注的热点问题中。
一是,要让人们更快地获得真实信息;二是,要创造一个不传谣、不造谣,并且能够辟谣的舆论环境;三是,要理性地看待自己的想象力,引导网友在想象的过程中输出更多真正有价值的信息。
不过,我的这些想法你可能也知道,他并不能改变什么,毕竟网络是一个“社会大染缸”,很难做到统一。因此, 时刻保持质疑的能力,就显得格外重要。
不妨先思考下,什么情况下,能让一个人拒绝他原本会接受的信息?
当我在工作中需要与他人进行沟通时,有时,会遇到他人对我提出的观点,抱有抗拒或怀疑的态度,这种情况,可能是因我之前,对这个人有偏见,或者先入为主的看法所导致的。
这种情况下,我就会时刻警惕,自己可能存在的偏见和先入为主的观点,努力避免,让这些想法影响我我的判断和行动,并保持客观和开放的态度。
同时,我也会意识到对方可能也有类似的情况存在,需要通过善意的交流,和理性的辩论,来减少对方的抵触和怀疑。
我曾经读到一篇研究论文,它探讨人们在观看广告时如何受情绪影响。
假设你在看一则,介绍一个新款手机各种功能、特点的广告,观众通常会对广告中的功能、特点产生相应的情绪反应,比如兴奋、好奇或满意。
当广告展示手机快速反应的速度时, 观众可能会感到兴奋、激动 ;当广告展示手机高像素的摄像头, 观众可能会感到好奇和期待 ;同时,观众的表情和身体语言,也会随着广告内容展示而有所变化。
同时,如果广告展示一个让人惊喜的特点,比如快速充电的速度,观众可能会皱起眉头并微微前倾, 表示好奇和惊讶 ;如果广告展示了手机长时间续航的特性,观众可能会松口气并稍微放松下来, 表示满意和安心。
观看完广告后,观众会对自己的情绪和感受进行评价。 研究发现,观众通常会在情绪感受上,与他们的表情和身体语言保持一致。
不过,有时也会出现例外情况。
比如,如果广告中出现了一个你不太喜欢的品牌代言人,你可能会调整自己的情绪和感受,不去考虑品牌代言人, 只关注手机本身的特点和性能。
这与研究发现相符,即在理解产品信息之前,观众通常会先产生情绪反应,只有在具备足够的认知资源和动机后,才会深入思考和判断产品信息。
这能说明什么?
拿我来说,当有足够的认知能力和动力时,我才会开始质疑事物。如果没有对某个问题没有兴趣,可能不会深入思考和质疑它。
但是,如果我想让自己开始质疑某个观点或理论,就需要创造一个,能够激发我认知能力和动机的环境。这可能包括提供相关信息,引发我的思考和讨论,并强调问题的重要性和影响。
只有在这样的环境中,我才会主动去思考、质疑并探索更深层次的问题。
所以,该如何质疑呢?我觉得可以分为三个步骤,分别是: 创造激发认知资源和动机的环境、覆盖默认值,保持客观和开放的态度、以及善意交流和理性辩论。
总而言之:
人们很难理性,更多采用群体思考。
群体中,信息会导致人们“先入为主”,不管对错的去相信一件事,这会形成自动信念模型。
自动信念模型,可能导致GOSH效应出现。 时刻“保持质疑”,说白了,就是在“培养思辨”与“和而不同”的能力。