您当前位置: 社科研究
研究揭示AI对概率的理解与人类不同
2026-03-11 10:58:49

中国社会科学报综合外媒报道 当人们听到“可能”“很有可能”这样的表述时,往往会在心中形成一个大致的概率判断。虽然这种理解并不精确,但一般是以一定的社会共识为基础的。然而,近日,美国南加利福尼亚大学工业与系统工程副教授马扬克·凯杰里瓦尔(Mayank Kejriwal)等人研究发现,当AI使用这些词语时,其背后的概率含义可能与人类的理解存在偏差。

研究人员表示,AI在表达不确定性时,其语言使用与人类认知常出现偏差。他们通过比较AI与人类如何将“也许”“可能”“几乎确定”等估计性概率词汇对应为具体百分比数值,发现两者之间存在显著差距。

研究成果表明,在“绝不可能”这类极端表达上,AI与人类的理解相对一致,但在“也许”“很可能”等词语所代表的概率上,AI与人类却分歧明显。例如,AI会将“很可能”对应为80%的概率,而人类读者对该词的理解通常更接近65%。这种差异意味着,同样一句话,在AI与人类之间可能代表不同程度的风险判断。

研究人员认为,这种错位或许源于理解方式的差异。人类在判断“可能”“很可能”时,往往依赖具体语境、经验背景和社会习惯;而AI则是基于海量文本数据进行统计学习,对不同语境下的用法进行“平均化”处理,因而难以精确贴合具体场景中的人类直觉。

此外,研究人员还发现,AI对提示语的表达方式高度敏感。当提示语中的代词从“他”改为“她”时,AI给出的概率判断往往更加僵化,反映出训练数据中潜在的性别偏见。当提问语言从英语切换为其他语言时,AI的概率估计也会发生变化。这或许与不同语言在表达和理解不确定性方面的文化差异有关。

在研究人员看来,人们不应将这一问题看作简单的语言偏差,而是应将其视为关乎AI安全与人机协作的关键议题。随着AI在医疗、公共政策和科学传播等领域的应用日益广泛,其风险表述方式正直接影响专业决策与公众信任。例如,在医疗场景中,如果AI将某种副作用描述为“不太可能”,而其对该词的内部赋值远高于医生对该词的理解,就可能导致风险评估失准,从而影响诊疗决策。类似的偏差,在政策咨询或科学报道中同样可能误导政策制定者或公众。

事实上,人类对不确定性的量化研究早在20世纪60年代就已展开。近年来,围绕大语言模型的研究不断深化,学术界不仅关注模型的“智能程度”,也开始审视AI与人类认知的“对齐”问题。

当前,部分研究者正探索通过“思维链提示”引导AI展示推理过程,以纠正偏差。但凯杰里瓦尔等人认为,即便引入高级推理机制,统计概率与语言标签之间的鸿沟仍难弥合。

在一个AI能够参与撰写科研摘要、作出风险提示乃至影响公共决策的时代,确保“可能”真正意味着人类所理解的“可能”,将成为构建可信赖人机协作关系的重要前提。凯杰里瓦尔等人呼吁建立更加严格的一致性指标,确保AI在面对相同概率数据时,能够给出稳定、可预期的语言表述。(杨蓝岚/编译)

来源:中国社会科学网-中国社会科学报

网站所属:玉溪市社会科学界联合会
单位地址:玉溪市红塔区抚仙路86号高新科技大楼1202室
域名:http://www.yxshkxj.cn | Email:yxssklbgs@163.com | 电话:0877-2033863
滇ICP备17008377号-1滇公网安备 53040202000256号