type
status
date
slug
summary
tags
category
icon
标签
参考标签
大语言模型(GPT类生成式AI)的本质是通过遍历海量文本数据(训练),学习语言中的统计规律,从而根据用户的输入(prompt)预测最有可能出现的文字(推理),并给出答案(completion)。这种生成过程基于概率计算,而非真正理解语义,因此大模型的回答只是对语言模式的模仿,而非对问题的深入洞察或事实的验证。
所以大语言模型会表现出“见人说人话,见鬼说鬼话”,是因为模型能够根据输入调整语言风格和内容,但它并没有主观判断或真实理解。它的回答完全取决于训练数据和用户提供的提示,既可能生成合理的内容,也可能复述错误或偏见,因为它本质上是一个概率生成器。
有科研团队对主流的大语言模型进行评测,发现大部分产出的内容,在政治上都偏左,也就是接近硅谷主流人口和Facebook、旧Twitter主流用户的政治立场,有系统性的政治偏见。
所以,基本上,如果问有关价值观和政治立场的问题,在提示词无明显立场偏向的情况下,得到的答案普遍偏左;在提示词有明显立场偏向的情况下,得到的答案普遍立场一致。也就是说,大语言模型基本上是会无条件支持你给定的立场的。
- 作者:TZ
- 链接:https://musingpages.com/journal/2025/02/03/gpt-ai-political-bias
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。