标题Location Not Found: Exposing Implicit Local and Global Biases in Multilingual LLMs来源arXiv, 2604.19292v1️文章简介研究问题多语言大模型在面对未明确指定地点的模糊问题时会默认依据哪种地域现实来回答从而暴露出怎样的隐含偏见主要贡献论文提出了 LocQA 基准测试集量化了多语言模型中普遍存在的以美国为中心的全球偏见和基于人口规模的区域偏见。重点思路构建 LocQA 数据集包含 12 种语言、49 个地区的 2156 个地点模糊问题这些问题仅通过查询语言暗示背景不直接提及具体国家。定义双重评估指标全球偏见度量模型在非英语提问下默认采用美国规范的程度区域偏见度量模型在同一语言内对不同地区答案的代表性差异。利用自动化评估流程分析模型回答将美国中心主义回答细分为抹除本地事实、无故插入美国信息、优先选择美国选项等五类错误模式。对比基座模型与指令微调模型的表现探究对齐训练如何改变模型处理文化多样性的策略及其带来的偏见权衡。分析总结几乎所有被测模型都表现出显著的全球偏见即使在非英语环境下也倾向于默认输出美国规范且这种偏见在指令微调模型中更为严重。模型在区域层面表现为“人口概率引擎”过度代表人口大国或西方国家而系统性地抹除同语言下人口较少地区的本地事实。存在明显的“文化对齐税”指令微调虽然通过列出多个答案降低了区域偏差幅度但却通过引入美国作为通用参照点加剧了全球偏见。在高能力模型中当模型犯错时其错误答案更大概率是被美国规范所取代表明美国中心主义是一种顽固的默认先验而非知识缺失。个人观点论文指出了“多语言”不等于“多文化”的关键缺陷挖掘出模型深层的地缘政治先验。