【人工智能】AI操纵人类社会雏形出现?| Socioverse | 社会科学模型 | 1000万真实用户行为 | 社会环境 | 用户 | 场景 | 行为 | 完美预测美国总统选举 | 斯坦福小镇
最新研究表明,人工智能(AI)技术的发展可能已经超越了著名学者尤瓦尔·赫拉利之前的预判,不再仅仅是少数人控制个人行为,而是进入了群体操控的新阶段。一篇发表在 arXiv 预印本平台上的论文 "SocioVerse" 揭示了这一严峻的现实。
该研究由复旦大学主导,联合多家机构共同完成,旨在利用大语言模型构建一个“模拟真实社会的虚拟世界”,通过 AI 驱动的 Agent 模仿真实的人,并在模拟环境中互动,从而研究和预测复杂的社会动态。然而,要用 AI 模拟真实社会并非易事,研究人员指出了环境对齐、用户对齐、交互机制对齐和行为模式对齐这四大挑战。
为了解决这些挑战,SocioVerse 精心设计了社会环境引擎、用户引擎、场景引擎和行为引擎,分别对应时间性、个体性、情境性和互动性这四个核心逻辑维度,共同驱动数字社会模型的运转。社会环境引擎负责收集和整理外部信息,用户引擎构建包含千万级真实用户的数据库,场景引擎提供问卷调查、深度访谈、行为实验和社交媒体互动等多种场景模板,而行为引擎则利用大语言模型预测和生成每个 Agent 的行为。
为了验证 SocioVerse 的预测能力,研究团队进行了三组实验。在美国总统选举预测实验中,模型在所有州的预测准确率达到 92.2%,在关键摇摆州也高达 80%,几乎完美预测了选举结果。在模拟分析 "突发新闻" 的公众反馈实验中,AI Agent 的反应与实际用户的反应高度一致。在中国的国家经济调查实验中,AI 模型展现出令人难以置信的准确性,能够完美复制中国居民的消费模式。
SocioVerse 与之前的 "斯坦福小镇" 等虚拟社区项目不同,它直接建立在真实人类行为数据之上,构建了一个与真实社会共同生活的 "数字孪生"。这种特性使其成为一种全新的社会工具,既可以帮助我们更好地理解社会现象,为政策制定提供科学依据,也存在被用于恶意目的,成为强大的 "民意操纵者" 的潜在风险。如果拥有了像 SocioVerse 这样能够准确预测人类行为的系统,平台很可能用它来影响群体决策,通过微妙地调整真实信息的呈现方式,在无声无息中引导人们的行为和思想。因此,我们需要尽快建立健全的监管机制,确保技术朝着有利于人类社会发展的方向前进。