深度伪造的威胁变得更加个人化 在线

  • 2025-05-13
  • 1

谷歌DeepMind与斯坦福大学开发高效AI复制品

主要要点

谷歌DeepMind与斯坦福大学的研究团队创建了AI复制品,基于简单的访谈生成超过1000个人的模拟模型。通过两个小时的对话,AI模型能够大致准确地反映真实个体的性格。AI复制品在个性测试和社会问卷的结果上与人类受试者的相似度达85。该技术的潜在应用包括评估公共健康措施和社会事件反应,但也存在被滥用的风险。

一项来自谷歌和斯坦福大学的研究显示,通过与AI模型的两个小时对话,足以对真实个体的性格形成相当准确的图像。研究团队在近期的研究中生成了1052个人的“模拟代理”即AI复制品,这些复制品是基于与每位参与者的两个小时访谈而产生的。这些访谈采用了由美国声音项目制定的访谈协议,讨论社会科学家关注的多种主题,包括人生故事及对当前社会问题的看法。这些数据用于训练一种旨在模仿人类行为的生成AI模型。

为了评估AI复制品的准确性,参与者还完成了两轮个性测试、社会调查和逻辑游戏。当这些AI复制品进行相同的测试时,其结果与人类受试者的答案高度一致,准确率达到85。在回答个性问卷时,AI克隆的回答与人类受试者几乎没有差异,尤其在再现个性问卷答案和判断社会态度方面表现出色。然而,在涉及经济决策的互动游戏中,它们的准确性较差。

clash meta安卓下载

目的性问题

研究团队表示,开发模拟代理的动力在于能够进行那些与真实人类受试者研究相比成本高、实际操作困难或不道德的研究。例如,AI模型可以帮助评估公共健康措施的有效性或更好地理解产品发布的反应。研究人员甚至预计,可以模拟对重要社会事件的反应。

“全面模拟人类态度和行为的通用模型每个模拟人物都可以在各种社交、政治或信息上下文中互动可以为研究者提供一个实验室,以测试广泛的干预措施和理论,”研究人员写道。

然而,科学家们也承认这一技术可能被滥用。例如,模拟代理可能被用于通过深度伪造攻击欺骗他人。

安全专家已经注意到,深度伪造技术迅速发展,他们认为网络犯罪分子找到可利用的商业模型只是时间问题。许多公司高管表示,他们的公司最近遭遇了深度伪造诈骗,尤其是针对金融数据的攻击。安全公司Exabeam最近讨论了一个事件,在该事件中,一个深度伪造被用作一次求职面试的一部分,与日益严重的朝鲜假IT工人诈骗相关。

深度伪造的威胁变得更加个人化 在线

谷歌与斯坦福的研究团队提议创建一个“代理银行”,储存他们生成的超过1000个模拟代理。这个银行将在斯坦福大学托管,旨在“提供针对代理行为的受控研究专用API访问”,据研究人员称。

虽然这项研究并未明确推进任何深度伪造的创造能力,但却展示了在当今先进研究中创建模拟人类个性的可能性正在迅速发展。