据小易智创xiaoyizc.com(不可错过的AI创业项目)观察:近日,英国《新科学家》周刊报道了一项令人瞩目的研究,科学家们成功利用聊天生成预训练转换器(ChatGPT)的先进人工智能(AI)模型,模拟了1000多名真人的独特思维与个性。这一令人震惊的实验引发了关于伦理和道德的深刻反思。来自斯坦福大学的研究团队希望借助这一生成式人工智能工具,建立更为精准的个人模型,从而预测政策变化对社会的影响。过去的简单统计模型在准确性上显得捉襟见肘,而现在他们有望创造出真正高保真的个体代理模型,捕捉到人类行为的复杂性与独特性。
为了实现这一目标,研究者在美国招募了1052名具有广泛代表性的人群,每位参与者与GPT-4o进行了长达两小时的深入对话。参与者分享了他们的生活经历及对社会问题的看法,而研究人员则根据基本脚本进行提问,实时调整问题。研究团队将这些对话数据输入到GPT-4o的不同实例中,以便生成对应的人工智能代理。
随后,团队对这些人工智能代理进行了全面测试,包括长期社会态度调查、人格特征评估以及行为经济博弈等多项实验。结果显示,这些AI生成的代理与真人参与者的回答高度一致。特别是,在“综合社会调查”中,真人参与者两次测试间的匹配度仅为81%,而人工智能代理与第一次测试相比的原始准确率则高达69%。综合考虑真人参与者的不一致性,人工智能代理的真实准确度甚至达到了85%之高。
朴骏升表示,他的核心目标是为政策决策者提供更为精准的工具,以便深入分析政策建议的影响。他强调,尽管有声音担忧这种技术可能被营销人员滥用,但其应用将严格局限于学术研究。
这项研究不仅展示了AI在模拟人类行为方面的巨大潜力,也让我们不得不思考其背后潜藏的伦理风险。未来,人工智能是否会彻底改变我们对人性的理解与应用?
总之,这项研究不仅推动了人工智能领域的发展,更引发了深思。