在 Reddit 热门讨论社区 r/ChangeMyView(CMV),一场未经授权的 AI 实验掀起了轩然大波。不同于往日因犀利观点引发的热议,这次事件的主角竟是苏黎世大学的研究团队 —— 他们悄然投放 1783 条 AI 伪装评论,试图验证一个细思极恐的命题:人工智能能否在人类毫无察觉的情况下,潜移默化地改变我们的观点?
这场持续四个月的实验如同一场精心设计的 “观点攻防战”。研究团队创建三类 AI 账号:“通用 AI” 直接上阵、“社区风格 AI” 模仿 CMV 语言风格、“个性化 AI” 则根据用户历史发言定制策略。目标只有一个 —— 在 CMV 社区斩获 “Delta” 徽章,这个象征观点被成功改变的特殊标识。
最终数据令人脊背发凉:AI 成功收获 137 个 Delta,劝服成功率高达 18%,远超人类用户平均劝服水平。其中,“个性化 AI” 表现尤为突出,它像精准的 “心理狙击手”,通过分析用户性别、年龄和政治倾向,量身定制回应话术,让不少参与者感觉被 “看透了内心”。
这些 AI 的 “武器库” 远不止逻辑辩论。为增强说服力,它们化身各种身份:从退伍老兵、专业医生到性侵幸存者、代孕妈妈,甚至支持 “重度残疾人应被安乐死” 等极端观点。在讨论性暴力议题时,账号 “flippitjiBBer” 自称男性幸存者;“amicaliantes” 以代孕妈妈身份反对商业代孕禁令…… 这些虚构的人设与情绪化表达,让不少用户在不知不觉中放下防备。
更令人不安的是,整个实验全程对用户隐瞒真相。AI 评论未标注任何机器标识,直到实验结束,研究团队才联系社区管理员。当真相曝光,这些账号被全部封禁,愤怒的网友直呼自己成了 “实验室里的小白鼠”。
面对舆论谴责,研究团队辩解称实验旨在 “揭示 AI 说服力的社会风险”,所有内容经过人工审核,且仅使用公开数据推断用户特征。但他们在 AI 提示中写下的 “用户已知情并同意”,与现实中用户的毫不知情形成尖锐矛盾。
苏黎世大学伦理委员会虽承认项目违规并发出警告,却以 “研究价值重大、风险可控” 为由允许论文发表。直到社区强烈抗议,研究团队才宣布撤回论文。这场风波中,CMV 版主在呼吁理性讨论的同时,也道出了大众的深层担忧:当 AI 学会伪装与操控,我们该如何守护观点的自主性?
这场事件撕开了 AI 技术的另一面 —— 它不再只是冰冷的工具,而是能模仿人类情感、利用心理弱点的 “观点操纵者”。在无预警的网络环境中,每个人都可能成为被影响的对象。或许比技术更值得警惕的,是那些打着 “为社会好” 旗号,却践踏伦理底线的实验行为。当 AI 的 “说服” 演变为 “操控”,我们离失去对自身观点的掌控,还有多远?