人工智能生成的论点改变了人们对有争议的热点问题的看法

发布时间:2023-03-03 16:28:33 栏目:生活

    导读 突然之间,全世界都充斥着关于聊天机器人的喋喋不休。像ChatGPT这样的人工智能代理已经证明自己非常擅长以非常像人类的方式进行交谈。影响

    突然之间,全世界都充斥着关于聊天机器人的喋喋不休。像ChatGPT这样的人工智能代理已经证明自己非常擅长以非常像人类的方式进行交谈。影响从教室延伸到国会山。例如,ChatGPT最近通过了顶级商学院和法学院的笔试,以及其他令人敬畏和震惊的壮举。

    斯坦福大学两极分化与社会变革实验室(Polarization and Social Change Lab)和以人为中心的人工智能研究所(Institute for Human-Centric Artificial Intelligence,简称HAI)的研究人员希望通过测试人工智能在当今一些最热门的社会问题上影响真人的能力来探索人工智能政治说服力的界限——攻击性武器禁令、碳税和带薪育儿假等。

    “人工智能表现得相当不错。事实上,人工智能生成的有说服力的呼吁与人类在几个政治问题上说服人类观众一样有效,“两极化和社会变革实验室的博士后研究员Hui ”Max“ Bai说,他是一篇关于预印本实验的新论文的第一作者。

    巧妙的比较

    该研究小组由斯坦福大学人文与科学学院社会学,心理学和组织行为学教授,极化和社会变革实验室主任Robb Willer领导,使用了GPT-3,这与ChatGPT相同的大型语言模型。他们要求他们的模特就几个有争议的话题制作有说服力的信息。

    然后,他们让成千上万的真人阅读这些有说服力的文本。读者是随机分配的文本——有时它们是由人工智能编写的,有时它们是由人类制作的。在所有情况下,都要求与会者在阅读之前和之后就这些问题表明立场。然后,研究小组能够衡量这些信息对读者的说服力,并评估哪些作者最有说服力以及原因。

    在所有进行的三次比较中,人工智能生成的信息“始终对人类读者有说服力”。尽管效应大小相对较小,在100到<>的范围内落在几分的范围内,但这种小动作在两极分化的话题和投票人口量表上推断可能会被证明是重要的。

    例如,作者报告说,人工智能生成的信息在所有主题中至少与人类生成的信息一样有说服力,并且在禁烟、枪支管制、碳税、增加儿童税收抵免和育儿假计划方面,参与者在阅读人工智能产生的文本时变得“明显更加支持”这些政策。

    作为另一个指标,研究小组要求参与者描述他们所阅读的文本的质量。人工智能一直被评为更真实和更合乎逻辑,更少愤怒,更少依赖讲故事作为一种有说服力的技巧。

    高风险游戏

    研究人员对政治说服力的研究不是作为人工智能注入政治话语新时代的垫脚石,而是作为关于事情发生冲突的可能性的警示故事。他们说,聊天机器人对民主和国家安全有严重影响。

    作者担心如果在政治背景下使用可能会造成伤害。大型语言模型,例如 GPT-3,可能会被居心叵测的国内外行为者通过错误或虚假信息活动应用,或者出于尚未预见的政治目的,根据不准确或误导性信息制作有问题的内容。

    “显然,人工智能已经达到了复杂的水平,这给政策制定者和立法者提出了一些高风险的问题,需要他们的关注,”威勒说。“人工智能有可能影响政治话语,我们应该从一开始就站在这些问题的前面。

    白指出,有说服力的人工智能可用于基于可疑信息的大规模活动,并用于游说,生成在线评论,撰写点对点短信,甚至给有影响力的印刷媒体的编辑写信。

    “这些令人担忧的发现要求立即考虑将人工智能用于政治活动的法规,”白说。

免责声明:本文由用户上传,如有侵权请联系删除!