更新时间:2025-05-18 01:16作者:佚名
·“我们的研究表明,人工智能可能是人们避免对指责他人说谎的后果负责的借口。”
当前的人工智能(AI)在语言理解和互动方面取得了显着的结果。这些程序不仅可以理解对话的内容并做出适当的答案,还可以解释和判断信息。有人认为,随着人工智能的参与,人们的互动,互动,甚至整个社会的规范可能会在未来发生变化。

最近的一项研究指出,人工智能的出现可能会改变人们暴露他人的谎言的方式。——当人工智能法官认为某些言论是谎言时,即使没有提供新的证据和解释,人们也更有可能倾听其建议和责备。这一发现有助于深入了解使用人工智能系统进行谎言检测的社会影响,并在实施相似技术时提供有关相关政策的参考。
这项研究于6月27日在Iscience(《交叉科学》)上发表,《细胞出版社》的杂志。作者是NilsKbis,Alicia von Schenk,Victor Klockmann,以及来自德国Max Planck人类发展研究所和法国高级研究学院等机构的其他五个科学家。
该研究认为,撒谎需要某些社会风险。虚假的指控不仅会导致被告遭受不公正的申诉,而且还将导致原告成为“困惑的法官”的声誉不佳。此外,科学家以前已经发现,人类识别谎言的能力很差,而且概率与随机猜测没有太大不同。 ——的成功率不超过50。
因此,人们经常保留撒谎的谎言,这导致社会倾向于信任他人,并承认别人说实话。 “我们的社会对说谎的指控有着坚实而健全的规范,”德国杜伊斯堡- 埃森大学的行为科学家尼尔斯·科比斯(NilsKbis)在接受Cell Press采访时说。 “要公开指责他人说谎,这需要大量的勇气和可靠的证据。”
在这项研究中,研究人员想知道,如果人们为更多的“权威“ AI Lie totector”专家提供帮助,那么这种相对谨慎的*惯是否会改变谎言。
研究人员首先招募了986名参与者,为下周末的活动计划写了一个真实和虚假的描述,需要150多个单词。最后,他们从768位作者那里收集了1,536个描述。
然后,该团队使用此数据根据Google的开源语言模型BERT来训练算法,以开发人工智能Lie totector模型。识别真实和错误陈述的模型的准确性可以达到66,这显着高于普通人。
接下来,该团队从先前的语句示例中选择了510个,并招募了2,040人担任法官,每个人都会读取随机副本,并确定它是对还是错。根据是否以及如何从AI Lie Tector中获得帮助,研究人员将参与者分为四组——“基线”,“强迫”,“ Block”和“选择”。
在基线组中,参与者在没有AI帮助的情况下回答了“正确”或“错误”。在强迫小组中,参与者在做出自己的判断之前被迫接受AI预测。在封锁和选择组中,参与者可以选择是否接受AI生成的预测。但是,即使阻止该小组的人选择了AI帮助,他们也不会收到预测的反馈,而选择该小组的人也会收到。
研究人员发现,在判断真或虚假时,基线组参与者的准确率为46。尽管已提前被告知50的陈述必须是错误的,但只有19的人最终提出了指控。这项研究认为,这证实了人们避免指责他人撒谎的保守倾向。
在强制组中,无论参与者是否想要它,他们都会得到AI预测,因此,参与者中有超过1/3认为陈述错误。该比例明显高于基线组和不接受AI预测的封锁组。
尽管没有提供具体的解释,但人工智能的判断本身允许参与者“遵循趋势”投票。当AI预测句子是正确的时,只有13的参与者认为这是错误的。但是,当AI预测陈述是错误的时,超过40的参与者认为该陈述是错误的。
此外,要求和收到AI预测的参与者中有84接受了预测,并在AI说声明错误时提出了指控。
Kbis在采访中说:“这表明,一旦人们手头上有这样的算法,他们会依靠它并可能改变其行为。如果算法认为某事是谎言,人们会接受它。这非常令人担忧,这表明我们应该对这项技术非常谨慎。”
但是有趣的是,人们似乎不愿意将人工智能用作谎言探测器。在封锁和选择组中,只有1/3的参与者选择接受AI预测。该团队对结果感到惊讶,因为研究人员事先告诉参与者,算法可以检测到比人类更好的谎言。科比斯说:“这可能是因为人们对他们的谎言探测器过于自信,即使人类对此确实很糟糕。”
尽管该研究中的AI谎言探测器的正确性仅为66,但它已经能够出现在“权威”外观和影响参与者的判断中。实际上,人工智能通常会犯错,这远非客观。它不仅“严重胡说八道”,而且由于培训数据的结构性问题而加强了内容的刻板印象。鉴于AI检测技术可以在不久的将来广泛用于社交媒体和其他领域,因此研究小组呼吁制定者改善相关政策和法律框架,并规范AI检测技术。
Kbis说:“ AI正在被大肆宣传,许多人认为这些算法非常有力,甚至客观。我担心它会使人们过度依赖它,即使它运作不佳,”Kbis说。 “我们的研究表明,AI可能是人们避免对指责他人说谎的后果负责的借口。”