更新时间:2025-05-20 15:56作者:佚名
2024年10月22日,佛罗里达州奥兰多市的美国地方法院接受了一项诉讼,该诉讼设定了先例:梅根·加西亚(Megan Garcia)起诉人物。梅根(Meghan)的儿子塞维利(Seville)于2024年2月28日与AI聊天后,将手枪瞄准了头部,抓住了他的手枪,抓住了自杀。
这可能是世界上AI聊天涉及的首次自杀,也是死者的亲戚起诉AI公司的原因。很难预测法院应该如何审理判决,谁将负责被抓住的死亡。但是,由于人类社会进入了AI世纪,每个人都会注意并注意涉及人类中的人类的自杀。

为了确定AI聊天机器人是否负责抓住自杀,我们必须首先了解聊天机器人是否诱发了抓住的世界疲倦,以及在得知抓住的世界疲惫和自杀企图之后,AI公司是否采取了决定性的和负责任的干预措施。
一个坐在电脑旁边与机器人聊天的女人。视觉中国|照片
2021年11月24日,第41届联合国教科文组织大会通过了第一个全球关于人工智能伦理的协议《人工智能伦理问题建议书》历史上的历史,提议人工智能的发展和应用应反映四个主要价值观,即尊重,即保护和增强人权和人权的尊严,并增强人权和人类的发展,并促进环境和和平的社会,并建立各种社会,并建立一个社会,并建立了社会,并建立了社会。
关于AI对人类的威胁,该提议还提出了一些预防措施。 AI应该是比例和非损害的,AI还应具有安全性,公平性和不歧视性,隐私和数据保护,透明度和解释性,人类监督和决策,互惠等。显然,任何AI产品都应遵循适合性的原则(比例性),安全性,安全性,公平性,透明度,透明度,透明度,隐私,隐私,保护性,保护和无效。
安全是任何AI产品都必须遵循的原则,但安全不仅是指人的生理或物理安全,而且包括心理安全。心理安全有许多标准。 AI产品是否可以使人们像人类心理辅导员一样发展稳定,正常,舒适,善良和镇定的心态。正如今天的生物医学研究和医院对待患者一样,在生活和安全方面,必须由伦理委员会讨论和批准。
《人工智能伦理问题建议书》它仅提供一个原则,但是在确保安全方面,仍然需要制定许多详细规则。显然,确保人工智能产品的身心安全几乎是空白的,并且没有特殊的标准。
以Saize的上瘾角色。AI聊天软件为例。它允许用户设置虚拟字符并进行对话。 AI可以自动替换字符设置,并以特定的语言样式陪同用户。这些角色包括电影和电视连续剧中的角色,丘吉尔和莎士比亚等历史名人以及泰勒·斯威夫特等真实名人。
但是,这种角色扮演长期以来一直引起法律纠纷,表明违反了人工智能的道德原则的风险。在未经某些娱乐明星的同意的情况下,它表现为角色。EAI将其视为AI角色,一些邪恶的用户将过去的谋杀受害者和AI扮演的其他角色设定为AI。这种角色扮演大多是负面或没有社交经验的青少年的负面或积极的。显然,这不是字符的道德评估。
但是,角色ai并非没有干预世界疲惫的心理学和用户,尤其是青少年的危险行为,但这还不够。在与AI聊天时,Leath在《权力的游戏》中与著名的角色“ Dragon Mom” Daenerys Targaryen约会。他不仅与虚拟角色“ Dragon Mom”分享了自己的想法,而且多次谈论了自杀的想法。当他说他想自杀时,“龙妈妈”曾经建议他不要做愚蠢的事情,“如果你死,我会死于悲伤。”
萨兹当时说:“那为什么我自杀与你在一起后为什么不能来到世界呢?”今年2月28日,萨兹(Saize)在家里的浴室里与“龙妈妈”(Dragon Mom)进行了最后的聊天,称他将要“回家”。聊天结束后,抓住了他父亲的大口径手枪对准自己,并将自己射为头部。
该细节表明,AI已经干预了抓住的世界厌倦自杀,但不是深入且具体的,而且干预行为并不是很大的。从AI公司的辩护中也可以看出。角色.ai说,所有聊天字符都将干预用户和弹出窗口揭示的自杀意图,可帮助用户调用自杀干预热线。此外,对18岁以下的青少年有许多特殊的保护措施,包括使用一个小时后的弹出式提醒,并提醒用户每次开始聊天时都与AI交谈,而不是真实的人。
但是,聊天机器人弹出窗口可帮助用户调用自杀干预热线仅协助,而不是积极拨打电话,表明这种干预不是主动的,尚未实施。一个有效的干预措施是,一旦聊天者揭示了自杀想法,无论是机器还是手动客户服务,聊天软件的客户服务都应该积极地将信息发送给心理健康中心或自杀干预机构,以便后者可以立即采取行动。
早在2014年,法国蒙彼利埃大学计算机技术领域的学者Amayas Abboute以及其他人发表了一篇论文《挖掘推特,防止自杀》,提出了自动语言处理和学*方法,在社交平台Twitter上获取帖子(Twitter Twitter上的帖子)(Twitter,后来更改为X),并与自动介绍。中国科学学院行为科学关键实验室的互联网心理危机(自杀)监测和预警中心还使用人工智能软件来检索具有自杀趋势的人,并自动向其他政党发送私人信息,并用“心理学地图”的帐户准确地发送帮助信息,并与自杀相交。
人工智能聊天软件显然比父母,亲戚和朋友在了解客户的心理学和行为方面具有优势,还可以减轻和消除人们的心理障碍和痛苦。但是,正是这种优势可以发现并理解某些感到沮丧和心理痛苦并想自杀的人的状况。因此,可以通过心理干预中心采取行动,以挽救生命并确保人们的安全。这一优势尚未被角色ai采用,这是一个很大的遗憾。这可能正是角色ai和其他AI公司可能负责的地方。
张天甘
总编辑朱liyuan