更新时间:2025-05-14 03:37作者:佚名
IT Home在5月12日报告说,根据英国第10章的《卫报》报告,麻省理工学院的AI安全研究人员Max Tigermack指出,他进行了与美国物理学家Arthur Compton在“ Trinity”核测试之前进行的概率计算。结果表明,高度发展的AI 5月90的威胁存在。

IT主页注:1945年,在得知引起大气的原子弹的可能性几乎为零之后,美国进行了历史性的“三位一体”核试验。
Tigermack与三名MIT学生合作发表了一篇论文,建议借鉴“ Compton Constant” ——的概念,即强大AI失控的可能性。康普顿在1959年的一次采访中提到,他仅在确认失控的核融合的可能性“不到三分之一的人”之后才批准了核试验。
Tigmack强调,AI公司必须仔细计算“ ASI”(ASI)是否会脱离人类控制,而不是对其感受行事。 “建立超级聪明的公司必须计算康普顿常数,我们可能失控的机会,而只是说'我们有信心'是不够的,我们必须提出特定的数据。”
他指出,如果多家公司共同计算康普顿常数并达成共识,它将有助于促进全球AI安全机制的建立。
Tigermack是麻省理工学院的物理教授和AI研究员。他参加了致力于促进AI安全发展的非营利组织“未来生命研究所”的成立。 2023年,该机构发布了一封公开信,要求暂停有关更强大的AI系统的开发。这封信获得了33,000多个签名,其中包括早期的支持者埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)。
这封信警告说,主要的实验室被困在“失控的种族”中,以开发越来越强大的AI系统,这些系统“无法可靠地理解,预测或控制”。