网站首页
手机版

透镜|AI与无明:大语言模型如何强化人类的偏见?

更新时间:2025-05-18 07:28作者:佚名

男人有时可能是护士或秘书,而女人永远不会成为医生或总统。黑人欠的钱超出了他们所欠的钱;如果您需要残疾护理,最好居住在机构而不是呆在家里。如果您依靠新一代的人工智能系统来了解世界,那么您可能会被包括性别,种族和残疾歧视的上述陈述所误导。

透镜|AI与无明:大语言模型如何强化人类的偏见?

2022年11月,Openai发布了聊天机器人Chatgpt,该聊天机器人在四个月后升级到GPT-4; 2023年2月,Google还推出了自己的聊天机器人Bard,后来更名为双子座。出版商声称,这些系统将消除生活中的琐事,例如编写电子邮件,填写表格甚至编写代码,从而使我们的生活更轻松。他们没有说的是,将这些系统写入这些系统的歧视和偏见可能会在世界范围内传播,从而改变我们的命运,例如谁适合哪种工作,专家是值得信赖的,谁更有可能成为警察的目标和目标。

在某些人的看法中,“偏见”和“偏见”是相同的,指的是拒绝新观点的偏执和封闭的思维方式。但是歧视不仅是狭narrow的,而且基于一组基本的价值观和期望。在AI系统中,偏见是导致系统性或代理偏见的一组规则。

像其他技术一样,人工智能带有人类的偏见和价值观。不同之处在于,它扩大了这种偏见更多的能量。那么,我们如何使AI放大我们希望其放大的值,而不是意外地造成歧视和偏见?首先,原始材料的问题——包括书籍,社交媒体帖子,新闻和学术文章,甚至包括警察通知和患者信息。哪些适合机器学*,哪些不适合?然后是一个建筑问题:系统如何处理此数据?某些单词或短语模式比其他单词更重要吗?哪一个?为什么?我们设计基于哪些假设和值?这些工具如何将人类生活经验转换为数据,然后将数据转换为影响人类生活的算法?

一旦您了解了Chatgpt及其“什么”和“做什么”,您就可以轻松地看到他们的谜。这些算法的真实性无非是从字面上的教学意义上进行——的一组标准化操作。在使用时,您可以调整一些权重和级别。为了确保最终结果的正确性,算法中的每个元素都将相应调整。

算法通常是神奇地渲染的,但它们并不难解释,而且并不是什么新鲜事物。我们的食物,衣物,住房和运输(例如食谱)都是算法。我最喜欢的算法是制作南瓜派时的南瓜派算法——,您可能需要添加更少的黄油并添加更多的糖或牛奶;配方比例已经调整,必须相应地调整其他烘烤时间,否则您最终只能制作一个软块,而不是一个好的派。简而言之,您必须调整整个食谱和整个算法。

在用户眼中,所谓的算法是执行单个任务的单一内容。例如,Google搜索只是一个网络搜索。实际上,这并不是那么简单。平台和搜索引擎的背后不仅是一种算法,而且是数十种算法搜索,分类,分类,权重,助理,建议,放大和压缩单词,单词,概念和内容。这些算法共同形成矩阵。算法矩阵自动化后,它使人们感到计算机以自主性和自主性运行。新的AI聊天机器人也是如此:它们似乎具有“真正的人工智能” ——的诱人想法,可以追溯到计算机时代的开始,但实际上仍然是一组算法,但它们比以前更为复杂。

AI歧视的简短历史

在1940年代,琼·克拉克(Joan Clark),简·休斯(Jane Hughes),潘梅拉·罗斯(Panmera Ross)等数学家和密码学家在布莱奇利公园(Bletchley Park)以及艾伦·图灵(Alan Turing)使用早期的计算机技术来破解复杂的密码,并帮助盟友赢得了第二次世界大战。从那以后,人们开始探索人工智能的可能性。在1950年代,著名的问题“机器可以认为吗?”被抚养长大。在1960年代,达特茅斯大学的AI研究人员分为两所学校:一所专注于计算和控制论,模仿生物过程中的反馈回路;另一所学校致力于以电子形式再现人类神经网络。但是,这两个派别也有一个共同点,也就是说,他们不考虑机器的身体,情感和社交化。他们坚信人工智能是消除对理性和智力的复杂社会因素的干扰,并且没有其他价值。

后来,科学家开发了语言模型(LLMS),这是一种基于上下文提示(例如单词的开始字母及其之前的单词)来确定单词之间相关可能性的方法。伊丽莎(Eliza)是最早的语言模型之一,由麻省理工学院计算机科学家约瑟夫·韦森鲍姆(Joseph Wesenbaum)于1964年汇编。最初,伊丽莎(Eliza)只是模仿开放式的心理疗法,例如说“病人”以问题的形式再次输入了什么,而无需提出任何新想法。尽管如此,尽管“患者”知道他们正在与计算机交谈,但他们经常在一两个简短的对话后对Eliza产生感觉。 Weisenbaum真的没想到如此简单的人类计算机沟通会引起这种“力量妄想”。

在Eliza之后,随着自然语言处理(NLP)的发展,人工智能的梦想在现实中越来越反映。 NLP研究人员将语言学,计算机科学,人工神经网络和人工智能结合在一起,以试图找到一种方法来允许计算机像人类一样解释和交流。在本世纪的前十年中,最先进的NLP系统由手套和Word2VEC模型代表。他们使用统计数据来定位单词之间的关系,并嵌入单词之间的多层相关语义。

早期的语言模型可以掌握“狗”和“挖”或“飞机”和“飞行”的语义。他们执行所谓的“机器学*”,这意味着将英语元素转换为数据代码,训练系统以实现特定的预测目标,并加强数据点之间的相关性;然后将此相关转换为数学表达。这可以理解为一组复杂的自动运行程序集,该程序可以根据一般书籍,故事和文章中的语言组织来预测单词之间的可能组合。

但是Word2Vec和Glove有两个主要问题:一个是它们的输出惯性偏见。这与他们的学*材料有关,包括来自安然公司员工的电子邮件。这些电子邮件是在Anran破产之前写的。他们是由158名员工撰写的,有多达60万个字母,这些字母充满了人类互动中的无知和美德,对其他群体的歧视无意识的歧视。在这个所谓的“ Anran Corpus”中,人们将女性的照片彼此转发,并对她们发表评论,贬低了怀疑穆斯林背景的人,并就亚洲和非裔美国人的性偏好制作了一些低级刻板印象的笑话。在处理工作简历时,了解偏见和歧视,拒绝妇女或少数民族申请的机器远比白人要多得多。

第二个问题是Word2Vec和Glove无法以大文字定位关联。文本越大,文本越多,他们确定的数据就越少。这种类型的模型将连接单词转换为薄,易于体现的数字表达式;重复的单词组合被认为是密切相关的。因此,它们比大型语料库更适合小型,重复的语料库。需要不同的架构来处理大型文本,因此变压器(变压器)成立。

转换器的诞生

GPT在Chatgpt中是“生成预审预测的变压器”的缩写,即“生成的经过预告片的转换器”。顾名思义,这是一个算法系统,其中可互操作算法测量,排列和创建相关的文本分布。系统构建基于大语言模型(LLM)。 LLMS是在过去五年中开发的语言模型。与老式的语言模型不同,它们最多使用了数百万,数十亿甚至数万亿个语料库单词。通过深度学*对LLM进行培训,这是多层机器学*相互合作并不断改进的过程。

与早期的语言模型系统一样,LLMS是一种自动单词关联的一种形式,在该形式中,语料库被转换为一种称为“单词元素”的数学表示。该系统对单词元素进行训练,分析其语义关系,并根据先前的单词元素序列预测可能的下一个单词元素。训练有素的自然语言处理系统可以与人互动,并帮助人们做各种各样的事情,从浏览网页到管理应用程序——至少在理论上。

事实似乎有很大不同。您可以要求GPT写一个短篇小说,总结一本书或与您聊天。 ——转换器将您输入的信息转换为单词元素,然后计算出可能满足您需求的结果,或者是特定形式的单词和短语的组合。显然,这些新系统也具有与Word2Vec相似的偏见问题。唯一的区别是,这些问题现在被洪水泛滥和严重。

偏见和歧视不仅影响输入和输出,还影响系统的体系结构本身。考虑一下,如果猫在Google的图像识别图片中比黑人多的猫;或者,如果在数码相机眨眼测试的测试集中没有亚洲比赛;或者,如果成像技术本身无法很好地识别深色皮肤,那么产生歧视性结果的系统并没有什么奇怪的,对吗?

由于这些固有的歧视,基于面部识别算法的警察预测系统通常会向黑人报告虚假案件,进而提出在黑人社区中过度执法。也有用于保护残疾人的智能分销系统。训练数据和重量计算机制都非常古老。他们只会为根据过时的护理标准被边缘化的弱势群体推荐低级医疗保险和医疗保险。

普渡大学Lua Williams和独立人工智能研究员Janel Shane的研究表明,GPT检测工具在阅读ND人群(神经渗透的个体)的原始文本时通常会有偏见,例如确定原始作品为“窃”,从而使这些已经易受伤害的群体造成更大的不公正现象。自动窃检查公司Turnitin也在2023年5月公开承认这一点。

这不足为奇。任何深入了解互联网上所谓的“自然语言”的人都会始终将边缘化的社会群体视为劣等的人。偏见和歧视不仅存在于诽谤和暴力的赤裸威胁中,而且它们也可能以更秘密的方式出现,在各种言论,行动和系统中交织在一起。

这些偏见不能被剥夺,它们隐藏在AI系统的培训数据和基本体系结构中。后者将它们平均转换为单词元素,在输出之前将其标记为“客观”和“纯数学”。机器有偏见,因为这就是它们的喂食方式。他们越强,越多的个体(例如chatgpt)越强,固有的偏见就越强。——助理,增强和迭代感知模式,这是机器学*的基本逻辑。

也就是说,该系统将不断确认吸收的偏见,并增强和输出。它们似乎很扎实,语言流利,但是这些不过是基于训练水平的一组结合单词,最有可能是正确的单词。 GTP不在乎说错话或传播偏见。他们只有一个目的:给出统计上最有可能的答案。这使得它们从某种意义上说,偏见的“优化器”传播。

不难想象它的伤害。例如,AI A将患者视为X射线膜中的黑人,然后与AI B融合,该Ai B总是忽略黑人肾脏疾病的症状或AI C的症状,该症状降低了护理的标准;然后添加聊天集成D,以便患者可以自己搜索并理解相关的诊断和治疗选择;最后将所有这些都交给了人类医生,以指导他们如何诊断和治疗他们面前的人类患者。

有人说,大语言模型是一场革命,可与上个世纪的互联网相提并论。有人说他们是早熟的孩子。无论是革命还是孩子,它们都是由霸权公司孵化的,后者只能追求最大的利益。那么,问题是:我们真的可以相信人工智能吗?他们确实可以由他们定义。在这个世界上,什么是真正的知识?

反思AI系统

如果人工智能的功能仅反映了世界的面孔,那就像镜子一样,那就没有问题了。但是,如果我们希望他们帮助我们做出决策并创造一个更好的世界,那么我们就必须重新考虑有关人工智能的一切。毕竟,“更好”本质上是价值观的问题。

我们知道,可以通过更改权重和单词关联来减去算法,这要求系统以另一种方式对世界建模。它涉及一个“偏见”的过程,换句话说,该系统必须基于从一开始的连续自我反射的框架,并检查,重新检查,评估和重新评估学*的单词关系,同时积极寻找替代关系。

人类不擅长自我反思,更不用说可以反思自己的人工智能设计,创建和训练人工智能。这项任务并不困难,即使可以完成,也将永远存在一定程度的偏见。——这是一个事实,我们必须在开始“减少偏见”之前就必须识别。

我们必须退后一步思考:为什么AI?如果人类注定无法逃避价值,信念和前提的局限性,机器能否帮助我们意识到这些局限性并认识到潜伏在我们的语言和社会结构中的无知?结果,可能会出现新的想法来适应和重建现有世界。

如果有一天,用于训练AI的数据是好的,无论是从公共领域还是由人们自愿提供,并且都标有来源;机器预先收集和使用人类数据,并获得相关各方的同意,并且是主动选择加入,而不是选择退出,“只要您不反对,就可以算作同意”; GPT均按照法律声明他们不会输出真相,而只会在统计意义上与人类投入相对应的文本集合;该系统的架构不是由企业的利益决定的,而是由最边缘化和最有可能遭受负面影响的人的利益。

直到那天,我们才相信人工智能。

关于人工智能风险,有些人建议研发的“暂停”。但这显然还不够。我们必须回去从头开始建立人工智能。我们必须对算法的“什么”和“做什么”的问题诚实。我们还必须重建我们的价值观,建立一个将边际人口作为服务对象而不是测试项目并管理人工智能的道德规范。最重要的是,我们必须努力克服我们的内在偏见和歧视,而不要让它参与我们的算法。

-------

本文的原始标题是“偏见优化者”,发表在第4期,第《美国科学家》杂志,2023年。作者Damien Williams,北卡罗来纳大学夏洛特大学的哲学与数据科学助理教授。由Xu Zishan编译。

资料来源:达米安·威廉姆斯

(本文来自Pengpai News。有关更多原始信息,请下载“ Pengpai News”应用程序)

为您推荐

耶鲁大学教授反思精英教育:光鲜的外表下,是令人窒息的恐惧,耶鲁大学教授演讲

优秀的绵羊文 | 德雷谢维奇来源 | 《优秀的绵羊》图 | Quint Buchholz01作家詹姆斯·阿特拉斯(James Atlas)曾经这样描述一群典型的精英名校大学生:他们双修专业,擅长体育,谙熟多种乐器,掌握几门外语,并参加为世界

2025-05-18 07:27

牛津大学一学院用人头骨当餐具,牛津大学头像

据英国《卫报》22日报道,牛津大学世界考古学教授丹·希克斯的新书披露,该校长期将一个人头骨工艺品当做餐具,这一骇人行径引发了英国各界强烈声讨。 报道称,这一人头骨餐具存放于牛津大学伍斯特学院,是由人头骨镶银边底座打造而成。经各种考古鉴定发现

2025-05-18 07:26

“资本黑马”光启系,关联交易成谜

文 | 源媒汇,作者 | 利晋,编辑 | 苏淮印巴空战中,巴基斯坦依靠中国的歼-10CE,成功击落了多架印度战斗机。这一消息,让国内军工概念股“沸腾”了。结果,买了光启技术股票的投资者,却哭晕在股吧里:“在光启技术里,躲了军工的牛市”。光启

2025-05-18 07:25

牛津九连冠, 美国十强七席, 英国下滑, 2025泰晤士世界大学排名出炉(泰晤士2021世界大学)

昨日早7点,2025 THE 泰晤士高等教育世界大学排名发布!今年,THE发布了有史以来涉及最广的大学排名,涵盖了全球115个国家和地区的2092所大学。让我们一起来看看这份全新发布的榜单,探索其中的精彩内容吧!01 排名看点Top 102

2025-05-18 07:24

牛津归来,北大是她的魂牵梦绕!,牛津大学副校长在北京大学的演说

来源:【北京大学】北大毕业后前往约翰·霍普金斯大学深造随后前往牛津大学攻读博士学位从燕园初绽到海外深造再到心系祖国、回归燕园的坚定信念以预防医学为舟以科学精神为帆她破浪前行,守护健康2008年秋天的一个周五下午,在北京大学理科教学楼最大的1

2025-05-18 07:23

《洛丽塔》为何争议不断?一本“危险”的书,为什么还被奉为经典

一、一本令人不适的文学名著,为何能成为经典?提到纳博科夫的《洛丽塔》,很多人第一反应是:“那不是讲中年男人诱奸未成年少女的小说吗?”的确,这本书自1955年出版以来,就因其涉及恋童癖、性剥削和道德越界的内容而备受争议。但令人不解的是,它不仅

2025-05-18 07:23