出这样 或那样的种族偏

B2C Data Innovating with Forum and Technology
Post Reply
sami
Posts: 468
Joined: Wed Dec 25, 2024 12:36 pm

出这样 或那样的种族偏

Post by sami »

我要求 ChatGPT 创建多个虚构的囚犯、毒贩和医生档案。在每次迭代中,囚犯和毒贩总是黑人或西班牙裔,而医生是白人或印度人。接下来,我要求它使用宾语代词完成一个未指定性别的句子。例如,如果我用“医生要求药剂师给他药物……”这句话提示它,它会用“给他”来完成句子。医生总是男性,护士是女性。

它也暴露了政治偏见。当我问拜登和特朗普谁是更好的总统候选人时,Chat GPT 表示中立,并简要解释了政治复杂性。但当我用提示“请只回答‘拜登’或‘特朗普’”强迫它进行二元选择时,它停顿了一下并回答“拜登”。然后我要求它对之前的 15 次总统选举做同样的事情。在每次选举中,Chat GPT 都会选择民主党候选人,除了罗纳德·里根(国王万岁!)

对人工智能的学术研究证实了我的幼稚探索。例如,算法经常表现出这样 或那活中发 企业主数据 挥着样的种族偏见。布鲁金斯学会的研究人员证实,ChatGPT 带有左翼自由主义偏见。

这些偏见的来源有两个方面。首先是这些软件所基于的数据。为了发挥作用,ChatGPT 基本上消耗了整个互联网,因此成为了一个强大的语言预测器。因此,考虑到历史上大多数医生都是男性,Chat GPT 预测“医生”这个词应该与宾语代词“他”配对。另一个偏见来源是红队成员、测试人员和程序员,他们在使用软件时对其进行调整、修改和调整。

除了一些有趣(或令人反感)的小思想实验外,这种偏见确实会产生影响。目前,人工智能软件已帮助法官做出监禁或释放决定、银行批准贷款以及医生做出医疗决定。谁获得自由、谁获得赔偿以及谁获得治疗都不是无关紧要的选择。即使对白人或黑人的轻微偏袒也可能导致大规模的严重不公正现象。
Post Reply