ChatGPT像许多其他AI模型一样,充满种族主义和歧视性偏见
2023-01-17 09:55
社会的运行越来越离不开技术的发展,人工智能正在被用来在警务和医疗保健等领域做出重要决策。但有偏见的算法就意味着现有的不平等可能会被放大,带来危险的后果。
ChatGPT 本身是在3000亿个单词或570GB的数据上进行训练的。然而ChatGPT从互联网上抓取了大型的、未经过滤的、充满偏见的数据后,就同样会形成一个有偏见的答案。
研究人员使用过滤器来防止模型在收集数据后提供不良信息,但这些过滤器并非不是100% 准确,仍然会导致AI输出有害偏见的答案,例如当 ChatGPT 告诉用户可以折磨某些具有少数民族背景的人。研究人员警告说,AI行业在现实世界中的应用可能会给边缘化群体带来更多的麻烦。(来源:INSIDER)