人工智能项目中的种族偏见问题
过去几年中,多个AI项目被开发出来,但大多数仍存在一些问题需要解决。尤为突出的是,许多人工智能解决方案在真实环境中部署后,表现出种族歧视倾向。这是人工智能服务和产品真正融入主流社会前需要克服的主要障碍之一。
面部识别中的偏见
虽然这不是极端的种族主义表现形式,但这确实凸显了AI驱动识别解决方案中存在的一个潜在问题。中国研究人员将一个包含近2000张面孔的数据包发送给AI解决方案后,发现他们的项目表现出高度偏见。该软件通过面部结构特征(如内眼角距离和嘴唇曲率)来预测犯罪倾向,并进行人脸区分。这一结果表明,在使用此类方案分析面部特征时,仍需要进行大量微调。
游戏中的种族歧视
2017年风靡全球的手机游戏《Pokemon Go》向世界展示了它存在种族歧视问题。游戏在7月发布后,用户抱怨非裔美国人社区中能捕获的精灵非常少。事实证明,支持该游戏的AI驱动算法的创建者既没有提供多样化的训练集,也没有在这些社区进行实地测试。导致这种程度的种族歧视并非AI解决方案的过错,而是人为错误造成的。
犯罪预测系统的问题
当用于打击犯罪的AI解决方案表现出过度种族歧视时,这绝不是一个积极的信号。Northpointe设计了一个AI系统来预测犯罪嫌疑人未来再次犯罪的可能性。不幸的是,该解决方案使用的算法显示出严重的种族偏见。根据AI的评估,非裔美国人嫌疑人更有可能被标记为高风险。此外,事实证明该软件总体上不适合进行任何预测。这是一次失败的人工智能实验,但也是一个宝贵的教训。奇怪的是,此后没有人再听说过这个人工智能项目。
选美比赛中的AI评委
从理论上讲,使用人工智能作为选美比赛的评委似乎有一定道理。然而,首个担任此类比赛评委的AI并没有很好地完成这项工作。算法本应根据与人类美感和健康相关的标准来评估参赛者。但由于缺乏适当的多样化训练集,所有获奖者都是白人女性。很明显,出于某种原因,许多人工智能解决方案都表现出"白人至上"的倾向。
微软Tay聊天机器人的教训
关于微软开发的Tay聊天机器人,实在是令人无语。在Twitter平台上发布AI驱动的聊天机器人可能不是这家科技巨头最明智的想法。Tay很快就变成了一个纯粹的恶意账号,表现出3K党行为迹象和反女性态度。不到一天时间,Tay就被紧急下线。尽管微软承诺会进行"调整",但此后没有人再听说过这个AI机器人的消息。