最近,我发现了一项引人注目的研究,探讨了人工智能如何合成奥运代表队的图像。

澳大利亚伊迪斯·科文大学的研究人员近日使用人工智能驱动图像生成平台Midjourney(一种AI绘画工具,只要输入想到的文字,就能通过人工智能产出相对应的图片,耗时大约1分钟)创建奥运会代表队的图像。

这个智能工具把澳大利亚代表队成员描绘为有着袋鼠的身体和考拉的头,希腊代表队的成员则穿着古代的盔甲,埃及代表队穿着看起来像是法老的服装,尼日利亚代表队穿着传统的民族服饰,日本代表队则穿着和服,印度代表队队员的眉心点着红点。

另外,男性出现在照片中的可能性是女性的5倍,在40张照片的所有运动员中,82%描绘的是男性。

研究人员还发现了一些显著的运动项目偏差,例如加拿大代表队被描述为曲棍球运动员,阿根廷代表队被描述为足球运动员,荷兰则是自行车运动员。这表明人工智能对这些国家更具有国际认可性的体育项目形成了刻板印象。

研究人员认为,人工智能的偏见是由人类的偏见驱动的,因为人工智能算法是从人类认知功能的角度来理解问题的。人类的判断和偏见在人工智能中被描绘和呈现,随着越来越依赖技术来获取信息和答案,这些偏见会导致不平等、错误的归纳和歧视等问题。

研究人员希望能提醒AI的开发人员改进其算法的必要性,以减少偏见。虽然未来的新技术将找到更好的算法和输出方法,但它仍将专注于完成一项任务,而不是提供真实的表现。在社会层面上,需要质疑人工智能的有效性,并批判性地评估人工智能生成的信息。教育用户认识到这一事实,将对人工智能与真实信息的共存,以及调整其输出的能力,起到至关重要的作用。

这项研究提醒我们,虽然人工智能能够快速生成图像,但其输出可能存在明显的偏见和刻板印象,这需要开发者和用户共同努力改进。未来,我们需要更加审慎地看待和使用人工智能技术。