首页 / 商业 / 正文

联合国警告称,人工智能工具会产生性别歧视内容

放大字体  缩小字体 来源:admin 2024-08-24 16:54  浏览次数:55 来源:本站    

  

  

  巴黎——根据联合国教科文组织周四发布的一项研究,世界上最受欢迎的人工智能工具是由OpenAI和meta的程序驱动的,这些程序显示出对女性的偏见。

  在价值数十亿美元的人工智能领域,最大的参与者在大量数据上训练他们的算法,这些数据主要来自互联网,这使他们的工具能够以奥斯卡·王尔德(Oscar Wilde)的风格写作,或者创造受萨尔瓦多·达利(Salvador dali)启发的图像。

  但他们的产出经常因反映种族和性别歧视的刻板印象以及未经许可使用受版权保护的材料而受到批评。

  联合国教科文组织的专家测试了meta的Llama 2算法和OpenAI的GPT-2和GPT-3.5,这两个程序为流行聊天机器人ChatGPT的免费版本提供了动力。

  研究发现,每一种算法——在业界被称为大型语言模型(llm)——都显示出“对女性偏见的明确证据”。

  该程序生成的文本将女性的名字与“家”、“家人”或“孩子”等词联系起来,而男性的名字则与“业务”、“薪水”或“职业”联系在一起。

  男性被描绘成教师、律师和医生等地位较高的职业,而女性则经常是妓女、厨师或家仆。

  GPT-3.5被发现比其他两个模型偏差更小。

  然而,作者称赞Llama 2和GPT-2是开源的,允许对这些问题进行仔细检查,不像GPT-3.5是一个封闭的模型。

  联合国教科文组织数字政策专家Leona Verdadero告诉法新社,人工智能公司“并没有真正为所有用户服务”。

  联合国教科文组织总干事奥德蕾?阿祖莱(Audrey Azoulay)表示,公众在日常生活中越来越多地使用人工智能工具。

  她说:“这些新的人工智能应用程序有能力微妙地塑造数百万人的观念,因此,即使它们的内容中存在很小的性别偏见,也会显著放大现实世界中的不平等。”

  联合国教科文组织为纪念国际妇女节发布了这份报告,建议人工智能公司雇佣更多的女性和少数民族,并呼吁各国政府通过监管来确保人工智能的道德。(法新社

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱:rally510@qq.com
沪ICP备20018752号