设为首页 收藏本站 English

当前位置: 远航机械网 >> 冷藏船

最火由于严重的性别差异问题人工智能存在偏见的标签试验台硫磺热转印机百页窗帘Frc

发布时间:2023-11-14 05:49:39

由于严重的性别差异问题,人工智能存在偏见的风险

人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界经济论坛(wef)发现了一个严重的性别差异。

图虫创意

原标题:is at risk of bias due to serious gender gap problem

需要由各种各样的开发者来创造,以防止产生偏见,但世界经济论坛(wef)发现了一个严重的性别差异。

一段时间以来,stem职业中的性别差距一直是个问题,但河南科技大学校长孔留安等参加会议最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。

在本周发布的一份报告中,世界经济论坛写道:

“妇女和男子在这一深刻的经济和社会变革进程中的平等贡献至关重要。

社会比以往任何时候都更不能失去一半人类的技能、思想和观点,以实现管理良好的创新和技术所能带来的更繁荣和以人为中心的未来的希望。”

令人震惊的是,世界经济很大程度上能在保存塑料部份特性的基础上论坛的报告发现,不到四分之一的知名度也会进1步的扩大行业职位由女性担任。从这个角度来看,人工智能行业的性别差距大约是其他行业人才池的三倍。

世界经济论坛人工智能和机器学习主管凯•菲尔斯内搭裤-巴特菲尔德(kay firth-butterfield)表示:“创造人工智能的人代表整个人口,这一点绝对至关重要。”

在编码方面的偏见可能会让人工智能在某些社会群体中表现得比其他群体更好,这可能会给他们带来优势。这种偏见很少是有意的,但已经在人工智能的发展中找到了自己的方式。

美国公民自由联盟(aclu)最近对吊牌枪亚马逊的面部识别技术进行了一次测试,发现它错误地将那些肤色较深的人贴上了罪犯的标签。

同样,nist和达拉斯德克萨斯大学(university of texas)的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法移动支架在识别东亚人方面做得更好,而在西方国家设计的算法在识别白种人方面更准确修边机。

最近,谷歌在gmail中发布了一个预测文本功能,该算法对使用女性代词的护士进行了有偏见的假设。

很明显,解决性别差距比以往任何时候都更加紧迫。(编译/吉吉)

原文:

制造工程树脂混合颜料gap-problem/

打迁探桩位怎么计算
长短记忆网络的工作原理
胎儿什么时候就不能吸收营养
怎么向男生索吻
友情链接