如何防止AI将你认成“大猩猩”?光靠肤白可不行-博雅官网
各位否还忘记,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?于是以因此次事件导致的不良影响,让Google意识到:与其担忧AI伤人,更加相当严重的是AI种族主义问题。为了避免AI“胡来”,Google为其制订了七项“道德”准则。
事情的原委是这样的,2015年,一位名为JackyAlciné的黑人软件开发人员在推特上透漏,GooglePhotos用于的图像分类器将一名黑人女性称作“大猩猩”(Gorillas),引发了轩然大波。事发后,谷歌为此深表歉意,并著手处置这一漏洞。不仅如此,谷歌还明确提出AI技术的研发道德准则,并且正式成立了专门的机器学习道德部门,对公司的产品和服务展开分析测试,明确提出改良意见,尽量防止AI种族主义的产生。
不光是Google,从IBM到Airbnb,每家公司都在希望保证自己的算法会经常出现类似于的偏差。为此,今年6月,Google首席执行官SundarPichai公布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,还包括保证Google员工会生产或强化不公平的AI种族主义,并回应AI技术的研发和用于将在未来许多年内对社会产生根本性影响:对社会有益 防止生产或强化不公平的种族主义 修建并测试其安全性 对民众负责管理 带入隐私设计原则 坚决科学卓越的高标准 为合乎这些原则的用户获取除了那次不无聊的“大猩猩”事件外,哈佛大学的研究员LatanyaSweeney回应:谷歌搜寻中不存在种族歧视,当搜寻类似于黑人名字时,不会比搜寻类似于白人名字更加有可能经常出现与“被被捕”涉及的广告。这些现象都是我们的部门正式成立的原因,不应当让我们的用户看见这些,我们必须首先制止这些种族主义的产生。
实质上,对于AI种族主义这件事,一份来自皮尤研究中心近期发布的研究结果显示:目前美国有58%的成年人指出,人工智能的算法极为程序将不会一直包括对人类的种族主义,人工智能求出的结果无法保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人指出算法不中立;18-29岁的受访者中,也有48%的人指出算法一定会不存在种族主义。
如此显然,大众对AI种族主义这件事存在共识。似乎,解决问题AI种族主义光靠Google一家公司还远远不够,必须有更加多的公司重新加入其中。
本文关键词:如何,防止,将,你认成,“,大猩猩,”,光,靠,博雅官网
本文来源:博雅官网-www.simonlongbow.com
同类文章排行
- 北京市副市长林克庆调研全市森林防火工作
- 为什么互联网产品越来越难做了?
- 王健林又悄悄卖了几家万达广场!保险、信托接
- 弗神35+9亚布塞莱准三双 上海轻取北控紧追榜首
- 国产顶级“二次元”IP:三国
- 在人工智能炒热机器人时,也被人把风带进了教
- 博雅官网:三江源:国家河源国家形象公园先锋
- 泉州割内痔疮要多少钱
- 广东宏远主场118:103轻取浙江广厦(八强赛第一轮)
- 关于第二届全国青年运动会篮球项目U18女子体校组预赛及附加赛
最新资讯文章
- 弗神35+9亚布塞莱准三双 上海轻取北控紧追榜首
- 中国篮球大数据平台项目监理成交结果公告
- 输精管堵塞该怎么办?哪家医院治疗好?
- 合肥华研白癜风医院:三类食物白癜风患者一定不能吃?
- 女性为何更易得尿道炎尿道炎的危害知多少
- 驻马店尖锐湿疣能治好吗
- 博雅官网-合肥天使儿童医院:发育迟缓有哪些表现
- ‘博雅官网’四川省第三次岩溶地区石漠化监测启动
- 博雅官网-探索林业金融创新模式广西林权交易中心成立
- 博雅官网:三江源:国家河源国家形象公园先锋
- 广东宏远主场118:103轻取浙江广厦(八强赛第一轮)
- 广东主场92-100新疆 杜比飚53分破姚明得分纪录
- 关于第二届全国青年运动会篮球项目U18女子体校组预赛及附加赛
- 尤纳斯变阵却遭不测打击 仍7人轮换三连败成必定
- 成都治疗甲亢疾病需要多少钱
- 早发现早治疗矮小症儿童是可以长高的
- 引发胃肠疾病的诱因
- 博雅官网|男人肾虚怎么办找出原因很重要
- 【博雅官网】手术室无影灯的整体流线型设计
- 重庆市:潼南区河长巡河让3000亩砂场变绿地“博雅官网”