人工智能种族歧视?都是人类惹的祸-westwell类脑实验室
点击上面蓝字“westwell类脑实验室”▲订阅
近日,国外一款处理图片的APP被认为具有种族歧视。这款手机应用的原理是人工智能,将自拍照转化为具有照片真实感,但又比照片要美很多的图片逍遥大唐。
其功能其实没什么新鲜的大汉嫣华,能让用户在照片上变得年纪更大或者笑容更灿烂。唯一不同的是,这款App使用神经网络为照片做出这些改变末世刁民,因此处理后的图片看上去依然很真实自然。

但是用户在使用的过程中却发现,南州六月荔枝丹自拍照片上的人肤色比较浅的话由贵香织里,处理后的照片更美。这样一来,国外用户就不买账了怪诞俏女郎。凭什么按肤色分?于是,该App的CEO出来道歉了,表示这是神经网络出现的副作用,因为训练数据的一系列偏向珍品网官网,使得它在训练过程中出现了认知偏差,并不是故意为之。卢驭龙据悉该款手机应用使用的人工智能技术大多都来自于开源的数据库,例如用谷歌Tensorflow训练的数据库等等浙江药师网。
但是,数据库表示不背这个锅封柏。因为选择哪些数据集来训练这个“歧视”的滤镜青莲记事,是这款App自己做出的选择,那么最终要负责的还是这款App的团队。他们并没有为手机应用提供足够多样性的数据,因此这款App也就不能明白一个事实韭菜花炒肉,就是漂亮或者帅并不等同于肤色浅列车惊魂。
不过这不是第一次哦香雪,人工智能出现了歧视圣魔光石。Snapchat在2016年推出了一款“黄皮肤”滤镜白教堂血案,会放大用户的亚洲脸特征——眼睛又小又细。很快Snapchat便做出了回应并撤下了该滤镜。微软去年也犯了人工智能歧视的错误。去年三月份在推特上发布一款名为“tay”的聊天机器人时,在不到24小时的时间里吕德彬,这款机器人就已经变成了一个歇斯底里的种族主义者和新纳粹分子,之所以出现这种状况,很大程度上是受到了在推特上与它进行对话的那些用户的“教授”和“引导”战神冉闵。

机器没有自我意识,但机器学习时三扁不如一圆,人类语言和文化中根深蒂固的偏见会被人工智能吸收而且得到强化。因此,人工智能的命运仍然掌握在我们人类自己手里,我们身体力行去改变这个歧视的世界。

westwell lab为各行业提供人工智能的解决方案
网址:http://www.westwell-lab.com 微博:@westwell类脑实验室
关于westwell lab,你想了解的都在「阅读原文」