谷歌高管:人脸识别技术存在巨大社会风险

  • 时间:
  • 浏览:4
  • 来源:大发时时彩平台-大发时时彩网投平台_大发时时彩投注平台

在最近发布的一篇博文中,谷歌公司全球事务高级副总裁Kent Walker写道:谷歌将不需要通过Google Cloud提供“通用型”的人脸识别API。除非相关“挑战”得到明确“认定与避免”。

Walker解释称,“与其它或多或少公司不同,谷歌正在努力避免与人脸识别技术相关的一系列重要技术与政策性问题。与众多具有多种用途的新技术一样,人脸识别的应用同样时需被慎重考量,从而确保其使用最好的法子符合亲戚亲戚朋友的原则与价值观,同时避免滥用与或者再次出现的危害性结果。”

最近,谷歌公司似乎对新技术的使用表现出了与业界不同的谨慎态度。不久原本,谷歌方面正式决定中止为美国国防部提供对无人机拍摄内容进行分析的人工智能方案。

事实上,除了谷歌之外,还有不少科技巨头老要在广泛关注人脸识别技术中的种种不性性成熟 图片 是什么是什么图片 是什么是什么图片 迹象,以及或者由此造成的危害影响。日前,由布鲁金斯学着在华盛顿举办的一次活动当中,微软公司总裁Brad Smith就建议亲戚亲戚朋友应当考虑到人脸识别技术当中或者所处的“高风险场景”,类似于该技术或者被用于限制人身自由。他认为,利用人脸识别技术的团队应遵守关于性别、种族以及民族的反歧视法,或者各企业都应对自家人工智能方案的局限性保持厚度“透明”。

对此,Smith还进一步指出,微软公司或者得出其中或者所处人权风险的结论,或者老要在拒绝客户提出的部署人脸识别技术的要求。据透露,今天6月微软公司撤销了一份合约,合约内容要求微软方面为美国移民与海关执法局(简称ICE)提供数据避免与人工智能类工具

Smith解释称:“人脸识别技术的再次出现正在催生出本身新的或者性,即实现大规模监控体系。对于政府来说,这项技术将帮助其在任意位置追踪任意目标。或者亲戚亲戚朋友不充分考虑到那些或者性,没有或多或少切有或者在2024年老要降临到亲戚亲戚朋友当时人身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻画了原本令人感到窒息的恐怖世界,在假想的未来社会中,独裁者以追逐权力为最终目标,人性被强权彻底扼杀,自由被彻底剥夺,思想受到严酷钳制,人民的生活陷入了极度贫困,下层人民的人生变成了单调乏味的循环。)一书中描述的可怕景象一样。”

Salesforce公司首席科学家Richard Socher也抱有同样的焦虑情绪。在本月于蒙特利尔召开的NeurlPS 2018大会期间,他在接受VentureBeat采访时表示,正是或者所处那些顾虑,Salesforce公司目前才决定不通过Einstein图像识别API为Einstein Vision提供人脸识别功能。

他指出,“一旦亲戚亲戚朋友随后现在开始根据某人的面部做出各种重要的决策,没有由此引发的后果有或者非常可怕。人工智能在决策层面的实际表现,详细取决于其用于训练的数据质量。”

人工智能的失误然而,何必 每一家公司时需同样的审慎态度。

今年夏天,亚马逊公司将Rekognition(本身基于云的图像分析技术,通过Amazon Web Services事业部正式对外开放)交付至佛罗里达州奥兰多市以及俄勒冈州华盛顿县警长办公室作为执法工具。奥兰多市随后决定续签相关协议,并试行人脸识别监控计划——此项计划覆盖该市警察队伍中的众多志愿者;此外,华盛顿县还决定利用该项功能构建一款应用多线程 ,利用一套包含1000万人脸信息的数据库对可疑犯罪分子的照片进行扫描比对。

在一项测试当中(亚马逊公司对其准确性提出了质疑),美国公民自由联盟证明Rekognition从某“公共来源”处获取到2100000张照片,并在将其与国会议员的官方照片进行比较时误将28人视为罪犯。而更令人震惊的是,大多数错误判断(占比38%)与有色人种相关。

AWS公司总经理Matt Wood于今年6月对上述结论提出了质疑,认为Rekognition有益于“保护儿童权益,并可用于为儿童构建教育类应用多线程 ”,同时还都都可否“通过多因素身份验证机制增强安全性,降低图像的识别难度,从而用于避免快递包囊被盗等问题。”

在今年8月发布的另一篇博文当中,亚马逊公司指出以Marinus Analytics公司为代表的众多AWS客户正在利用Rekognition帮助寻找落入人贩子面前的受害者,并帮助其与家人团聚。此外,非营利性组织Thorn等人权机构也在利用这项技术寻找并营救遭受性虐待的儿童。

他在博文中写道:“根据报道,目前并没有再次出现任何与亚马逊Rekognition相关的执法滥用行为。选折 利用那些新型技术的组织时需采取负责任的态度,或者将面临受到法律处罚以及公开谴责的风险。对此,AWS老要抱以严肃的态度和责任。”

但时需承认,也不有参与方何必 没有。

今年9月,The Intercept网站发布的一篇报告显示,IBM公司与纽约市警察局合作协议协议开发出一套系统,允许执法方根据肤色、头发颜色、性别、年龄以及各种面部社会形态进行人物搜索。利用纽约警察局提供的来自约1000台摄像机的“成千上万”张照片,所有人工智能方案学着了怎样识别服装颜色以及其它体貌社会形态。

IBM公司的一位发言人指出,这套系统仅被用于“评估性目的”。但于2017年发布的IBM智能视频分析2.0产品其实 提供本身与此类似于的摄像头监控功能,都都可否通过“亚洲人”、“黑人”以及“白人”等标签对拍摄目标进行自动标记。

偏见的或者性除了Socher所提到的道德原则之外,时需过多的研究对于人脸识别技术的整体准确度持怀疑态度。

于2012年进行的一项研究表明,供应商Cognitec公司提供的面部算法在识别非裔美国人方面的表现要比识别白种人低5%至10%;2011年,还有研究人员发现中国、日本以及韩国开发出的人脸识别模型没能区分高加索人与东亚人种。今年2月,麻省理工学院媒体实验室的研究人员们指出,微软、IBM与中国厂商Megvii公司的人脸识别技术在识别浅肤色女人不方面错误率高达7%,识别深肤色男性的错误率为12%,而对深肤色女人不的错判比例更是达到35%。

算法出错的例子还远不止于此。最近调查结果显示,伦敦大前会警察局部署的系统在每一次实际应用时前会产生最多49次的错误匹配。在去年众议院监督委员会关于人脸识别技术的听证会上,美国联邦调查局承认,其用于识别犯罪嫌疑人的算法所处高达15%的错误判断率。此外,弗吉尼亚大学的研究人员正在进行的一项研究发现,两大著名研究图像集——ImSitu与COCO(COCO由Facebook、微软以及初创企业MightyAI同时构建),在对体育、烹饪以及其它多种活动的描述当中,表现出明显的性别偏见(类似于购物图像一般与女人不有关,而教练图像则往往与男性关联)。

在这方面,最臭名昭著的案例之一,无疑是2015年一位软件工程师提交的报告——其指出谷歌照片中的图像分类算法将非洲裔美国人判定为“大猩猩”。

即使是美国规模最大的车载摄像机供应商之一Axon公司的CEO Rick Smith,今年夏季也对此做出回应,指出人脸识别技术对于执法类应用而言还过高 准确可靠。

他解释称,“类似于技术方案还没有做好真正通过人脸识别做出行动决策的准备。在亲戚亲戚朋友看来,或者其中或者再次出现的技术故障或将带来灾难性的后果,亲戚亲戚朋友不应急于将其部署至实际场景当中。”

技术层面的进展过去十年以来,众多失误和问题的再次出现似乎令人脸识别技术的前景蒙上了一层阴影。然而,时需承认的是,这项技术老要在准确度以及避免偏见问题等技术性层面取得可喜的进展。

今年6月,通过与人工智能公平性专家们开展合作协议协议,微软公司修改并扩展了其用于模型训练的Face API数据集。Face API是一项微软Azure API,主要提供用于检测、识别及分析图像中人脸内容的算法。通过与肤色、性别以及年龄相关的几滴 新数据,Face API如今都都可否将深肤色男性与女人不的错误判断率降低至原本的二十分之一,对女人不的错误判断率则降低为原本的九分之一。

与此同时,初创企业Gfycat公司也于今年表示,其将引入更为严格的检测阈值,从而努力提高其人脸识别算法在判断亚裔人士面部方面的准确性。

另外,值得一提的是,一系列新型算法偏见缓解工具的加速再次出现,也在有力提高人工智能方案的公正性水平。

今年5月,Facebook公司发布了Fairness Flow,该工具会自动警告本身算法与非 根据检测目标的种族、性别或者年龄,做出了不公平的判断。另外,埃森哲公司也发布了一款工具包,都都可否自动检测AI算法中所处的偏见,并帮助数据科学家降低或多或少偏见。微软方面在今年5月同样推出了当时人的避免方案。谷歌公司也于今年9月发布了What-If工具,这项由TensorBoard网络仪表板提供的偏见检测功能,主要面向谷歌的TensorFlow机器学习框架。

IBM公司同样紧跟这股时代潮流,其于今年秋季发布了AI Fairness 31000——这是一款基于云的全自动化套件,都都可否为AI系统“提供洞察见解”以,确保对其决策与推荐进行调整,类似于通过算法调整或数据平衡等最好的法子缓解偏见对结果造成的影响。最近,IBM Watson与云平台小组的研究重点,也随后现在开始贴到 缓解AI模型中的偏见,有点儿是与人脸识别相关的偏差方面。

不过根据Smith的说法,这方面的发展道路还相当漫长。

他在今年早些原本发布的一篇博文中写道:“即使避免了偏见问题,即人脸识别系统都都可否以对所有人都公平公正的最好的法子运作,其中仍然所处着潜在的失败风险。与众多其它人工智能技术一样,就算彻底排除到偏见性因素,人脸识别方案通常前会所处一定程度的误差。一切工具都可用于善途或者恶途,而工具本身越强大,其或者带来的收益或者损害也就越明显。人脸识别技术给亲戚亲戚朋友提出了一系列新问题,有点儿是在与隐私以及言论自由等基当时人权保护核心相关的层面,或者,时需始终对此保持谨慎的心态。”