xml地图|网站地图|网站标签 [设为首页] [加入收藏]

我们能怎么办,我们的脸

近几年,随着人工智能与大数据技术的兴起,现代人的生活变得更便利、更轻松。各行各业也因为人工智能技术的赋能,提高效率,迎来新一轮的变革。

[摘要]ibm在一则声明中表示,它非常严肃地对待用户隐私,一直谨慎地遵循隐私原则,并表示用户可以选择退出数据集。

人脸识别是人工智能领域最具代表性的技术之一,但IBM 这两天却因此惹上麻烦,原因是他们用于训练机器的照片素材并未征得其所有者同意。

在国内,进入高铁站、在机场过安检、入住宾馆或到单位签到时使用人脸识别系统已是很普遍的事了。但奇怪的是,近来国外媒体时有人脸识别系统患上“脸盲症”的报道。近日,英国大都会警察局被曝其部署的人脸识别系统准确率仅达到2%。而美国民权组织在使用亚马逊面部识别系统时,扫描所有535位美国国会议员的面部照片,结果其中28人竟被识别成了罪犯。如此误差引起了人们的质疑,以及对警方使用该系统的担忧。 人脸识别是AI技术发展较快、应用较多的一个领域,国内警方的人脸识别系统屡屡精准识别逃犯,国外警方的人脸识别准确率为何如此之低?究竟是评价标准不同,还是技术上真有差别? 隐私忧虑或限制技术发展 对于中外人脸识别效果的巨大差异,航天科工智慧产业发展有限公司系统总体部专家何东昌在接受科技日报记者采访时解释,首先是国外的国情问题。“有些国家认为,人脸识别存在隐私问题,甚至对视频监控技术的应用都有一定限制。”例如在英国,面部识别和追踪技术就曾引发巨大争议,英国各界甚至发起一项“请警方停止用摄像头进行面部识别”的抗议活动。类似情况在美国也有发生,如亚马逊公司利用云计算平台、人工智能技术帮助警方使用人脸识别技术,美国公民自由联盟对此提出了抗议。 “国内人脸识别应用已相当广泛,并积累了相当多的实战经验,在人脸图像采集、预处理以及特征选取等方面的工程优化也做得很好。”何东昌说,除国情外,在国际上我国的人脸识别技术确实发展比较快。 美国国家标准与技术研究院组织的人脸识别算法测试FRVT2018结果显示,我国公司再度摘得桂冠。该测试以评测标准的严谨性、一致性和全面性著称。在测试中,我国的人脸识别算法在千万分之一的误报下达到识别准确率95.5%,成为当时全球业界在此项指标下的最好水平。 清华大学媒体大数据认知计算研究中心主任王生进教授说,当前人脸识别有三种应用模式:1∶1人脸识别、1∶N人脸识别、M∶N动态布控。 1∶1识别的本质是计算机对当前人脸与人像数据库进行快速人脸比对,并得出是否匹配的过程,“刷脸”登机、验票、支付都属此类;1∶N是在海量的人像数据库中找出当前用户的人脸数据并进行匹配,即从N个人脸中找出1个目标;M∶N是通过计算机对场景内所有人进行面部识别,并与人像数据库进行动态人脸比对,能应用于黑名单监控、VIP客户管理系统、校园人脸识别系统等多种场景。 “英国警局出现的情况,也未必是识别准确率低。可能是在特定环境下,采集的图片不够理想,或是M∶N的人脸识别,为达到更高的检出率和检测速度,在一定程度上牺牲了准确度。”何东昌说。 保护“刷脸”信息需多管齐下 在信息即价值的时代,个人隐私信息的商业价值日益凸显。在人脸识别技术火爆的同时,社会上出现了是否会侵犯隐私,人脸是否能被“假冒”的担忧和质疑。对此,何东昌认为,目前国内,从消费电子领域到安保、网络支付、金融等领域都在逐步引入人脸识别,但新技术有“双刃剑”属性,应防范其中潜藏的安全隐患。 特别是在“刷脸”过程中,用户的姓名、性别、年龄、职业,甚至用户在不同情境状态下的情绪等大量信息都被采集并储存。这些信息如果得不到妥善保管而被泄露,用户个人隐私就处在“裸奔”状态。“因此,面对刷脸产生的个人隐私问题,我们必须多角度共同保护。目前在人脸识别技术领域,我国尚无相应的安全监管机制,应及早未雨绸缪,预先防范。”何东昌说。 微软总裁兼首席法务官布拉德·史密斯也在其博文中表示:“考虑到这项技术被滥用的可能性和广泛的社会影响,政府在人脸识别方面的立法似乎显得尤为重要。” “看好我们的脸”,公民应多一些戒备与防范意识,企业多一些技术层面的保障措施,监管也须及时跟进。业内人士也建议,政府应从管理者角度,通过立法方式强化面部识别领域的监管力度,保障公民个人信息安全;相关行业、企业应提升应用软件等载体及储存设备的安全技术水平,提升网络安全意识,避免公民隐私信息泄露或遭非法转卖;非必要的隐私数据不应采集。当前,人脸识别技术的开发仍有巨大拓展空间,国家有必要在数据共享和开放上加大引导力度,促进技术发展。另一方面,人脸识别技术在逐渐走向成熟,应用将越来越多,识别技术的各类标准,特别是保护公民隐私的标准应尽快出台;相关行业及企业需担负起社会责任,主动积极地规范行业标准,自觉维护采集、储存的公民隐私数据安全等。

比如医疗AI可以通过病症分析出患者可能得了什么病,从而帮助医生进行诊断;产业供应链在AI和大数据的帮助下可以进行更合理的调整,从而提高效率;人脸识别技术让安防领域更安全……等等。

奥门银河官方app 1

奥门银河官方app 2

但在繁荣之下,依然有暗流涌动。

据英国广播公司报道,ibm近日被指在未经用户同意的情况下,在图片分享网站flickr上获取了大约100万张照片,用于训练其人脸识别算法。

我们知道,人工智能的「训练」过程离不开大数据的「喂养」,例如人脸识别技术则需要为算法提供海量照片,而拥有浩瀚信息的互联网显然成了取之不尽的素材库,但之前似乎没人觉得不妥,直到NBC 在这篇题为《面部识别的「肮脏小秘密」:数百万在线照片未经允许而被抓取》的文章中指出,人脸识别技术在研发过程中从网上获取照片素材,对其种族、性别、肤色进行分类,但照片所有者对此却毫不知情:

拿最近的几个新闻来说,3月10日,有网民在社交媒体爆料,称其在某购票APP中订购某航空公司机票,其间因需要报销凭证而放弃第一次的订单,但进行二次搜索时发现,同样的机票贵了近1500元。将该APP卸载后重新安装,再搜索时仍然出现同样的情况。而该航空公司官方网站显示,同样的行程不但有票,且价格比APP上显示的便宜不少。

当个人隐私成了“数据”

这些人的面孔在未经他们同意的情况下被使用,为最终用于监视他们的技术提供动力。

3月12日,美国NBC电视台又报道,科技巨头IBM在未经当事人许可的情况下,从网络图库Flickr上获得了接近100万张照片,借此训练人脸识别程序,从而让算法更加精确,可以快速地从不同照片或不同场景中识别出某个用户。

据报道,ibm研究人员在一篇公开的论文中详细描述了使用这些照片进行人脸分析的步骤,包括测量人脸五官的距离等等。研究人员写道,通过使用头部和面部的47个标记点,可以对人的面部照片进行很多可靠的测量。

被点名的是IBM,该公司1 月份推出了一套包含100 万张照片的素材,这些照片经历编码,并附带内容描述,报道称IBM 正在把这套素材推销给人工智能领域的研究人员,将其用于改善面部识别技术。

还有前不久,某平台被指利用语音技术“偷听”用户说话,通过分析用户说话内容来推送广告等等。

对于技术公司而言,这些照片的价值不言而喻。庞大的图片数据集有助于将人脸识别算法训练得更加精确,从而可以快速地从不同照片或不同场景中识别出某个用户。

奥门银河官方app 3

随着人工智能技术的应用越来越广泛,各种应用场景都存在着技术被不当利用的隐患。在享受便利的同时,公民的数据安全也被推向了灰色地带。更糟糕的是,这种事情正在全世界发生。

然而,那些照片上的人,大概并没有想到,自己的肖像数据就这样被技术公司收集,“喂”给了人工智能神经网络,不知不觉地成了人脸识别技术迭代升级的“粮食”。

▲图片来自:KnowTechie

奥门银河官方app 4

ibm在一则声明中表示,它非常严肃地对待用户隐私,一直谨慎地遵循隐私原则,并表示用户可以选择退出数据集。

这些照片取自著名相册网站Flickr,一些用户惊讶地发现他们拍摄的照片出现在IBM 采集的数据库中,但从未接到相关通知。

老生常谈的“技术作恶”

话说回来,选择退出时间点应为用户在肖像数据被获取之前,知道自己的肖像数据将被用于其他用途。而在这一事件中,很多用户的隐私已不知不觉地被侵犯了。

当然,IBM 不是唯一一个从互联网上获取公开照片的公司,许多研究机构都采用类似的方法收集照片,将其用于训练面部识别系统。

关于“技术作恶”,其实早已不是什么新鲜的话题。然而直到今天我们都还在讲这个问题,就是因为它还没有得到解决,并且对我们生活的影响也越来越大。

行业内公开的秘密

在面部识别技术开发的早期阶段,由于互联网还不像今天这样发达,研究人员只能请人们来到实验室拍摄,还需要与拍摄对象签署同意书并支付不菲的费用,费时费力不说,研究范围也大受限制。

众所周知,人工智能算法的训练离不开大数据的“喂养”。但我们是否想过,这些数据到底来自哪里?我们是否真的想要这些大数据被科技公司所获得?当科技公司拿这些大数据“作恶”,我们能怎么办?

假如你的头像也是上述100万张照片之一,肯定会觉得这件事特别诡异。但对某些人来说,ibm的所作所为并不值得大惊小怪,只是行业内公开的秘密而已。

随着互联网的兴起,获取照片素材这件事变得轻而易举,一开始我们在网上看到的多是名人、明星的照片,而在社交网络流行后,普通人的照片也日益增多,互联网俨然成了面部识别的天然数据库。

比如第一篇新闻提到的,正是“大数据杀熟”问题;第二篇则是关于“个人隐私数据”问题。

《麻省理工技术评论》官网发表文章说,人工智能研发人员一直在从互联网的各个角落搜集大量数据,来“喂”那些饥饿的机器学习算法,因为这些算法的训练需要以大数据为支撑。该文称,社交平台instagram上的照片也常常作为技术公司获取图片数据的来源,而且照片的内容标签经常对应照片的内容,这更加方便了研发人员对数据的标注。

NBC 指出,学术界经常以其研究不属于商业性质为由绕过版权问题,而Flickr 又因拥有大量「知识共享」(Creative Commons)授权照片而受到面部识别研究人员青睐。

所谓“大数据杀熟”,就是一些企业通过大数据对采集到的用户信息进行分析,然后针对用户制定一套价格方案。

除了社交平台上的照片被不知不觉地获取,随着人工智能技术的应用越来越广泛,个人隐私被不当利用的担忧同样存在于其他场景。

奥门银河官方app 5

有些人很省钱,那就提供价低的价格;有些人花钱大手大脚,那就提供价高的价格。通过给不同消费群体制定不同的价格方案,可以产生巨大的收益,这是每个商人都无法拒绝的。

比如,最近不少商家把人脸识别技术请上了收银台,推广刷脸支付。消费者在刷脸支付的同时,自己的面部肖像也同时被人脸识别系统所获取。关键是,这些面部会不会也像flickr上的照片那样,变成训练人工智能神经网络的数据?甚至在未经消费者同意的情况下,再次被提供给其他商家,用于其他用途?这些都是值得追问的。

「知识共享」是非营利性组织Creative Commons 提供的一种著作授权方式,旨在保持作品流通权并保留所有者部分权利的同时,允许他人获取作品进行创作及共享,例如照片所有者可以仅授权非商业用途,也可以允许他人复制、改编等。

这也是为什么现在很多企业都会开发专属APP或者网站,因为当用户使用这些APP或者网站时,企业可以获得许多用户的数据。掌握的数据越多,企业对用户就越了解。最后根据用户的消费习惯,“杀熟”于无形。

可能被侵犯的个人隐私也不仅仅限于面部肖像。现在多种应用软件都可以在语音识别技术的支持下,允许用户进行语音输入。但声纹是重要的个人生物信息,这些语音数据被商家获取后将如何被保管和使用?要知道,一旦声纹数据被泄露,不法分子有可能利用当前的语音技术,合成出难辨真伪的声音,用于电话诈骗等不良企图。

IBM 表示他们从Flickr 获取的图片都有CC 授权,尽管他们表示用户可以选择退出数据库,但用户在实际操作中却发现这几乎办不到,因为IBM 的数据库并未公开,Flickr 用户无从得知自己的照片是否包含其中,更无法按要求提供照片在数据库中的链接。况且IBM 也承认即使他们将用户的照片从自家数据库中删除,对于之前已共享给其他机构的数据库版本,他们也无能为力。

至于“隐私问题”就更好理解了,在互联网还不发达的过去,科技公司只能专门请人拍摄,来完善人脸识别算法。但在今天,随着社交网络的兴起,各个社交平台就成了天然数据库。企业可以在当事人不知情的情况下,拿这些照片去完善自己的算法。

虹膜识别、指纹支付、文字识别等人工智能技术在应用过程中也可能毫不例外地涉及个人隐私问题。

此事也引起了Creative Commons 的关注,该组织在官网的「常见问题」中增加了对人工智能数据采集的解释,表示如果新技术开发者遵守CC 的授权许可,可以无需征得版权所有者许可直接使用其作品,至于涉及到的隐私、伦理和数据保护法等问题,就不在CC 的能力范围内了:

总而言之,在互联网时代,每个人的数据正变得越来越透明,并越来越容易获取。

用户知情同意是前提

奥门银河官方app,在保护个人隐私、解决人工智能开发中的研究伦理问题或规范在线监视工具的使用上,CC 授权并不是一个好工具,这些问题属于公共政策领域。

奥门银河官方app 6

人工智能时代,正让每个置身其中的人变得越来越透明。享受其便利的同时,公民的个人隐私也很容易被推向灰色地带。

然而,数字版权组织Privacy International 表示,未经被拍摄者直接同意,IBM 使用这些照片是错误的。

依法治理是关键

解决方案其实很简单:获取用户个人隐私信息,应保证用户的知情权;要给予用户选择不拿个人隐私“喂”人工智能的权利。

如今,人们对人工智能的态度,还处于一个非常复杂的阶段。其中有信任与好感,也有怀疑与不安。

要实现这一目标,仅仅依靠行业自觉恐怕远远不够。制定相关法律对人工智能技术的应用加以规范才是硬道理。

而在这个基础上,又有许多科技企业为了眼前一点小利益,竟然用大数据与人工智能来“宰客”,这种手段看似聪明,实则糊涂。目前看来,受到伤害的似乎只有消费者用户,但长此以往,真正葬送的其实是整个人工智能行业的未来。

就在ibm事件掀起轩然大波之际,两位美国参议员提议通过新的法案——商业面部识别隐私法,对技术公司的人脸识别技术使用进行一定限制。

一旦信任被打破,不管这些科技公司的技术有多先进,都将毫无用武之地。

这项法案提出,禁止在未经用户同意的情况下,使用商业面部识别技术收集和分享数据,用于识别或追踪用户。新法案还将要求公司在收集人脸识别数据时明确地告知用户,并且经过用户的知情同意才能分享给第三方。

那么如何才能防止科技公司用技术“作恶”,更有效地保护我们的个人隐私数据呢?

令人欣喜的是,今年两会期间,我国在相关领域也有好消息传出:全国人大常委会已将个人信息保护法等与人工智能密切相关的立法项目列入本届五年的立法规划。

其实解决办法很简单,就是在获取数据、尤其是用户个人的隐私数据之前,要让用户知道自己的数据会被用在哪些方面,要保证用户对自己的数据有真正的权利,而不是随随便便就能被一些企业拿去训练算法。

期待人工智能技术在变得越来越能干的同时,也越来越懂得尊重个人隐私。

不过要实现这点,只靠企业或者行业自觉是不可能的,最关键的部分还是要制定相关规律,对人工智能技术进行规范管理。

延伸阅读

比如当时IBM的新闻一出,美国参议院马上就通过了一项涉及面部识别技术的隐私保护法案——《商业面部识别隐私法》。这些法案对数据进行了严格的规定,严禁企业在用户不同意的情况下,将数据用于商业面部识别技术;并要在确认用户完全知情的情况下,才能将数据分享给第三方。

欧美学者对于《一般数据保护条例》表示担忧

当然,在人工智能领域里发展迅猛的中国,在这方面也没有落后。今年两会期间,全国人大常委会已将个人信息保护法等与人工智能密切相关的立法项目列入本届五年的立法规划。在发展技术的同时,个人隐私也正得到越来越多的尊重。

过去一年,科技发展与隐私保护的冲突似乎愈演愈烈。近日,2014年经济学诺奖得主、法国图卢兹经济学院教授让·梯若尔等多位知名学者现身杭州,就“数据隐私和技术发展”发表了各自的看法。

最后的话

2018年5月,由欧盟颁发、被称为史上最严格的gdpr(《一般数据保护条例》)开始实施,facebook等巨头企业接连收到了欧洲开出的天价罚单。与此同时,对于隐私保护的政策争议不断,有人呼吁出台更严格的隐私保护条例,也有不少专家认为,欧洲严格的数据保护条例,并不适合在全世界推广,在未来的大世界面前,隐私就是一个小问题。

人工智能与大数据作为科学技术,其本身并无罪恶可言,问题的核心其实还是人。

讨论中来自欧美的学者对这一由欧盟颁发的数据保护条例普遍表示了担心。让·梯若尔认为,该条例太过复杂,如果不允许收集数据,就类似于“想倒掉洗澡水,把宝宝也泼出去了”。美国伯克利法学院教授姆斯·邓普希则直言,当前对隐私问题的研究,有待于更充足的经济学、社会学层面的知识给予支撑和完善。

技术是一把双刃剑,如果操作者使用得当,就可以为社会大众带来更多优质服务,为企业带来更多收益因此在看待一些负面现象时,还是应该保持理性的态度,不能将其全面否定。

《经济学人》智库发布的最新报告称,关于隐私,存在很多地区偏见。中国比欧美更认同“数据隐私对企业治理的重要性”。98%的中国受访者认为,数据隐私是良好企业治理的最重要组成部分,这与中国企业不重视隐私的普遍观念截然相反。(记者江耘 实习生洪恒飞)

但另一方面,如果操作者居心不良,滥用技术,为了钱不择手段,这样不仅会给企业造成不堪设想的损失,甚至还会影响到整个行业的发展。

当务之急,就是希望监管部门可以早日对各种市场乱象进行管理;互联网企业也应该保持自律,注意公众形象;消费者也要提高自己的辨别能力,不要为了贪图便利,而忽视了自身的数据安全。同时在在看待一些负面现象时,还是应该保持理性的态度,不能将新技术全面否定。

本文由奥门银河官方app发布于银河游戏平台网址,转载请注明出处:我们能怎么办,我们的脸

相关阅读