英国宣布要建立一个新的数据伦理中心,这是一件受欢迎的事情。但是,我们必须确保该中心要有能力解决其所认定的伦理问题。
叫停研发杀手机器人的活动引起了人们对自动武器危害的关注
数据无处不在。然而,数据会让我们的生活变得更好,还是会使我们处于危险之中呢?近几个月来,人们已经搞清楚的一点是,虽然不断扩大的数据所呈现的机会是很多的,但是所造成的威胁也很多。因此,我们需要更加合理地管控数据――针对如何利用和开发这种新技术出台一套指导原则,这么做是因为数据误用会带来威胁,会致使公众反对此类创新。
包括优步公司和莫里森公司在内的企业发生了数据泄漏,这已经成为头条新闻。但是,以自身的商业应用为目的而开发人工智能和查明信息,在这种情况下企业能够以何种方式合法地使用数据,这一点并没有较为广泛地公开化。
对于人工智能潜在的军事用途,来自各方面的担忧不断加剧,以致20000多名研究人员最近签署了一封警告信,警告政策制定者要当心自动武器的危害,因为这些自动武器能够利用运算法则来袭击具体的目标。我了解到开发这些技术相对容易和廉价,这是令人震惊的。对自动无人机进行编程,可以使其搜寻目标的特征,而且可以在没有监视的情况下从远处对其进行控制……所有这一切都是通过数据驱动的运算法则实现的。
如果这就是市场的发展所致,那么很可能需要进一步加强有力的管控和监督了。我们需要一套伦理和管理法规,不仅仅是为了数据保护,而是为了让社会群众拥有真正的发言权,让他们去建议各个组织能够怎样利用我们的数据来获得优势,不管是商业优势、政治优势还是其他方面的优势。毕竟,那是我们的数据,保护人民必须是重中之重。在数据立法背后,对原则的公共保证是关键。因此,以人们可以理解的方式来传达这种保证很重要。
我乐意接受最近由英国科学院和皇家学会所做的一份有关数据管控的报告,他们在这些问题上已经做了认真的工作。该报告涵盖了制定数据管控措施所需要的环境,解释了社会正在以何种方式发生变化,为何制定数据政策一定要考虑“数据相关争议”带来的风险,一定要考虑具有警告意义的历史故事――“广泛采用新技术会增加公众的焦虑感,或者会导致激烈的公共争议”之类的故事。报告还阐述了什么叫数据管控原则,需要利用这些原则来明确地制定所有形式的数据管控措施,确保数据具有可信性,要相信对整体数据的管理和使用。透明度是关键:允许问责制的存在,使任何引入的管控法规都具有合法性。
英国科学院和皇家学会认为,首要的数据管控原则应该是“促进人类的繁荣昌盛”。对于某些人来讲,这个说法可能听起来有点理想化了,但是他们认为应该支持数据治理和管控的观点是正确的。这些观点如下:保护个人和集体权益;确保在数据管理和数据利用影响下的交易具有透明性、可解释性和包容性;找出最佳实践案例,从中吸取成功的经验和失败的教训;加强现有的民主管理。
该报告还提倡由一个新的机构来管理整个数据格局,而不是仅仅管理某些部门和领域的数据。这样才会在符合上面列出的这些原则的情况下支持数据管理权的移交,并提出改进建议。该机构在对话中将会具有包容性,而且也拥有独立性,同时又与不同的社区相连。
有迹象表明,该报告所提的建议并未被忽视。正值英国脱欧之时,局面混乱不堪,预算在一定程度上也受到了影响,但英国仍然提出要建立一个新的数据伦理中心,这是一项迎合了英国技术行业呼声的新发展,因此备受欢迎。然而,这样一个中心的资金来源并不明确。对于提议的数据伦理中心,政府的概述如下:“这是世界上首个能够在人工智能和数据驱动技术领域确保安全创新和伦理创新的咨询机构。”但是,该机构是否拥有当前数据格局所需要的管控优势或权力呢?就其地位跟信息专员办公室(ICO)的关系而言,这个新机构可能会产生进一步的问题,有可能会遇到近年来信息专员办公室本身所经历的管控影响力不足的问题。我们需要确保英国科学院和皇家学会所设想的多元化的、包容性的和教育性的管控机构能够取得成效,并且需要确保其有能力带来变革。
那么,为了使公民免受数据使用不当可能造成的公共伤害,《数据保护法案》目前正在通过议会审核,该法案还将需要什么附加条款呢?我们拭目以待。作为全党派议会数据分析小组的主席,我听到过无数组织为了更加有效地进行民事保护而发起运动的情况,还听说过数据驱动的营销组织将数据当作摇钱树、利用数据打开潜在商机的情况。毫不奇怪,公众对于其个人数据可能被用于哪些领域感到担忧,并且对数据立法持怀疑态度,特别是最近媒体对有关面部生物识别技术等问题的报道,更是让人忧心忡忡。就在今年夏天,维权机构“老大哥观察组织”(Big Brother Watch)报道说,伦敦大都会警察局提议,试用带有人脸识别软件的相机来扫描诺丁山狂欢节上人群的脸部,这样是为了给他们提个醒,让他们知道他们所惧怕的人可能会出来闹事。这种人工智能软件创造了面部特征的生物识别运算法则,这对警方可能是有帮助的,但是议会对于数据的这种用法没有进行过任何讨论。从法律的角度来看,警方没有做任何错事,但是可以理解的是这样利用人工智能使一些人感到非常不自在。除此之外,该技术不能代表正常维持治安的未来,而且目前准确度的欠缺使这种方法存在风险,有许多匹配出现错误,这意味着在未经无辜的人们许可的情况下正在生成他们的面部生物特征。
因此,我们需要解决一系列的伦理难题。在数据方面,有些人会本能地怀疑国家机构,其他人会对私营部门的数据使用情况保持谨慎态度。对于运算法则引导下的自动武器不存在任何审查,这一情况应该引起各方的关注。议会跟公众一起制定更加合理的数据伦理规则,出台保障每个人安全的管控措施,这是至关重要的。
此前,我们已经看到在不了解公众需要充分参与决策、需要权衡风险和收益的情况下,创新技术被商业利益所推动时会产生怎样的结果。由于新技术提出了类似的难题,我们需要正确的政治体系和伦理体系来帮助确保每个人都能受益。作为政治家,我们有责任出台数据管控措施,使人们保持健康和安全,这是放在第一位的。如果想要利用大数据来真正地“促进人类的繁荣昌盛”,提高人们的生活质量和工作质量,就必须要先保护人民的利益,而不是保护商业利益。
资料来源The Guardian
责任编辑 田心
――――――――――
本文作者丹尼尔·蔡克纳(Daniel Zeichner)是来自剑桥市的英国国会议员,也是全党派议会数据分析小组主席。