专家表示,在未来的10年中,人工智能的兴起将使大多数人的生活变得更好。但是许多专家也担心,人工智能的进步会对人类的意义、对提高生产力和行使自由意志的意义等方面产生不可预测的影响。

1

  数字生活正在增强人类的能力,但也扰乱了人类世代未变的活动。代码驱动的系统已经通过信息和连通性传播到世界上一半以上的居民,提供了以前无法想象的机会,同时也造成了前所未有的威胁。随着新兴的、算法驱动的人工智能(AI)不断扩展,未来的人类将会比现在生活得更好吗?
  在皮尤研究中心于2018年夏季进行的专家意见调查中,有979名创新者、开发人员、技术先驱、商业与政策领导人、研究人员和活动家回答了这个问题。
  专家们预测,网络化人工智能将会提高人类的效率,但也会威胁到人类的自主权、代理权和做事能力。他们谈到了多种可能性:在处理复杂的决策、推理和学习、高级分析和模式识别、视敏度、语音识别和语言翻译等领域的任务时,计算机可能跟人类的智力和能力相匹配,甚至会超过人类。他们表示,在社区、车辆、建筑物、公共事业设备、农场和商业流程中使用智能系统,将会节省时间、金钱和人力,并为个人提供机会,让他们享受更加个性化的未来。
  许多专家的乐观言论集中说明了人工智能在医疗保健领域的多种潜在应用,如对患者进行诊断和治疗,或者帮助老年人过上更加充实和健康的生活等。这些专家对人工智能在促进更加广泛的公共卫生计划方面所起的作用也非常感兴趣,这些计划围绕着大量的数据展开,或许在未来几年中可以获取这些数据,而这些数据涉及从个人基因组到个人营养等各方面的信息。此外,其中一些专家预测,在正式和非正式教育体制中,人工智能将会对期待已久的改革起到促进作用。
  然而,无论是否乐观,大多数专家都对这些新工具表示关心,关心这些工具对人类基本要素产生的长期影响。在这次调查中,要求所有的参与者都详细说明为什么他们觉得人工智能将会使人们的生活变得更好,或者为什么相反。许多专家感到忧虑,而很多人也提出了解决问题的途径。
  具体而言,要求参与者展望2030年。到2030年,您认为发展AI和相关技术系统很可能会提高人类的能力并赋予人类权力吗?也就是说,在大多数情况下,大多数人的生活质量会比现在更好吗?或者,发展AI和相关技术系统很可能会削弱人的自主性和能动性,从而使大多数人的生活质量还不如现在?
  分析师们预计,人们将会更加依赖复杂数字系统中的网络化AI。有些人说,随着网络化工具的广泛使用,我们将继续行驶在提高生活质量的轨道上,这些工具会为我们带来积极的成果。有些专家表示,随着我们对AI以及相关系统的依赖程度越来越高,可能会导致困难无处不在。
  总之,尽管担心会出现不利的情况,但是在这次意见调查中,63%的参与者认为,到2030年,绝大多数人的生活都会变得更好,他们对此怀有希望;37%的参与者说,人们的生活不会变得更好。一些思想领袖表示,如果密切关注这些工具、平台和网络是如何设计、分布和更新的,那么人类依靠技术系统会朝着好的方向发展。下面是一些专家给出的强有力的答复。
索尼娅·卡泰尔(Sonia Katyal,加州大学伯克利法律和技术中心副主任、美国商务部数字经济顾问委员会成员)预测:“在2030年,一系列最严重的问题涉及对AI的认识以及其应用将如何影响未来公民权利的发展轨迹。在这种新的AI背景下,关于隐私、言论、集会权和人格的技术建构等问题都将重新出现,我们对‘人人享有平等和机会’的坚定信念将会受到怀疑。在这个新世界中,谁将受益,谁将处于不利地位,取决于当今我们对未来这些问题的分析是否透彻。”
埃里克·布林约尔松(Erik Brynjolfsson,麻省理工学院数字经济倡议办公室主任,《机器、平台、人群:把握我们的数字化未来》一书的作者)认为:“AI已经在许多领域取得了超人的成就。毫无疑问,到2030年,AI的能力可能会得到大幅提高,我们更有可能利用这种力量使世界变得更加美好。例如,我们几乎可以消除全球贫困,在很大程度上减少疾病,并且可以为地球上的每个人提供更好的教育。也就是说,AI和机器学习也可以越来越多地用来聚集财富和权力,让许多人望尘莫及,或者可以用来制造更可怕的武器。这两种结果都是不可避免的,所以合适的提问不是‘将会发生什么?’而是‘我们将要选择怎么做?’我们需要积极努力,确保技术与我们的价值观相匹配。从政府到商业界、学术界,再到个人选择,这一点在各个层面上都是可以做到的,而且是必须要做到的。”
布莱恩·约翰逊(Bryan Johnson,高级神经接口的领先开发公司Kernel的创始人兼CEO、风险投资企业OS基金公司CEO)说:“我坚信,面对人工智能,问题的答案取决于我们是否可以将经济体系转向优先考虑人类的进步,制止和人类进步无关的发展趋势。我指的不仅仅是工作,更重要的是真正存在的无关性,即不优先考虑人类福祉和认知所带来的最终结果。”
玛丽娜·戈比尔斯(Marina Gorbis,未来研究所执行董事)说:“如果我们的政治经济和数据管理制度没有重大的改革,那么AI可能会造成更加严重的经济不平等、更多的监视、更多程序化和非人本的交互。每当我们利用程序对工作平台进行指令的时候,最终都会把我们自己和我们的交互程序化。人类必须变得更加标准化,消除我们在交互中出现的偶然性和模糊性,但这种模糊性和复杂性却是人类的本质所在。”
朱迪思·多纳斯(Judith Donath,《社交机器:为在线生存而设计》一书的作者,哈佛大学伯克曼﹣克莱因互联网与社会中心研究员)评论道:“到2030年,大多数社交场合将由机器人提供便利条件,这些机器人含有智能化程序,能够像人一样跟我们进行交互。在家里,父母将让技能娴熟的机器人帮助孩子完成作业;在工作上,机器人将会组织安排会议。人们将会考虑把知心的机器人当作保持心理健康必不可少的同伴,我们会越来越多地求助于这样的机器人同伴,向它们寻求从穿什么衣服到跟什么人结婚等一系列建议。到那时,人类和机器人之间的区别将大大地被模糊化。通过屏幕和投影来欣赏的话,机器人的声音、外观和行为将会与人类无法区分。甚至会出现带有身体的机器人,虽然很明显它不是人,但是它会非常真实,以至于我们将会有一种深信不疑的印象:它们是会思考、有感觉的人,与自己不相上下甚至优于自己。机器人获得了有关我们每个人的大量数据,在这些数据的帮助下,机器人将吸引我们、说服我们,它们在这方面的能力远远超过人类。它们能够熟练地模仿情感,但他们永远不会被感情所征服。如果它们愤怒地脱口说出什么难听的话,那是因为经过计算发现这种态度是最有效的方式,能够促成它们‘心中所考虑’的任何目标。那么这些目标是什么呢?与人类社会相似的目标会激励它们,如为了得到更好的尊重,无论是成为令人喜爱的朋友,还是受人尊敬的领导。但是,跟AI真正进行合作的将是控制它们的人类,如当今雇佣它们卖货的销售商,或是委托它们进行拉票的政客。”
 安德鲁·麦克劳林(Andrew McLaughlin,耶鲁大学创新思维中心执行董事,曾担任奥巴马政府的代理首席技术官和谷歌全球公共政策负责人)认为:“2030年并不遥远。像互联网和网络化AI这样的创新技术具有巨大的短期利益,也会伴有长期的负面影响,而这样的影响需要数十年才能显现出来。AI将会推动广泛的效率优化,但也会给保险、求职和绩效评估等带来潜在的歧视和武断的惩罚。”
  迈克尔·罗伯茨(Michael M.Roberts,互联网域名与地址管理机构首任董事长兼CEO,互联网名人堂成员)写道:“实际上,利用智能体来提高人类智慧的机会是无限的。主要问题是它越方便,就需要对你了解得越多——你的爱好、时间安排、能力等,这样就要权衡一下利弊了,得到的帮助更多,需要遭受的侵扰也更多。这不是一个非黑即白的问题,灰色地带以及相关的补救措施将会带来无休止的争论。到目前为止,便利性压倒了隐私的保护。我相信,这种态势会继续下去。”
达纳·博伊德(Danah Boyd,微软首席研究员、数据与社会研究所创始人兼总裁)说:“AI是人类用于各种目的的工具,包括追求权力。科学和人道主义会涉及AI,权力滥用同样也会涉及AI。遗憾的是,某些趋势可能会造成严重的不稳定性。以气候变化和气候移民为例,这将进一步破坏欧洲和美国的稳定。我预计,我们将看到AI以有害的方式被用于其他的地缘政治危机中,此事令人恐慌。”
艾米·韦伯(Amy Webb,未来今日研究所创始人,纽约大学战略预见领域教授)评论说:“在美国和世界上许多其他国家,目前准备就绪的社会安全网络结构并不是为了向AI过渡而设计的,AI的过渡将持续接下来的50年或更长时间。随着我们进入计算的第三代,随着每个行业AI系统的更加深入,我们将需要具有复合型技术知识的新型工作者,他们能够在以前从来不存在的工作岗位上进行操作。我们需要知道如何使用大数据的农民,需要肿瘤学家接受培训兼为机器人专家,需要生物学家接受培训兼为电气工程师。随着AI技术的成熟,我们需要一支响应迅速的员工队伍,每隔几年就能适应新的流程、系统和工具。我们还需要面对一个难以接受的事实:谁也不愿意大声说出‘AI终将导致大量人员永久失业’。就像以前几代人在工业革命期间和之后所见证的彻底变化一样,技术的快速发展可能意味着婴儿潮一代,特别是其工作内容可以被机器人取代的人员,如果不投入大量时间和精力,将无法重新接受培训去干其他类型的工作。”
 巴里·楚达科夫(Barry Chudakov,Sertain研究公司的创始人兼负责人)评论说:“到2030年,人与AI合作将成为一种必要的手段,以管理和应对多个同时加速事项所带来的影响,这些事项包括广泛的技术进步、全球化、气候变化和随之而来的全球移民。为了赶上变化的节奏,为了在2030年之前控制越来越多的‘恶劣问题’,AI将会重视人类行为和交互的几乎所有领域,并对其进行重新评估。AI和先进技术将改变我们的响应框架和时间,两者反过来也会改变我们。一旦社交互动发生在工作、学校、教堂、家庭等环境中,那么这些互动将会越来越连续,越来越趋于同时发生。如果幸运的话,我们将遵循生命未来研究所列出的23个阿西洛马人工智能原则(Asilomar AI Principles),并将致力于研究‘有益智能’。人工智能系统形成了一股道德复兴的力量。我们必须接受道德复兴,否则我们将会面临可能导致人类灭亡的道德问题。我对人与AI合作的最大希望就是能够带来道德伦理的复兴,我们要抱着登月的心态,手挽手一起准备迎接加速事项的到来。我最担心的是我们未经思考就采用新兴技术的逻辑——即时响应、隔离在屏幕之后、对自我价值进行无休止的比较、进行虚假的自我表现等。”
约翰·黑文斯(John C.Havens,电气和电子工程师协会全球自主和智能系统伦理倡议执行主任,延展智能委员会执行会长)写道:“在2018年,世界上大多数人都无法获取自己的数据,所以任何‘加强人类-AI’的讨论忽视了这个关键背景——谁实际控制着人们的信息和身份。不久,人们将很难识别出自主或智能系统,其算法不会以某种形式与人类数据交互。”
 巴蒂亚·弗里德曼(Batya Friedman,华盛顿大学信息学院人机交互教授)写道:“我们的科技能力已经超越、并将持续远超我们的道德能力。道德能力是我们明智地、人道地使用知识和我们所研发的工具的能力。自动化战争——当自主武器在没有人类参与的情况下杀死人类时——可能会导致不负责任地夺取人类生命,甚至不知道已经夺取了生命,其中的利害关系不亚于我们想要生活在什么样的社会中,以及该如何体现我们的人性。”
格雷格·香农(Greg Shannon,卡内基梅隆大学计算机紧急响应小组管理处首席科学家)说:“更好与更差将会呈现出4:1的态势,长期来看会呈现为2:1的比例。AI在重复性工作方面做得很好,人类不喜欢这类工作。从智能化增进健康的应用程序,到对即将发生的心脏病事件的警告,再到对缺乏服务的偏远地区以及对需要长期护理的老年人实施的自动化医疗保健服务,生活肯定会变得更好。至于自主,会存在明显的风险。AI通过创建有用意的、有智能的实体对机构施加影响,以监督、强迫甚至惩罚个人。那些知道如何使用AI的人拥有巨大的潜力,不知道如何使用或者不会使用AI的人则处于劣势。的确,未来是否幸福尚不清楚。有些人会在游戏、工作和社区中将他们的代理权交给AI,而许多人将从平淡乏味的工作中解脱出来。如果社区幸福的要素是AI目标功能的一部分,那么AI就可以促进幸福的爆发。”
科斯塔斯·亚历山德里迪斯(Kostas Alexandridis,《基于多智能体的智能系统复杂动力学研究》一书的作者)预测说:“我们的许多日常决策都将通过终端用户以最少的干预实现自动化。自主或独立将被牺牲,取而代之的是便利性。新一代公民将越来越依赖网络化的AI结构和流程。网络化的相互依赖性很可能会使我们更加容易遭受网络攻击。在数字的‘有’与‘无’之间以及在依赖技术的数字基础设施之间,也极有可能存在明显的界限。最后,还有一个问题——数字网络基础设施的所有权和控制权的‘制高点’归谁。”
奥斯卡·甘迪(Oscar Gandy,宾夕法尼亚大学传播学名誉教授)回答说:“当要求我们对人机‘协作’进行想象时,我们已经面临一个不明确的假设。我们将来面临的问题跟我们当前所面临的问题非常相似——我们依赖‘其他工具’(包括技术系统、设备和网络)来获取我们重视的东西,避免我们或许知道、或许不知道的一些情况。”
詹姆斯·斯科菲尔德·奥罗克(James Scofield O’Rourke,圣母大学管理学教授)表示:“在整个有记载的历史中,科技在很大程度上是一个中性的概念,科技的价值问题一直取决于其应用。AI和其他技术的进步将会用于怎样的目的呢?从火药到内燃机再到核裂变,都曾以有益的和破坏性的方式投入应用。假如我们可以控制AI(而不是受其控制),那么我们是否会生活得更好,答案完全取决于我们自己(或者我们的后代)。”
  西蒙·比格斯(Simon Biggs,爱丁堡大学跨学科艺术教授)说:“人工智能将起到增强人类能力的作用。问题不在于AI,而在于人类。作为一个物种,我们人类具有攻击性、竞争性和懒惰性;我们有同情心,有团体意识,(有时)也会发扬自我牺牲的精神;我们还有许多其他品性……这些都将会被放大。鉴于历史先例,人们必须要假设被放大的将是我们最糟糕的品性。在2030年,AI的常规用途有可能是用于战争和杀人,其效率远远超过我们目前的状况。在同情和相关伦理框架的约束下,我们改变自己行为的能力将因我们的机构与杀戮行为之间的脱节而降低。我们不能指望AI系统代表我们去做符合道德的事情,它们做不到,因为设计时的目的就是有效地杀人,而不是深思熟虑地去杀人。”
 马克·瑟曼(Mark Surman,莫兹拉基金会执行董事)回应说:“AI将继续把权力和财富集中于总部设在美国和中国的大型垄断企业手中,大多数人以及世界上的某些地方将会变得更加糟糕。”
 威廉·乌里奇奥(William Uricchio,麻省理工学院媒体研究教授)评论说:“人工智能及其相关应用面临三种情况——以摩尔定律的速度发展,在技术和经济精英的掌控下发展,以及在对知情公众和参与公众无益的情况下发展。公众沦为等待下一项技术的消费者集体。我们有充分的证据表明AI能够被用来增加利润,能够加强政府控制,甚至在没有公民本身参与的情况下能够对公民的‘社会信用’进行评分。就像之前的技术一样,AI的前景是不可知晓的,其部署掌握在社会手中。但是,如果没有通晓AI的公众参与,那么如何对AI进行最佳部署的决定将会落入特殊利益集团的掌控之中。这是公平部署吗?由于这个问题的答案是社会性的而不是技术性的,所以我感到悲观。解决办法在哪里?我们需要培养一批掌握AI技术的公众,这意味着要将注意力集中在教育部门和面向公众的媒体上。在开发AI技术方面,我们需要多样性,公众选出的代表以及法律和监管体制要能够跟上快速发展的步伐。在此之前,我们需要在AI的发展过程中保持谨慎并实施监督。”
  本报告来自数百名回答者的评论,其中或充满希望,或充满批判。除了以上摘取的部分评论,其余部分还有三方面的内容:1)对人类-AI进化的关注;2)提出应对AI冲击的方案;3)对2030年生活状况的预期,包括回答者对生活质量、未来的工作、卫生保健和教育所表达的积极看法。

  资料来源pewinternet.org