第三章 人机大战:AI真的会挑战人类?(第5/15页)

一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。

但少数评论者依然认为,即便是弱人工智能,如果管理、应对不善,也会带来致命的风险。比如,发生在2010年5月6日的美股市场的“闪跌”(Flash Crash)事件,其起因就混合了人类交易员的操作失误和自动交易算法的内在风险,而当时已经大量存在的,由计算机程序控制的自动高频交易,则被一些研究者认为是放大市场错误,并最终造成股市瞬时暴跌的帮凶。除了金融市场外,能源领域特别是核能领域里使用的弱人工智能算法如果设计和监管不当,也有可能为人类带来灾难。类似地,自动驾驶汽车上使用的人工智能算法显然也存在威胁人类生命安全的隐患。

但无论如何,弱人工智能属于相对容易控制和管理的计算机程序。总体来说,弱人工智能并不比我们使用的其他新技术更为危险。设想一下,人类在用电时、开车时或者乘坐飞机时,不也要面对客观存在的风险因素吗?对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。一台可以自动控制汽车行驶的计算机和一台可以将重物吊起的起重机,二者都需要严格的质量控制流程与安全监管策略。自动驾驶程序中的错误可能导致车祸,起重机结构设计上的错误也可能导致起重机的倾覆,二者都会造成人员伤亡。

也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是前面我们详细讨论过的图灵测试。但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能 力;

2)知识表示的能力,包括常识性知识的表示能力;

3)规划能力;

4)学习能力;

5)使用自然语言进行交流沟通的能力;

6)将上述能力整合起来实现既定目标的能力。63

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。

有关意识的争议性话题极其复杂。本质上,这首先会牵扯出“人类的意识到底是什么”这样的难解问题,从而让讨论变得无的放矢。以人类今天对感情、自我认知、记忆、态度等概念的理解,类似的讨论会牵涉哲学、伦理学、人类学、社会学、神经科学、计算机科学等方方面面,短期内还看不出有完美解决这一问题的可能。

也就是说,一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。