人工智能发展史①

0

 欧盟理事会

 人工智能(AI)是一门拥有60年历史的年轻学科,这是一套旨在模仿人类认知能力的科学、理论和技术(涵盖数理逻辑、统计学、概率论、计算神经生物学、计算机科学等学科)。第二次世界大战结束后,人工智能发展开始起步,它同计算机的发展密切相关,并使计算机能够执行越来越复杂的任务,而这些任务以前只能由人类来完成。

然而,这种自动化与严格意义上的人类智能相比仍相去甚远,因此这一名称受到了一些专家的批评。他们研究的最终阶段(一个“强大的”人工智能,即能够以完全自主的方式把不同的专业问题情境化)绝对是当前人工智能技术水平无法与之相提并论的。只在科幻小说中出现的那种“强大的”人工智能需要基础研究的不断突破(不仅仅是性能的提升),才能将世界作为整体来模拟。

不过,自2010年以来,这门学科经历了新一轮的繁荣时期,这主要归功于计算机算力的大幅提高和海量数据的获取。

前景、更迭和担忧,有时甚至是幻想,使对这一现象的客观理解变得复杂。了解简要的历史背景有助于明确这门学科的定位,并为当前的讨论提供信息。

1940—1960年: 人工智能诞生于控制论之后

1940—1960年这一阶段的显著特点是,技术发展(第二次世界大战成为技术发展的“加速器”)与探索如何将机器同有机生物的功能联系在一起的愿望相结合。控制论的创立者诺伯特·维纳(Norbert Wiener)的目标是将数学理论、电子学和自动化统一为“一整套动物与机器的控制和通讯理论”。早前,沃伦·麦库洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)在1943年就建立了第一个生物神经元(形式神经元)的数学和计算机模型。

1950 年初,约翰·冯·诺依曼(John Von Neumann)和艾伦·图灵(Alan Turing)虽然没有创造出“人工智能”这个术语,但他们却是人工智能技术背后的奠基人,他们让计算机过渡到19 世纪的十进制(处理 0 到 9 的数值),后又采取了二进制(运用布尔代数处理两个变量0或1)。因此,这两位研究者正式确立了当代计算机的架构,并证明其为一种通用机器,能够执行所编程的内容。另一方面,图灵在他1950年发表的著名文章《计算机器与智能》中首次提出了机器可能具有智能的问题,并描述了一种“模仿游戏”,即人类应该能够在电传对话中辨别出他是在与人交谈还是在与机器交谈。无论这篇文章引起哪些争议(许多专家认为“图灵测试”似乎并不合格),但它却经常被引述为质疑人类与机器之间界限的源头。

“人工智能”这一术语是由麻省理工学院的约翰·麦卡锡(John McCarthy)提出的,卡内基·梅隆大学的马文·明斯基(Marvin Minsky)则将其定义为“构建计算机程序,使其能够执行当前由人类完成的更为令人满意的任务”,因为这些任务需要高级的智力处理,如:感知学习、记忆组织和批判性推理。1956年在达特茅斯学院举行的“达特茅斯会议”标志着“人工智能”这门学科的诞生。有趣的是,引人瞩目的巨大成功并不出自这次大会,而是在一个研讨会中。包括麦卡锡和明斯基在内,只有六个人自始至终参与了这项讨论工作(主要依托于形式逻辑的发展)。

尽管技术仍然充满魅力和前景(参见加利福尼亚律师协会成员里德C·劳勒1963年发表的题为《计算机能做什么:对司法裁决的分析和预测》的文章),但技术的普及率却在1960年代初回落。当时的机器内存很小,很难使用计算机语言。不过,当时已经奠定了一些至今仍然存在的基础,如解决问题的“解树”。早在1956年,信息处理语言IPL就已经可以编写旨在证明数学定理的LTM(逻辑理论机)程序。

经济学家兼社会学家赫伯特·西蒙(Herbert Simon)曾在1957年预言,人工智能将在未来10年内在国际象棋领域成功击败人类,但人工智能随后便遭遇了第一个寒冬。然而西蒙的预言却在30年后真的实现了…… 

1980—1990年: 专家系统

1968年,斯坦利·库布里克(Stanley Kubrick)执导了电影《2001太空漫游》,在这部电影中,一台哈尔9000型计算机(与IBM电脑仅差一个字母)总结了人工智能带来的所有伦理问题:它显示出一种高度的复杂性,是人类的福祉还是祸患?这部电影自然不会在科学领域产生影响,但它将有助于普及这一主题,就像科幻小说作家菲利普·迪克(Philip K. Dick)一样永远不会停止思考:机器在某一天是否会拥有像人类一样的情感?

随着1970年底第一代微处理器的出现,人工智能再次腾飞,步入了专家系统的黄金时代。

实际上,这条道路是由1965 年麻省理工学院的DENDRAL系统(专门研究分子化学的专家系统)和1972年斯坦福大学的MYCIN系统(专门研究血液疾病和处方药的专家系统)共同开辟的。这些专家系统基于“推理引擎”运行,该引擎被编程为人类推理的逻辑镜像。只要输入数据,引擎就能提供高水平的专业答案。

这些前景都预示着人工智能的大规模发展,但这股热潮在1980年代末至1990 年代初再次退去。这些知识的编程实际上需要花费大量精力,而且从200到300 条编码规则中,存在着一种“黑箱”效应,人们不清楚机器是如何推理的。因此,开发和维护变得极为困难,最重要的是,存在更快且在其他方面不太复杂和更便宜的方法。回顾1990年代,人工智能一词几乎成为禁忌,更温和的变形词进入了大学语言体系,如 “高级计算”。

1997年5月,“深蓝”(IBM 的专家系统)在与加里·卡斯帕罗夫(Garry Kasparov)的国际象棋比赛中取得了成功,这意味着赫伯特·西蒙(Herbert Simon)1957 年的预言在30年后成为现实,但这并没有在融资和发展方面为这种形式的人工智能提供支持。“深蓝”的操作基于系统化的蛮力算法,对所有可能的棋步进行评估和加权。人类的失败在历史上仍具有非常重要的象征意义,但实际上“深蓝”能够处理的范围也非常有限(国际象棋游戏规则),离模拟世界复杂性的能力还相去甚远。

2010年以来:基于海量数据和新计算能力的新绽放

有两个因素可以解释为什么该学科在2010年前后出现了新的繁荣。

首先是海量数据的获取。例如,以前要使用图像分类和猫识别算法就必须自行采样。如今,只需在谷歌上搜索一下,就能找到数百万个数据。

其次,人们发现非常高效的计算机显卡处理器可以提高学习算法的计算。这是个反反复复的过程,在2010年之前可能需要数周时间才能处理完整个样本。这些显卡的计算能力(每秒可处理超1万亿笔交易)使我们以有限的经济成本(每张显卡不到1000欧元)取得了相当大的进步。

这种新技术设备带来了一些重大公共成就,并增加了投资。2011年,IBM的人工智能“沃森”(Watson)在《危险边缘》智力问答中击败两个冠军!2012 年,Google X(谷歌搜索实验室)成功让人工智能识别视频中的猫。最后一项任务使用了超过1.6万个处理器,但其潜力是巨大的:机器学会了辨别事物。2016年,阿尔法狗(谷歌专门从事围棋游戏的人工智能)击败欧洲冠军(樊麾)和世界冠军(李世石),然后再战胜它本身(阿尔法狗零)。围棋的组合性比国际象棋更重要(其走法超过宇宙中的粒子数量)。

这一奇迹从何而来?从专家系统转化而来的完整范式。这种方式称之为归纳法:不再像专家系统那样对规则进行编码,而是让计算机在大量数据的基础上,通过关联和分类独自发现规则。

在所有机器学习的技术中,深度学习似乎是最有前景的应用(包括语音、图像识别)。2003年,杰弗里·辛顿(多伦多大学)、约书亚·本吉奥(蒙特利尔大学)和杨立昆(纽约大学)决定启动一项研究计划,以促进神经网络的更新。在多伦多大学辛顿实验室的帮助下,微软、谷歌和IBM同时进行的实验表明,这种学习方式成功地将语音识别的错误率降低了一半。辛顿的图像识别团队也取得了类似的成果。

一夜之间,大多数研究团队都转向了这项能够带来不菲收益的技术。这种学习方式也使文本识别技术取得了长足进步,但根据杨立昆等专家的说法,要想开发出文本理解系统,还有很长的路要走。“对话代理”较好地阐述了这一挑战:我们的智能手机已经知道如何转录指令,但无法完全将其情境化并分析我们的意图。

(本文系中国发展出版社编辑常昌盛翻译)

评论被关闭。