AlphaGo与人工智能,离统治人类还很持久

原标题:解码AI:基于数学智慧造福社会,离统治人类还很漫长

“人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工智能研究者认为,不能做、不该做。”前段时间,南京大学教授、计算机软件新技术国家重点实验室常务副主任周志华发了篇文章,观点很鲜明——严肃学者都不该去碰强人工智能。

澳门威斯尼人平台 1

澳门威斯尼人平台 2

   
这似乎给人工智能的发展当头泼了盆冷水,但也可以很好地缓解霍金和马斯克们的焦虑。他们担心的威胁,实际上是来自强人工智能的威胁。如果人工智能限定在弱人工智能,则只会是人类乖巧而顺从的助手。

澳门威斯尼人平台,在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”,对于机器来说是非常困难的问题。至今没有任何机器可以在视觉方面达到驴的水平,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,挺闹腾的,以至于对AI的误解又加深了。

澳门威斯尼人平台 3

澳门威斯尼人平台 4

本来玩个游戏而已,恁要吹成是“历史性的人机大战”,说得好像是机器挑战了人类的智能,伤了人类的自尊似的。这整个项目打着一个相当高大上的招牌,叫做“Deep
Mind”。当然,其中的技术也有一些吓人的名字,什么“神经网络”啊,“深度学习”啊……

这是马上金融人工智能研究院副院长、北京航空航天大学副教授秦曾昌在一刻talks的演讲。

    那么,强人工智能,真的是人类的潘多拉魔盒吗?

听到这些,总有一知半解的人,根据科幻电影的情节开始展望,这样厉害的技术,应该可以用来做更加“智能”的事情,然后就开始对“人类的未来”作出一些猜想,比如自动车就要实现,人的工作很快都要被机器取代,甚至Skynet)就要控制人类,云云。

秦曾昌从本质、诞生和发展对人工智能进行了剖析。他认为,人工智能是科学和数学的智慧结晶,人工智能的发展不仅会给社会带来技术革新,还会发生道德的变化,比如人类对AI的情感附加。

    研究意识,人工智能界不能承受之重

我只想在这里给这些人提个醒:还是别做科幻梦了,回到现实吧。

对于人工智能何时统治人类,秦曾昌持乐观态度,在他看来,“从我们人的自由意识到所有的机器的自由意识”还有很长的路要走,人工智能还是以造福人类为主,对其带来的负面效果,不必夸大其词。

   
周志华指出,所谓强人工智能,就是达到甚至超越人类智慧水平的人造物,它有心智和意识,能根据自己的意图开展行动,也可看作“人造智能”。

棋类是相对容易的AI问题

一个常见的外行想法,是以为AlphaGo真的具有“人类智能”,所以Google利用同样的技术,应该可以实现自动车。这些人不但大大的高估了所谓“AI”的能力,而且他们不明白,不同的“AI问题”的难度,其实有着天壤之别。

围棋是简单的,世界是复杂的。机器视觉和自动车,难度比围棋要大许多倍,根本不在一个量级。要达到准确的视觉判断能力,机器必须拥有真正的认知能力和常识,这并不是AlphaGo所用的树搜索和神经网络,就可以解决的。由于需要以极高的速度处理“模拟信号”,这根本就不是人们常用的“数字计算机”可以解决的问题。也就是说,不是写代码就可以搞定的。

很早以前,人工智能专家们就发现一个很有趣的现象,是这样:

  • 对于人来说很难,很烦的事情(复杂的计算,下棋,推理……),对于计算机来说,其实算是相对容易的事情。
  • 对于人来说很容易的事情(认人,走路,开车,打球……),对于计算机来说,却非常困难。
  • 计算机不能应付复杂的环境,只能在相对完美的环境下工作,需要精确的,离散的输入。
  • 人对环境的适应能力很高,擅长于处理模糊的,连续的,不完美的数据。

从以上几点你可以看出,棋类活动正好符合了计算机的特点,因为它总是处于一种隔离的,完美的环境,具有离散的,精确的,有限的输入。棋盘上就那么几十,几百个点,不是随便放在哪里都可以的。一人走一步,轮流着走,不能乱来。整个棋盘的信息是完全可见的,没有隐藏和缺损的信息。棋局的“解空间”虽然很大,却非常规整,有规律可循。如果完全不靠经验和技巧的话,围棋的第一步可以有361种情况,第二步有360种情况,……

这对机器是非常有利的情况,因为计算机可以有计划有步骤,兢兢业业的把各种可能出现的情况算出来,一直到许多步以后,然后从中选择最有优势的走法。所以下棋归根结底,就是一个“树搜索”问题,只不过因为规模太大,需要加入一些优化。围棋的解空间虽然大,却是一个已知数,它最多有250150种情况。AlphaGo使用所谓“神经网络”,就是为了在搜索的时候进行优化,尽早的排除不大可能取胜的情况,免得浪费计算的时间。

这种精确而死板的活动,就跟计算一个比较大的乘法算式(比如2463757 x
65389)的性质类似,只不过规模大很多。显然,人做这类事情很繁,很累,容易出错,计算机对此却任劳任怨,因为它本来就是个机器。当年“深蓝”战胜国际象棋世界冠军的时候,我就已经预测到,计算机成为围棋世界冠军是迟早的事,所以没必要玩这些虐待自己脑子的游戏了。可惜的是,挺多人仍然把精通棋艺作为一种荣耀(因为“琴棋书画剑”嘛)。很多中国人认为,中国人下围棋总是输给韩国人,是一种耻辱。现在看来这是多么可笑的事情,这就像心算乘法不如韩国人快,就觉得是耻辱一样
🙂

这是北京航空航天大学副教授秦曾昌的演讲视频

   
目前人工智能所取得进展和成功,都集中在“弱人工智能”。人们津津乐道的自动驾驶、下棋、机器视觉、专家系统等等,和强人工智能并无关系。周志华认为,也不用有关系——如果人们的目标是制造“工具”,那么考虑特定类型的智能行为就已足够,何必再去考虑独立意识?

认知是真正困难的AI问题

现在来对比一下人们生活中的琐事,就说倒水端茶吧。

澳门威斯尼人平台 5

让一个机器来给你倒水,有多难呢?意想不到的难!看看这个场景,如果你的电脑配备有摄像头,那么它怎么知道茶壶在哪里呢?要知道,茶壶的材料,颜色,形状,和角度,可以有几乎无穷多的变化。甚至有些茶壶跟哈哈镜一样,会把旁边的物体的形状都扭曲反射出来。桌上的物品附近都有各种反光和阴影,不同材料的反光特性还不一样,这些都会大幅度的影响机器对物品的识别。

为了识别物体,机器需要常识,它的头脑里必须有概念,必须知道什么样的东西才能叫做“茶壶”和“茶杯”。不要小看这一步的难度,这意味着机器必须理解基本的“拓扑结构”,什么叫做“连续的平面”,什么叫做“洞”,什么是“凹”和“凸”,什么是“里”和“外”……
另外,这机器必须能够分辨物体和阴影。它必须知道水是什么,水有什么样的运动特性,什么叫做“流动”。它必须知道“水往低处流”,然后它又必须知道什么叫“低”和“高”……
它必须知道茶杯为什么可以盛水,茶壶的嘴在哪里,把手在哪里,怎样才能拿起茶壶。如果一眼没有看见茶壶的把手,那它在哪里?茶壶的哪一面是“上面”,要怎样才可以把水从茶壶的嘴里倒出来,而不是从盖子上面泼出来?什么是裂掉的茶杯,它为什么会漏水,什么是缺口的茶杯,它为什么仍然可以盛水而不漏?干净的茶杯是什么样子的,什么是脏的茶杯,什么是茶垢,为什么茶垢不算是脏东西?如何控制水的流速和落点,什么叫做“水溅出来了”,要怎么倒水才不会溅出来?……

你也许没有想到,倒茶这么简单的事情,需要用到如此多的常识。所有这些变数加在一起,其实远远的大于围棋棋局的数量,人却可以不费力的完成。这能力,真是应该让人自己都吓一跳,然而人却对此不以为然,称之为“琐事”!因为其他人都可以做这样的事情,甚至猴子都可以,怎么能显得出我很了不起呢?人的自尊和虚荣,再一次的蒙蔽了他自己。他没有意识到,这其实是非常宝贵,让机器难以匹敌的能力。他说:“机器经过大量的学习,总有一天会做到的。看我们有神经网络呢,还有深度学习!”

解码AI:基于数学智慧造福社会

    而且,从实现难度上来讲,也没法考虑。

机器学习是什么

有些人喜欢拿“机器学习”或者“深度学习”来吓唬人,以为出现了“学习”两个字,就可以化腐朽为神奇。而其实所谓机器学习,跟人类的学习,完全是两回事。机器的“学习能力”,并没有比石头高出很多,因为机器学习说白了,只不过是通过大量的数据,统计拟合出某些函数的参数。

澳门威斯尼人平台 6

比如,你采集到一些二维数据点。你猜测它们符合一个简单的函数 y =
ax3 + bx2 + cx + d,但不知道a, b,
c和d该是多少。于是你就利用所谓“机器学习”(也就是数学统计),推断出参数a,
b,
c和d的值,使得采集到的数据尽可能的靠近这函数的曲线。可是这函数是怎么来的呢?终究还是人想出来的。机器无论如何也跳不出y
= ax3 + bx2 + cx +
d这个框子。如果数据不符合这个范式,还是只有靠人,才能找到更加符合数据特性的函数。

所谓神经网络,其实也是一个函数,它在本质上跟y = ax3 +
bx2 + cx +
d并没有不同,只不过输入的参数多一些,逻辑复杂一些。“神经网络”跟神经,其实完全没有关系,却偏喜欢说是受到了神经元的启发而来的。神经网络是一个非常聪明的广告词,它不知道迷惑了多少人。因为有“神经”两个字在里面,很多人以为它会让机器具有智能,而其实这些就是统计学家们斯通见惯的事情:拟合一个函数。你可以拟合出很好的函数,然而这跟智能没什么关系。

离统治人类还很漫长

   
“要实现强人工智能,得先弄清楚人的智能是怎么回事。但研究人类智能的本质并不是人工智能学科的主要任务。”北京航空航天大学自动化学院副教授秦曾昌告诉科技日报记者,了解人的意识、情感是一个终极科学问题,确实很吸引人,但目前人工智能学界可能担不起解决这一问题的重任。

AlphaGo并不是人工智能历史性的突破

这次AlphaGo战胜了围棋冠军,跟之前IBM的“深蓝”电脑战胜国际象棋世界冠军,意义其实差不多。能够写出程序,在这些事情上打败世界冠军,的确是一个进步,它肯定会对某些特定的应用带来改善。然而,这并不说明AI取得了革命性的进步,更不能表明电脑具有了真正的,通用的智能。恰恰相反,电脑能够在棋类游戏中战胜人类,正好说明下棋这种活动,其实并不需要很多的智能。从事棋类活动的能力,并不足以衡量人的智力。

著名的认知科学家Douglas
Hofstadter(《GEB》的作者),早就指出AI领域的那些热门话题,比如电脑下棋,跟真正意义上的人类智能,几乎完全不搭边。绝大部分人其实不明白思考和智能到底是什么。大部分所谓AI专家,对人脑的工作原理所知甚少,甚至完全不关心。

AlphaGo所用的技术,也许能够用于其它同类的游戏,然而它并不能作为解决现实问题的通用方法。特别是,这种技术不可能对自动车的发展带来突破。自动车如果只比开车技术很差的人强一点,是不可接受的。它必须要近乎完美的工作,才有可能被人接受,然而这就要求它必须具有人类级别的视觉认知能力。比如,它必须能够察觉到前面车上绑了个家具,没绑稳,快要掉下来了,赶快换车道,超过它。可惜的是,自动车的“眼睛”里看到的,只是一个个的立方块,它几乎完全不理解身边到底发生着什么,它只是在跟随和避让一些线条和方块……
我们多希望马路都是游戏一样简单,清晰,完美,没有意外的,可惜它不是那样的。每一个细节都可能关系到人的生死,这就是现实世界。

<a
href=”
src=”;

为AlphaGo热血沸腾的人们,别再沉迷于自动车和Skynet之类的幻想了。看清AI和“神经网络”的实质,用它们来做点有用的东西就可以,没必要对实现“人类智能”抱太大的希望。

秦曾昌

   
当然,不少生物学、神经科学等相关学科的研究人员,正在上下求索,试图揭开大脑的奥秘。在秦曾昌看来,强人工智能实现之路极其漫长,可能得先从模拟昆虫、鱼和哺乳动物的大脑开始,再一步一步进阶到对人脑的模拟。

大家好,我是一刻talks讲者秦曾昌。我应该是一刻talks的(第)930多名讲者,所以我也不免其俗,跟大家讲一下我对人工智能的一些理解。

   
“强人工智能还太远了。”秦曾昌说,“且不说我们现在对神经、大脑了解甚少,就算哪一天我们对它完全了解透彻,也未必就能复制出强人工智能。”

首先我的角度跟大家不一样的是,我觉得人工智能是数学的智慧。

   
中山大学人际互联实验室主任翟振明更是认为,意识不是你想有,想有就能有。

比如说我们想象未来的时候,有一个漂亮的女孩说,我想问我的智能助手,我想找一个什么样的男朋友。

   
“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”这是翟振明提出的“人工智能逆反图灵判据”。他认为,没进入量子力学之前,所有人造机器都不会有真正的意识。

她第一次问,说我想要一个又帅又有车的,你会发现机器人给的是这样一个答案,又帅又有车,这是象棋。

    研究强人工智能,不妨提前制定规范

说不,我要有钱又有房的,那给出的结果是什么呢?大家看到,银行,果然有钱又有房。

    前路确实难,但它是否真的不可实现?

不,我觉得好像说的都不对,那我说我需要一个有责任感和正义感的,机器给出的答案是奥特曼。

   
要继续讨论这一问题,又要回到强人工智能的定义。实际上,学界对何为强人工智能并没有统一看法。

这样的话我们想,不对,我需要的是又帅又有车,有钱又有房,同时有正义感和责任感,这样的人是什么呢?大家想象,实际上是在银行里面下象棋的奥特曼。

   
北京邮电大学人机交互与认知工程实验室主任刘伟认为,人机融合的智能是强人工智能,而它在未来必然会实现。

想跟大家讲的是说,你会发现机器对我们人的意图的理解,和我们人对这件事情的理解,往往有很大的区别,但问题在哪里?

   
人机融合,是让人的智能和机器的智能协同发挥作用。人有知识,机器长于采集数据;人有经验和常识,机器则长于进行公理推理;人有直觉,而机器长于逻辑。当人和机器有了足够默契,人能理解机器如何看待世界,而机器也能熟悉人的所思所想,未来的机器也可以有一些特殊特定的意向性(弥补人类认知的不足),而当两者成为搭档甚至知己时,强人工智能也就到来。

我们想象人实际上在大脑里面,会有一个Conceptual
space,所谓的概念空间,我们所描述的越多,信息越多的时候,也许那个概念越清晰,但是对于机器来讲,你会发现这件事儿不是这样的,它是相反的。

   
周志华认为,强人工智能的造物具有独立意识,它未必会甘心为人类服务,若强人工智能出现,人类将会面临巨大生存危机。刘伟则指出,如果强人工智能是人机融合的智能,那么做决策的永远是人,这就能巧妙解决悖论,也避免可能的“替代危机”。

为什么这样?可能我们需要从最底层了解目前的人工智能是什么样的状态。

   
“这件事情不是不能做,但我觉得需要特别谨慎。也就是说,当我们离揭开意识和智能的谜底已经很近的时候,我们确实需要慎重对待接下来发展的每一步。”秦曾昌强调。

我希望给大家讲的大概主要是四个方向。如何理解什么是智能?如何用人工去创造智能?同时人工智能会给社会带来什么?最后是所有人很关心的问题,人工智能什么时候统治人类?

    那么,强人工智能的“盒子”需要一直捂住吗?

相关文章