您的位置 首页 > 数码极客

【我的机器人诺伊百度云】从人工智能到后人类:再度更新的AlphaGo没有改变什么?

最近,开发风靡世界围棋冠军的AI“Alpha GO”的谷歌公司DeepMind人工智能团队在《自然》 (Nature)杂志上发表论文,介绍了新开发的“ALPA高原”。

在AlphaGo横扫围棋大师们之后,关于人工智能发展到了什么阶段,对人类未来会产生何种影响的讨论便不绝如缕。提醒人们注意人工智能的可能风险,与乐观看待人工智能的观点,也不断在公共领域中交锋。此次新AI的出世,再一次引发了人们对人工智能问题的讨论。就此话题,界面文化(微信公众号:Booksandfun)采访了就职于华南师范大学哲学研究所的博士后研究员夏永红,请他分享了关于人工智能、心灵哲学,以及后人类时代社会图景的见解。

访谈:

新AlphaGo是技术飞跃吗?

界面文化:DeepMind的团队这次宣布使用了新的技术来构建AlphaGo的学习机制,可以简单谈谈这些技术吗?

夏永红:老版本的AlphaGo有三种关键性的技术:监督式学习、强化学习和树搜索。监督式学习,顾名思义,也就是需要人类的后天知识植入和训练。根据监督式学习,可以用人类的海量棋谱训练出一个策略网络,让AlphaGo掌握人类棋手的走子定式。而强化学习不需要人类的知识植入,它可以根据之前训练出来的策略网络不断地自我对弈。最终,这些自我对弈生成的数据会训练出一个新的策略网络,用来对整个盘面进行评估。而树搜索则是对随机生成的走法进行推演,最终确定赢面最大的走法。

传统AI一般用搜索算法来设计棋类游戏程序,但这种技术在处理像围棋这种复杂度比较高的棋类游戏的时候,会面临一个组合爆炸问题,也就是计算复杂度太高,搜索的宽度和广度太大,超出既有计算机的计算能力。实际上,如果单纯采用搜索算法,AI攻克围棋是没有什么指望的。Deepmind的创新就在于通过神经网络,大大减少了搜索的广度和深度。

新版本的AlphaGo一个突破性的地方在于,它不再需要原来的监督式学习训练的策略网络了,而是直接通过强化学习来自我学习围棋的走子方式。这是一个很大的进步。可以说,DeepMind比较重要的一个贡献,就是为强化学习的复兴廓清了道路。强化学习模型无需学习显性的知识,只需要通过大量的实践,根据与环境的交互中获得的奖励反馈,调整神经网络的行为策略的趋势,就可以逐渐获得特定的技能。这非常类似于控制论中的反馈机制。实际上,我们人类包括生物的绝大多数技能和经验知识,都是通过这种机制不断地与环境互动,并通过某种机制来不断纠错而获得的。

强化学习中一个非常重要的数学工具就是动态规划,它的创始人是贝尔曼。他有个学生叫斯图亚特·德雷福斯,他的哥哥叫休伯特·德雷福斯,是世界知名的现象学家。他们兄弟俩合作写了很多批判传统人工智能的作品。总的来讲,他们认为当时AI的主导进路,都是靠某种先天的规则和知识,这是根本不灵的。他们几乎把所有的人工智能进路都批判了一番,但却对强化学习青睐有加,因为这个进路的理念和存在主义现象学的哲学很兼容,即认为智能不是来自于某种先天的规则和知识,而是通过与环境的互动和反馈来逐渐自我学习。存在主义现象学认为,我们的存在方式就是在世界中存在。人类与世界的相遇方式不是通过某种先天的规则和程序,而是在与世界的互动中逐渐获得我们的技能和经验。比如,我学习游泳、骑自行车,知道一些抽象的规则是没有多少用的,我必须在大脑、身体与环境的交互中,通过外部反馈不断调整自己的行为,最终才能学习到这些技能。把这种类似的机制应用到围棋对弈中,就差不多是现在的AlphaGo了。所以,德雷福斯对人工智能的判断大致是准确的,他可以瞑目了。当然,如果德雷福斯还在世,还能写,他可能还会继续批判AlphaGo的,毕竟他就是以此为使命的。

界面文化:所以这次的新AlphaGo确实有不少技术上的提升。在之前一篇文章中你提到,学习人类棋谱的AlphaGo并不是一个强人工智能。这次的新技术会让你改变这一判断吗?

夏永红​:我的判断不变。DeepMind的技术是一个突破性的进展,但这种突破性也只是相对的,要说是划时代、石破天惊,那就太过了。把强化学习应用到棋类游戏中,DeepMind并不是最早的,在1990年代的时候,就有工程师用它来设计十五字棋程序了,并且达到了人类冠军水平。当然,十五子棋和围棋的计算复杂度是没法比的,所以DeepMind的成就仍然非常有突破性。

AlphaGo之所以还不是强人工智能,是因为它仍然是一个专用系统,而不是通用系统。也就是说,它只能被用来下棋,但不会采访,因为这需要设计问题,需要与人交互,需要理解对话,这些都需要非常庞大的背景知识和常识,需要强大的自然语言理解的能力,现在的任何一种AI离做到这一点都还差得很远。

此外,强化学习也并不就是通往强人工智能的金光大道。因为任何一个强化学习系统,都需要编程者必须使用他们的知识给系统植入一个强化函数,以规定每个可能情境下的每个可能行动的奖励反馈。虽然DeepMind在他们刚发表论文中认为这是一个没有人类知识(without human knowledge)的系统,但那只是说不需要围棋方面的领域知识,并不真的就不需要人类的知识。

实际上,我觉得要实现强人工智能,起码就现在已经出现的技术路径来看,是没有什么指望的。人工智能仍然面临着一些非常深层次的问题,这些问题不仅仅技术性的,而是非常有哲学色彩,比如符号奠基问题、框架问题、常识问题,等等。很多人工智能专家研究到了最后,像麦卡锡(John McCarthy)、明斯基(Marvin Minsky)等等,都不得不来讨论一些哲学问题了。就现在国外的情况来看,人工智能与哲学的联系也非常紧密,哲学系毕业的博士有的最后到了计算机系做教授,计算机系的教授也经常在哲学的权威期刊上发文。我们知道,当一门科学介入越来越多的哲学讨论的时候,往往意味着这门科学要么没有成熟,要么面临着危机。所以我们现在不用担心,或者说,不用过于期待强人工智能的出现。当然,这对人类而言可能是一种幸运,专注于专用系统可能才是最好的。

人工智能与“后人类”的未来图景

界面文化:聚焦专用系统,似乎意味着「有一些东西是人工智能不可以实现的」。有关人工智能跟人到底有什么不同,哲学领域有不少讨论,比如心灵哲学的一些流派就对人工智能是否能实现人类心灵很有怀疑,他们用“僵尸”(zombie)来看待一个有人类行为但没有意识体验的行为者,人工智能能够实现“心灵”吗?

夏永红:这里涉及到了心灵哲学中讨论得比较多的意识问题。意识是什么?可以说是一个众说纷纭的问题。塞尔认为这就是一种类似于消化的自然生物现象,查尔莫斯认为这是一种高宽带的信息流,彭罗斯认为是一种量子相干现象,麦金认为是人类无法理解的神秘但自然的现象……

当然,意识本身也需要区分,按照布洛克(N. Block)的区分,意识分为存取意识(access consciousness)和现象意识(phenomenal consciousness),前者可以理解为信息,后者可以理解为我们的主观意识体验,比如我看到一朵红色的花的时候,这种鲜明的体验是难以用任何信息内容传达的。我的这种体验就是现象意识。人工智能的目标从来都是模拟人类的存取意识,但这个目标现在都还差得很远,更不用说现象意识了,主流的研究根本还没有提上议程。因为意识的机制是什么,现在谁也说不清楚,遑论怎么去模拟它了。所以有的人在反驳强人工智能的时候,会祭出这个终极杀手锏:人工智能没有现象意识。

现在也有一些比较科幻的讨论,比如机器人专家莫拉维克、谷歌的工程总监库茨韦尔,他们主张人类心灵可以上传到计算机中,脱离肉体的束缚,获得永生。查尔莫斯最近几年也从哲学上讨论过这个问题,他认为心灵上传是可能的,我们要做好准备。

界面文化:尽管人工智能实现人的心灵似乎还相距甚远,但在今天,人工智能和人的结合——在日常生活中越来越多以人工智能辅助我们——似乎越来越逼近。不少学者都非常担忧这种结合导致人的本真性的丧失——人变得不像人了。但也有很多人非常期待人的「赛博格化」,我们该如何看待这个问题?

夏永红:像人文主义与后人类主义之间的争执,确实也与人工智能有一些关联。比如我们前面说过莫拉维克提出了心灵上传的设想,但莫拉维克的美梦在人文学者海尔斯那里却成为了噩梦。她于是写了一本书来回应他,这本书就叫《我们如何成为后人类》,这是一本后人类主义的经典。海尔斯认为莫拉维克在信息与物质、心灵与身体之间采取了一种二元论的立场,这实际上可以追溯到笛卡尔的二元论。海尔斯的一个基本判断是,莫拉维克的心灵上传的设想,非但没有和人文主义相悖,相反,它可以说是人文主义的完成。

莫拉维克之后有很多人想通过心灵上传、人类增强这样的手段来实现人类的永生,这些人被称为超人类主义者。后人类主义对他们的一个主要批评也和海尔斯差不多,也就是他们把人文主义中的那种自律、自由的主体观念扩展到了可怕的程度,以至于完全忽视了我们是一种“具身化”的存在——从诞生之时就与我们的周围世界和文化环境存在着各种各样复杂的牵连。而把人类从各种具身性——具体的物质和文化环境中抽离出来,以为这样人类心灵还能保持原样,还能永生,可以说正是这种逻辑的一个延伸。所以什么是人性(humanity),实际上是很值得讨论的。从后人类主义的立场来看,人工智能、人类增强这些技术如果实现,可能恰恰是人文主义的完成,或者说,是“人性”的真正胜利。

很多超人类主义者期待着奇点(机器智能超过人类智能之时)的发生,很多人文主义者恐惧奇点的发生,但对于后人类主义者来说,奇点早就发生了。实际上,技术和人类的结合,从人类诞生开始就发生了。我们知道关于人类的一个比较流行的定义就是,人是会制造和使用工具的动物。很多认知考古学的研究证明了,我们的认知模式,往往是被各种技术手段所塑造的。我们一直用各种工具来强化自身,我们对身体的使用往往是和对各种技术工具的使用糅合在一起的,也就是说,我们已经把我们身体图式延展到了世界之中。我们不是一个孤独沉思的物种,而是通过各种符号标记、人工制品来进行思考,词语、键盘、手机都是我们思考的媒介。哲学家诺伊有过一个很俏皮但也很有启发性的说法:“我们就是奇点。”

所以,如果我们对人性进行考古挖掘,我们可能会发现,它恰恰是一种技术性。我们并不是快要变成赛博格了,而是我们从一开始就是赛博格。

真正值得我们担忧的,是什么?

界面文化:这是不是可以理解为,想象中真正超出人类的人工智能并不会如马斯克(美国企业家、著名的人工智能威胁论者)等人担忧的那样迅速出现?真正值得我们担忧的是什么?

夏永红:人类从来都是与技术协同演化的,所以我们并不用担心技术会泯灭人性。同时,技术也不可能会如同一个弗兰肯斯坦式的怪物那样失控,因为技术不是完全自主的,而是嵌入到一个社会—空间之中的。也就是说,我们怎么应用技术,设计技术,其实是和各种各样的社会-政治问题相关的。马克思区分过机器本身和机器的资本主义应用,他认为应该为技术带来的负面后果负责的是机器的资本主义应用,而不是机器本身。当然,马克思的这个说法有些绝对,因为并不存在什么机器本身,机器内部就嵌入了各种社会—政治的因素。比如,云计算这种技术,我们现在都觉得它是一个好东西,我们可以方便地调用云端的计算和存储资源,但是自由软件的创始人斯托曼就认为它是一个坏东西,因为云计算意味着我们把很多数据都交给了掌握云端的大公司,意味着我们放弃了自己的数据主权,这一切都是和自由的理念相悖的。

我觉得现在的人工智能时代最需要担心的问题,就是我们的一切衣食住行,甚至思想,都有被大公司掌控的危险。现在主流的人工智能技术,还是基于大数据训练的神经网络,其中很多的数据都是来自于谷歌、脸书、百度、亚马逊、阿里巴巴这些大公司的海量用户。我们给这些公司贡献了训练用的数据,但是这些数据的所有权却不归我们所有。相反,他们还用基于这些数据训练出来的产品,来对我们进行更精准的广告投放和产品营销。我们尤其需要警惕的是把人工智能应用到媒体宣传中,这将会让我们的思想更轻易地被这些大机构所支配。如果我们不发展出与他们对抗的社会力量,我们最后可能会失去选择的自主权和思想的自由。

界面文化:谈到工业革命中机器的类比,我们讨论人工智能技术进步时,往往会将之和之前的两次工业革命,信息革命相比较。很多人认为,之前的技术革命也被预言会造成失业或者技术统治人类,然而结果并不是如此。人工智能革命和这些技术进步相比,也会是同样的情况吗?

夏永红​:这一轮技术革命可能会有些不一样的地方。前两轮技术革命,都是将越来越多的人吸纳到工业生产领域,但人工智能革命可能会将越来越多的人从工业领域排除出去。这并不意味着这些人就将成为无用的人,他们可能转而从事服务业。这是一个正在不断扩张的领域。

当然,未来是什么情况,现在还很难预测。我们也要考虑到这样一种可能,未来确实有一部分人会永久性失业,他们要么是因为拒绝工作,要么是因为不满足条件无法工作,这部分人的数量可能会远远超出历史上的任何时候。那么,如何给这部分人分配剩余产品呢?我的一个朋友认为,应该采取一种基本收入制度,向每一个社会成员无条件地分配基本收入,保障其最基本的生活。让不劳动者也得食。但是,到时也可能会出现一种非常危险的思潮,认为这些人没有参与劳动,是垃圾人口。那时,我们可能需要修改我们对劳动的定义,劳动不再意味着工具性的操作,只要生产了数据,我就是在劳动。人工智能离不开数据,而这些数据往往是无数用户共同生产出来的。人工智能归根结底是社会的普遍智能。所以即便是一个宅男,只要他在网上留下数据了,他可能就潜在地对整个社会有了一个贡献。所以到时候即便一个人完全不劳动,也不意味着他是垃圾人口。这个论证是只我的一个构想,它也许成立也许不成立。无论如何,人工智能时代的种种前所未有的状况,不仅在政治上是一种挑战,在思想上更是一种挑战。怎么去回应它们,可能需要今后几代人的努力。

……………………………………

欢迎你来微博找我们,请点这里。

也可以关注我们的微信公众号“界面文化”【ID:BooksAndFun】

关于作者: admin

无忧经验小编鲁达,内容侵删请Email至wohenlihai#qq.com(#改为@)

热门推荐