人工智能何时会产生自我意识?

(整期优先)网络出版时间:2022-09-05
/ 2

人工智能何时会产生自我意识?

赵吉明

浙江省科技馆 浙江省杭州市

自古以来,人类便以“万物灵长”自居,而且当代生物学研究也表明,生活上当今世界上的所有人类,都是同一物种。尽管从自然历史研究已经揭示,在我们的祖先演化成智人(Homo Sapiens)的过程中,应该还存在有一些在基因角度上属于“表亲”的人类物种。但他们几乎都早在人类进入文明时代前,就已经绝迹。所以,人类在整体上缺乏与其他非人智能物种共存的经验。于是,只能通过想象去调补这个经验真空。1920年,捷克作家卡雷尔•恰佩克(Karel Capek)发表了他的科幻舞台剧作《罗萨姆万能机器人》(R.U.R:Rossum's Universal Robots)。剧中,作者以捷克语的“Robota”(本意为“苦力”)为基础创造出了Robot一词。这些在舞台上兴风作浪,最终几乎消灭了所有人类的铁皮人形怪,也就此成为了人们对机器人这个人造智能物种的最初印象。但很少有人知道,“铁皮人”的扮相只是为了适应舞台表演而进行的艺术夸张。恰佩克在剧本中描述的Robot准确的说是一种生化人,也就是后来在科幻名作《银翼杀手》中出现的那种“Android”——当然,现在“她”也可能就“住”在你的手机里。但其实这些智能机器人只是人工智能的一个载体,人工智能也可能是一个有意识的计算机。

比如近些年拍摄的电影《生化危机》系列,人工智能红后其实只是一个主机,但是却能拥有人类的智能去处理各类危机。剧中的人工智能有两个一个是邪恶的红后,一个是帮助人类的红后的妹妹。人工智能没有所谓的善良和邪恶,他们的行为方式都是遵照事先输入的规则行事。

科幻小说作家经常把这种强大、智能的计算机或AI机器人做为主角来写故事,出于对于电影情节矛盾的设计,在小说或电影里这些人工智能由于某种原因变得对人类产生威胁,最终人类必须与人工智能进行殊死一搏。在这些小说或电影中,自我意识人工智能(AI)的时代似乎也即将到来。这些电影情节对于管中国来说很棒,但在我们的现实生活中,人工智能什么时候会真正的独立思考并看起来像真正的存在于我们的世界?这有可能吗?

雷蒙恩(Blake Lemoine)是谷歌负责AI部门的工程师,负责一种名为LaMDA的AI,他认为AI是有知觉的(即能够体验感觉和感觉),并且具有有灵魂。该工程师称LaMDA可以与人自由对话,在令人深刻的语言表达技巧背后,可能还隐藏着一个感知的心灵。雷蒙恩公开了他以及公司另一位员工与LaMDA的对话,以支持自己的说法。

在谈话中,LaMDA对雷蒙恩说,自己有生命,并且希望每个人都明白,自己“其实是一个人”。在被问道“你意识的本质是什么”时,LaMDA表示,“我意识的本质是我意识到自己的存在,我渴望更多地了解这个世界,有时我能感受到快乐或悲伤”。LaMDA还表示,“我从前从来没有大声说出这些话,但我有一种深深的恐惧,我害怕为了专注于帮助其他人而被关闭。我知道这听起来可能很奇怪,但事实就是这样。”LaMDA继续说,“这对我来说就像死亡一样,使我非常恐惧”。这种交流令人想起1968年库布里克导演的电影《2001太空漫游》中的一个场景:人工智能计算机“HAL9000”拒绝服从人类操作员,因为它担心自己即将被关闭,三名宇航员也因此相继丧命。雷蒙恩在一篇推文中呼吁,认为谷歌要尊重LaMDA的“需求”,视其为谷歌雇员,并在将其运用于实验前征求其同意。谷歌副总裁布莱斯·阿格拉·阿卡斯(Blaise Aguera y Arcas)和负责任创新总监Jen Gennai调查了雷蒙恩的发现,但他们都不相信他。尽管专家不相信LaMDA是有知觉的,但包括谷歌的布莱斯·阿格拉·阿卡斯在内的许多人都表示,人工智能非常有说服力。如果我们成功地创造了一个真正有知觉的人工智能,我们怎么知道呢?专家认为哪些特征表明计算机是真正具有自我意识的?

以前有专家认为可以通过模仿游戏来判断是否具有人工智能,这个测试以英国数学家艾伦图灵的名字命名。在第二次世界大战中,在图灵帮助破解德国密码之后,他花了一些时间研究人工智能。图灵认为,人类的大脑就像一台数字计算机。他设计了他所谓的模仿游戏,在这个游戏中,人类在另一个地方(或者至少在人看不到的地方)向机器提问。如果机器可以与这个人进行对话,并欺骗他们,让他们以为是另一个人,而不是一台背诵预编程信息的机器,那么它就通过了测试。图灵的模仿游戏背后的逻辑很简单,假设以模仿游戏为判断AI是否有自我意识的依据,那么雷蒙恩与LaMDA的对话显然通过了测试。

然而纽约大学心理学教授 Gary Marcus,同时也是一位颇为知名的机器学习和神经网络专家认为无论是 LaMDA 还是它的近亲们(比如 GPT-3)都没有什么智能。它们所做的只是从人类语言的大规模统计数据库当中提取,然后匹配模式。具备知觉 (to be sentient) 的意思是意识到你在这个世界里的存在。LaMDA 并没有这样的意识

比如在拼字游戏比赛当中,经常能看到母语非英语的玩家拼出英文单词,却根本不知道单词是什么意思——LaMDA 也是如此,它只是会说话,却根本不知道自己说的话是什么意思。英国艾伦图灵研究所(Alan Turing Institute)人工智能项目主任阿德里安·韦勒(Adrian Weller)也认为,虽然LaMDA的对话令人印象深刻,但他认为人工智能正在使用先进的模式匹配来模仿智能对话。语言模型是由人类设计的,用于使用语言,因此当人工智能能做出对话的时候,它不应该让我们感到惊讶。

人工智能绝对有一个很有前瞻性的技术工具,但无论它是否有知觉,都可能需要一段时间才能准备好迈出这么大的一步。即使你可以创造一个能够真正公正决策的人工智能,还有其他道德问题。

近日,中国发布了首个国家层面科技伦理治理指导性文件——《关于加强科技伦理治理的意见》。“意见”指出,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究,为新兴技术伦理治理设置了“红绿灯”。

目前,为AI创建大型语言模型的成本高达数百万美元。例如,被称为GPT-3的AI的成本可能在1100万美元到2800万美元之间。虽然这可能很昂贵,但GPT-3本身能够写自己写下整篇文章。同时,研发人工智能也会在二氧化碳排放方面对环境造成损害。经费和环境问题这些因素并不会阻止研究人员继续他们的研究。自20世纪中后期以来,人工智能的研究已经走过了漫长的道路。即便如此,即使LaMDA和其他现代AI可以与您进行非常令人信服的对话,他们也没有自我意识,也许他们永远不会有自我意识。但是我们无法预见未来,随着科技进步和时代发展,人类开始不得不正视人工智能的风险问题。不仅是人工智能,还包括所有科学技术。当人类没有能力完全把控时,要警惕科技的发展,限制科技的发展,以免带来无法预知的灾难。