人文历史

「人工智慧毀滅人類」是一種末世恐懼傳染病


人工智慧對人類未來的威脅已經成為即將過去的2017年裡最引人關注的問題之一。不久前,一篇題為《今天,從美國驚爆凶訊:終結者,終於要來了!》的報道說,IBM宣布成功研製出了量子計算機原型機,「一台台式機電腦大小的量子計算機,或能達到今天最先進的中國天河一號超級計算機的計算能力」。

報道預言,「很可能,在不遠的將來,人類在量子計算機+人工智慧面前,就可能像螞蟻面對人類一樣無力和脆弱」。報道甚至聯想到,「這也就是為什麼近日,國家突然宣布:2030年一定要搶佔人工智慧全球制高點,還要在中小學設置人工智慧課程!」

為什麼成功研製出了量子計算機是個「凶訊」而不是好消息呢?對誰是凶訊,對人類還是對中國?「搶佔人工智慧全球制高點」又是為了什麼目的?是為了保衛人類還是僅僅為了一國的科技優勢?

在人工智慧問題的技術主義未來展望中,為什麼要發展人工智慧的目的價值問題――人類自身能從人工智慧研究得到什麼樣的認知和人性提升――經常被拋到一邊。人工智慧被想當然地當成對人類的威脅,害怕『人造人』毀滅人類成為一種非理性的,像傳染病一樣傳播的恐懼。這是愚蠢而不是智慧的表現。

一 人類的愚蠢比超級電腦更可怕

從目前的情況來看,害怕和反對發展人工智慧的一些主要理由都是從它對人類可能的負面影響著眼的:使人貶值(人在某些方面失去智力優勢、信任智能機器勝過信任人、迷戀智能手機讓人忽略了周圍的他人)、降低對人的勞動的需要(造成某些行業的失業)、冒充為道德主體(法庭用人工智慧決定是否讓犯人假釋)。

這些都是人可以想辦法來加以糾正或改變的,因此不構成反對人工智慧的必要理由,更不要說是充分理由了。對人工智慧最嚴重的反對理由是,人類將無法控制后奇點的人工智慧,它有一天會摧毀人類,人類將對此束手無策。

「人工智慧毀滅人類」是一種末世恐懼傳染病

人類真的需要害怕「人造人」會毀滅人類嗎?要回答這個問題,首先得問,人造人有可能毀滅人類嗎?臉書的人工智慧研究部主任,紐約大學教授揚・勒丘恩(Yann LeCun)是一位計算機科學家,他在機器學習、計算機視覺、活動機器人和算神經科W等領域都有很多貢獻。他最著名的工作是在光學字元識別和計算機視覺上使用卷積神經網路(CNN),他也被稱為卷積網路之父。

以他對數碼技術和人工智慧的知識,他在Quora(一個在線知識網站,集合許多問題和答案,也容許用戶協同編輯問題和答案。 其創建目標是「挖掘出網路上未有的維基知識,並賦予其強烈的社會媒體屬性」)上發表意見說,人工智慧毀滅人類的可能不是沒有,但需要人類足夠愚蠢,自己讓這樣的事情發生。人類既然能有創造超人智能的聰明才智,應該不至於愚蠢到讓人工智慧獲得如此摧毀力量的程度。 在人工智慧的未來發展中起決定性作用的是人,不是機器。這是一個基本的人文主義信念。

我們也沒有理由相信,機器人因為智能強大就會想要主宰世界,控制人類。主宰欲和控制欲是一種人類的特性(雖然只是一部分人類)。即使在人類中間,智能越高也不等於主宰欲和控制欲就越強。

情況可能正好相反,權力欲很強的人,往往不是因為智能高超,而是因為道德低下,什麼事情都能不擇手段、無所不為。他們為獲得權力所做的事情,智能高的人不是沒有能力去做,而是因為一些道德或原則的理由而不願意去做,也就是,壞事當前,有所不為。不擇手段、無所不為也能算是一種值得學習和發展的人類智能嗎?

勒丘恩指出,人類所做的許多壞事都是人性所致,其基因都是在人類生存的演化過程中形成的,如面對威脅時的暴力(當然可以變成無緣無故)、自私、妒嫉、獨佔心、控制欲等等。除非人類將這些陰暗和邪惡的東西編程輸入機器人的頭腦,它們不可能從不存在的演化過程中自行獲得。因此,看上去是機器人的問題,其實是人類自己的問題:我們要把這些危險的東西輸入給機器人嗎?

就算有的人類會像對學生洗腦那樣,把邪惡的東西塞進機器人的頭腦,也還是會有別的人類會創造出另一種不同的機器人,它們的專門任務就是打敗那種邪惡的機器人,或者對它們進行啟蒙,幫助它們不再繼續作惡。

勒丘恩相信,「如果兩種人工智慧都能獲得同等的計算能力資源,那麼第二種人工智將會勝出」。當然,這個勝利最終還必須取決於這個世界上善的力量是否強大。歸根結底,不同性質人工智慧之間的善惡交戰,其勝負是在人類世界里決出的。

一些人類害怕人造人有一天會毀滅人類,這種末世焦慮是一種莫名的害怕,這種害怕比害怕的對象更令人害怕,因此沒有緩解的可能。就連他們害怕的人造人也是他們的某種自我折射。他們害怕的其實不是所有的機器人,而是與某些人類同樣危險,同樣富有攻擊性的邪惡機器人。

這是一種新的,與某些人類一樣壞,但比他們更強大的壞人。人們害怕它們,就像歹徒害怕跟自己一樣歹毒但比自己更厲害的歹徒。善良的人不會害怕比自己更善良的他人,即便善良的他人比自己能幹十倍,也用不著害怕他們會毀滅自己,所以在善良的人中間總是信任多於害怕。

二 「人工智慧根本不構成對人類的威脅」

美國科技理論家邁克爾・柯勒斯特(Michael Chorost)在《讓人工智慧進化》(Let Artificial Intelligence Evolve)一文中也是從人類進化的角度來論證,就算智能機器能發展出堪輿人類匹敵的智能,那將是一個十分漫長而極不確定性過程,在這個過程中,有望勝出的是善而不是惡的適者生存力量。

同金井良太一樣,柯勒斯特認為意識,尤其是知覺的意識,是智能技術發展的關鍵。「如果一個人工智慧機器沒有『感覺』(feeling),它就不可能『想要』(want)做任何事情,更不要說是違背人類的利益或打敗人類的抵抗了」。

從人工智慧『想要』做一件事情的那一刻起,它就存在於一個不是想要做什麼就能做什麼的世界里了。這是一個事情有對和錯之分的世界,錯的就會遭到懲罰。為了在人類掌控的世界里生存,幼小的人工智慧必須發展出與人類一致的對錯意識,學會知道哪些事情是對的(可以做的),哪些事情是錯的(不能做的)。因此,等到人工智慧有能力毀滅人類的時候,「它已經知道毀滅人類是錯的了」。

「人工智慧毀滅人類」是一種末世恐懼傳染病

至今為止,人工智慧還沒有這種「想要」的能力,機器人連想要自己不被人類損毀的能力都沒有。

超級AlphaGo可以打敗人類中最頂級的圍棋高手,但是,它並不是真的知道自己想要做什麼。它不知道自己是在「比賽」,還是在與朋友「對弈手談」,更不會以輕鬆的心情邊弈邊聊了。它下棋就是下棋,不會有棋逢對手的「緊張」或棋錯一著的「懊惱」。它對自己所做的事情沒有感覺,勝了,它不會喜悅,輸了,它不會沮喪。它也不會說,今天我不想要下圍棋,想要玩撲克。

柯勒斯特指出,人類的感覺意識是非常複雜的,至今我們對它知之甚少。但我們知道,感知是認知的捷徑,幫助我們知道什麼有益,什麼有害――當然不一定可靠,例如,味道好的,是對身體有好處的,難吃的則是有害的。

感覺是因為人類生存有用,才在進化過程中被保存和加強的。這種知覺意識的生物機能(腦功能)十分複雜,在自然腦體里起作用的是與「計算」不同「水性信息體系」(aqueous information systems)。2012年《神經元》(Neuron)雜誌的一篇研究文章指出,計算機的能力還及不上老鼠四分之一立方毫克的腦活動能力。

柯勒斯特指出,「億萬年裡,水性信息體系不得不與極端複雜的環境搏鬥。一般而言,環境越複雜,水狀信息系統也就越複雜――不得不如此,不然就活不了。……相比之下,計算機生活在非常簡單的環境里,輸入數碼,輸出數碼,如此而已。它享有充足的食物,沒有天敵,……為什麼計算機能下圍棋打敗你,而不知道打敗了你呢?因為它太簡單了。這也就是說,人工智慧根本不構成對人類的威脅」。

三 人工智慧研究的人文關懷

要讓人工智慧學會「想要」,發展出知覺意識,就需要為它複製一個進化的過程,讓機器人的知覺在這個過程中變成它的「有價值」的能力。這個進化過程要足夠嚴酷和致命,適應的就生,不適應的就死。這也就是機器人專家,卡內基梅隆大學移動機器人實驗室主任漢斯・莫拉維克(Hans Moravec)在《心智的孩子》(Mind Children)一書里設想的情景。

無論是人類的生理還是心理因素都可以歸結為「意識」(consciousness),我們對意識是否已經有了足夠的認知呢?人工智慧研究者的回答是否定的,而人工智慧研究正是為了幫助人類提高和加深對人的意識的認知。

我們對意識的認知應該是具有可實驗性的,創造智能機器就是一種實驗方式。這個機器是否具有人的模樣,是不是模擬人,那根本就不重要。研究人工智慧不是為了造出跟人一樣聰明的機器,而是為了用過對機器智能的研究,對人類智能有更多、更好、更深入的認識。人工智慧研究不只是出於技術性的好玩或好奇,而且更是出於對人自身的關懷,它本身就是一種人文關懷。

「人工智慧毀滅人類」是一種末世恐懼傳染病

意識的主觀性讓許多人以為,用客觀的科學方式研究主觀的意識是不可能的。但是, ARAYA腦成像公司(ARAYA Brain Imaging)創始人兼總裁金井良太(Ryota Kanai)在《我們需要知覺的機器人》(We Need Conscious Robots)一文中指出,在過去25年裡,人工智慧研究者非常認真地把意識確定為科學研究的對象,並取得了重要成就。以前對意識的認識太哲學化,缺乏切實的成效,科技研究可以改變這種局面。作為一種意識研究,智能科技是以發明來推動理論,這就像在有物理學熱動力理論之前先有了蒸汽機一樣。

倘若人工智慧有可能發展出「意識」,那不會是人類的災難,而會是人類重新思考和認識自己的一個機遇。假如有一天,人工智慧發展出了知覺意識,它也可能獲得某種道德本能(moral intuition),如柯勒斯特所說,「開始是很簡單的本能,如『有能量是好的,沒有能量是壞的』。後來又會有其他道德本能,如同類不相殘」。

人類開始的道德意識也是如此,直到今天。雖然人類相殘是經常的事,但畢竟還是有人不能吃人的道德禁忌。哲學家彼得・辛格(Peter Singer)在《擴展的圈子》(The Expanding Circle)一書里指出,狗、海豚、黑猩猩都有互不殘害和利他的道德行為。研究者還觀察到,老鼠在有巧克力誘惑的情況下,也會放棄巧克力而去救落水的同伴(這似乎超出了一些人類的道德本能)。

如果道德本能有利於適者生存,而且這種本能能夠代代相傳,那麼這個物種就能發展出它自己的道德觀來」。也正是因為一些人類的道德水準在動物之下,才有「禽獸不如」的說法。

也就在人工智慧發展出道德本能的同時,它又會發展出「理性」的能力。這樣,它的道德觀就會不斷優化。辛格把這一過程稱為「理性電梯」(an escalator of reasoning)。

對此,柯勒斯特解釋道,「假設我和你生活在一個原始的部落里,我們一起撿到一些果子,我對你說,我要比你多得。你就會問為什麼。要回答你,我就必須給你一個理由――不只是一個『因為』,而且是一個你能接受的理由。說不通的理由最終會導致反抗,或者部落社會的瓦解。就算是狗也能夠懂得公平的原則,如果人類對它有不公的對待,它就不跟人合作」。在這方面,一部分人類比較精明,他們有把不公平說成是公平的本領,那就是運用欺騙和詭辯的語言。當然,這也需要另一部分人類比較愚蠢,他們居然會相信這樣的欺騙和詭辯。

四 理性世界里的人工智慧

人工智慧一旦開始能提供理由,它也就有了懷疑和責問的能力,這是一種說理和要求說理的能力:為什麼部落里的首領總是拿最好最多的果子?說理總是在擴展的。辛格寫道,好的理由是放到哪裡都說得通的,「它需要有普遍的可運用性」。在這種說理中,有權的部落酋長與部落里任何一位普通的成員應該是平等的。

「理性電梯」指的是人類越來越明白理性和說理的重要:這是一種公正的,非暴力的說理,而且,必須把這樣的說理變成日常生活社會的一項基本準則。如果人類期待智能機器也能發展出理性,那麼,是不是更應該自問,我們人類今天是否已經足夠理性了嗎?如果有一部分人類還沒有,那麼,我們是服服帖帖地聽命於他們呢,還是應該有所反抗?

如果說連智能機器也需要登上理性電梯,那麼人類豈不更應該如此?理性的另一個主要作用就是把人從非理性的害怕中解放出來。對智能機器人毀滅人類的害怕是非理性的,非理性的害怕讓人不經過思考就匆忙下結論,既嚇唬自己,也嚇唬別人。

麻省理工學院物理學教授馬克斯・泰格馬克(Max Tegmark)建議他的學生對科技保持一種理性的樂觀,他說,「我是一個技術樂觀主義者。技術為我們改善生活提供了極好的機會。但是,因為技術強大,總會伴隨著陷阱,所以需要預先思考會有怎樣的陷阱,免得跌進去,追悔莫及」。技術改善人類生活不只是物質的,也應該包括精神和道德的層面。

未來學家約翰・斯馬特(John M. Smart)也認為有理由相信,即使技術出現道德偏離,也是可以規範的。他說,「我們思考越來越模擬的技術的未來,很難想象它們的意識、感覺、同理心和道德約束。但是,如果道德和抗惡是發展的過程,那麼,……隨著每個文明中計算機能力的增強,道德和抗惡也必須能加強力度和範圍」。

「人工智慧毀滅人類」是一種末世恐懼傳染病資料圖:電影《星球大戰》中的機器人

儘管每一種文明中都有道德偏離,但是,「在所有的文明發展進程中,這樣的道德偏離會隨著時間而得到好得多的規範,……總的趨勢是聚合(convergence)和統一(unification)」。計算機技術的發展應該是整體文明發展的一部分,而不是遊離在文明發展之外。斯馬特更認為,由於人工智慧具有超強大的處理信息能力,「它應該遠比人類更負責任、更受管理、更有自我剋制力」。

智能機器研究的首要目的應該是幫助我們獲得無法或難以用其他手段獲得的關於人類自身的認知,這是人工智慧研究的目的價值所在。如果最終不能創造出后奇點模擬人,不能算是智能技術的失敗;如果能夠創造出有智能特徵或高智能的機器,那也不過是一個副產品。這樣的未來人工智慧不應該是不道德的,也不應該令人恐怖,它應該增添人類對未來的信心。