【中國智能制造網 學術論文】人工智能技術的快速發展引發了人們對其安全問題的普遍擔憂。無論人工智能是否會超越人類智能,研究人工智能的安全問題都是非常必要的。從解決人工智能安全問題的內部進路看,我們至少有倫理設計、限定其應用范圍、自主程度和智能水平等方式;從外部進路看,應該強調科學家的社會責任與合作、引導公眾接納人工智能,以及對人工智能進行安全評估與管理等途徑。只有采取切實有效的措施保證人工智能的安全性,才能使其為人類帶來福祉而不是危害。
人工智能安全問題及其解決進路
2016年3月9日至15日,谷歌人工智能“阿爾法圍棋(AlphaGo)”與韓國職業圍棋高手李世石之間展開了一場“人機大戰”,李世石的落敗使人們再一次為人工智能的強大能力驚嘆不已。由此,也引發了人們對人工智能安全問題的普遍憂慮。人工智能是否會成為人類“后的發明”?我們如何面對高速發展的人工智能?本文嘗試就研究人工智能安全問題的必要性以及可能的解決途徑進行簡要論述,以期引起更多的關注和更深入的討論。
一 探究人工智能安全問題的必要性
1.人工智能超越人類智能的可能性
毋庸置疑,人類的智能水平從整體上正如許多科幻電影與文學作品中所表現出來的那樣遠遠超越于其他生物智能,正是因為這一點,使得人類成為地球的統治者。因此,我們很自然地得出推論,如果人工智能超越了人類智能,人工智能很可能不再聽從人類的指令,反而會與人類爭奪統治權。那么,人工智能會從整體上超越人類智能嗎?我們可以從多個角度來考察人工智能超越人類智能的可能性問題。雖然目前學界對智能及其實現方式的認識存在許多差異,但這正體現了人類對智能認識的多樣性,是人類實現對智能全面深理解的必經過程,并不意味著人類對智能的全面理解是不可能的。從這個角度看,科學家對人類智能的全面認識與實現,只是程度和時間的問題,而不是可能與不可能的問題。
已有不少學者從哲學、未來學等角度論證了人工智能發展進步的可能性與可行性。徐英瑾認為,我們可以在維特根斯坦哲學的啟發下,在一種非公理化推理系統的技術平臺上開發出具有不同配置形式的通用智能系統,并使之走向產業化和商業化。被微軟公司創始人比爾·蓋茨譽為“預測人工智能未來的人”的庫茲韋爾(Ray Kurzweil)堅信,人工智能會超越人類智能,而且超越的速度會比人們預想的快得多。他認為,2045年是奇點到達的時期,這將是深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。雖然庫茲韋爾的觀點受到一些學者的批評,但他的論證并非空穴來風,而且他的著作產生的廣泛影響至少說明他所思考的問題的重要性。
從科學技術史的角度看,許多預言不可能實現的科學技術,后來都變成了現實。比如,一些的科學家與工程師曾認為飛機不可能飛上天,讓比空氣重的機械裝置飛起來純屬空想。但是,事實證明他們錯了。因此,當科學家對某些科學技術進行否定性的預測時,他們更應該謹慎行事。當然,要對某一項科學技術的發展及應用作出預言幾乎是不可能的。但是,從相關技術的發展進步以及目前世界各國對人工智能重視的程度來看,人工智能在未來一段時期內極可能會快速地發展。計算機的計算速度、存儲容量的快速發展是有目共睹的,近些年發展起來的深度學習、云計算、超算、大數據技術等也會推動人工智能的進步。顯然,谷歌阿爾法圍棋的勝利使得人們普遍相信人工智能必將取得更快的發展。據報道,在阿爾法圍棋與李世石之間的“人機大戰”之后不久,韓國政府宣布一項總投資約8.4億美元的專項計劃,用于加快人工智能產業的發展。世界上許多國家自然都不甘落后,希望搶占人工智能研發高地,科研經費與人員投入增長。從這個角度看,想要阻止人工智能的發展幾乎是不可能的。
2.人工智能產生危害的可能性與后果的嚴重性
鑒于人工智能發展史上經歷的若干曲折和發展現狀的理解,目前大多數人工智能專家對人工智能能否(至少是在短時期內)超越人類智能持謹慎甚至否定態度。日本人工智能專家松尾豐認為:“人工智能征服人類、人工智能制造出人工智能——這種可能性在現階段看來并不存在,只不過是憑空臆想而已。”在他看來,我們沒有必要對人工智能征服人類感到憂心忡忡。也有一些科學家對人工智能的未來表示擔憂。比如,2014年底,英國廣播公司報道,理論物理學家霍金表示:“人工智能的全面發展可能導致人類的滅絕。”霍金擔心,人工智能也許會在將來的某一天趕上甚至超過人類。比爾·蓋茨等人士也有類似的憂慮。
不過,即使人工智能整體上并未超過人類智能,但不加控制的片面的人工智能也可能給人類帶來危害。就像波斯特洛姆(Nick Bostrom)提出的曲別針思想實驗那樣:如果一種人工智能系統被設置為使曲別針的產量大化,那么,這種人工智能系統很可能具有無法滿足的胃口,不斷地獲取物質和能力,走上首先將地球,然后將整個可觀察宇宙的大部分都變成曲別針的道路。另外,互聯網、物聯網技術使得人工智能的安全問題更加復雜化。一方面,網絡資源使得人工智能自身發展進化和可供使用的資源趨于無窮;另一方面,互(物)聯網技術使黑客、病毒等人為因素對人工智能產品構成巨大威脅。即使人工智能尚不如人類智能,但網絡技術極可能使我們對人工智能的依賴演變成災難。比如,如果黑客控制了人們家里的兒童看護機器人、助老機器人或其他智能系統等,由此導致的后果將不堪設想。
從近幾十年來非常流行的風險社會理論的角度看,研究人工智能安全問題的必要性是不言而喻的。作為風險社會理論代表人物之一的貝克(Ulrich Beck)認為:“風險概念表明人們創造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控制的事情,通過有意采取的預防性行動及相應的制度化的措施戰勝種種副作用。”雖然風險社會研究的不同流派對風險的界定及防范等基本問題有各自不同的看法,但對高科技會導致高風險的認識是高度一致的。因此,風險社會研究的理論成果對人工智能的安全問題研究頗有借鑒與啟發意義。
總的來說,鑒于人工智能超越人類智能的可能性,以及人工智能產生危害的可能性與后果的嚴重性,加上科學技術本身內在的不確定性,這些因素足以構成我們研究人工智能安全問題的必要性。事實上,人文社會科學研究本來就應該超越自然科學的發展,就像我們不能等克隆人產生之后再來研究克隆人的倫理與社會問題一樣,我們必須在人工智能產生安全問題之前就做好充分的理論準備。
二 解決人工智能安全問題的內部進路
一般說來,技術導致的負面影響(包括安全問題)主要是由技術本身或人為因素造成的,相應的解決途徑也可以從這兩方面入手。因此,我們可以大致把解決人工智能安全問題的方法分為內部和外部兩種進路。從內部進路看,我們至少有以下幾種解決途徑。
,倫理設計。對人工智能產品進行倫理設計是解決其安全問題的基本進路之一。近十多年來,機器人倫理問題得到越來越多西方學者的關注。機器人倫理研究的主要目標,就是讓機器人在與人類互動的過程中,具有一定的道德判斷與行為能力,從而使機器人的所作所為符合人們預設的道德準則。從理論上看,根據人類預設的道德原則進行道德決策的機器人可以成為只做好事的“道德楷模”,而且在一定程度上還可以避免人們對其的不當使用、惡意利用或濫用。
美國學者瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認為,將來人工智能系統必定會獨立于人類的監管,自主作出決定,他們把能夠作出道德抉擇的人工智能系統稱之為人工道德行為體(artificial moral agents,簡稱AMAs)。瓦拉赫和艾倫相信,在機器人身上實現人工道德,使機器成為道德行為主體是可能的。他們為人工智能的道德抉擇設計了三種實現模式:“自上而下的進路”、“自下而上的進路”,以及“混合進路”。自上而下的進路是指選擇一套可以轉化為算法的道德準則作為機器行為的指導原則;自下而上的進路類似于人類的道德發展模式,通過試錯法培養道德判斷能力。不過,這兩種方式均有一定的局限性。比如,種進路把一套明確的規則賦予機器可能是不合理的,同一種原理在不同的情況下可能會導致不同的相互矛盾的決定;后一種進路要求機器能夠自我發展進化,而人工智能系統的學習與進化能力的提高將會是一個比較緩慢的過程。混合進路在一定程度上,可追溯到亞里斯多德的美德倫理學,它把兩種進路統一了起來:一方面,美德本身可以清楚地表述出來;另一方面,它們的習得又是典型的自下而上的過程。
瓦拉赫和艾倫為我們描述了使機器人成為“道德楷模”的可能性。如果他們以及其他類似的方案能夠得以實現,人工智能系統就可以作出人類認為正確的道德決策。在人類的道德活動中,非理性因素(比如情感)也會起到關鍵性作用,瓦拉赫和艾倫也討論了把理性和非理性整合到人工智能系統中的可能性。不過,筆者認為,為了保證人工智能系統的安全性,我們可能希望人工智能系統的道德判斷更為理性和客觀,并不需要增加過多的非理性因素。
雖然要真正實現對人工智能的倫理設計還有許多具體的工作要做,但是從機器人倫理研究的勃興及取得的初步成果來看,在人工智能產品中實現人工道德完全是可能的。人們也更容易相信,一個能夠根據我們的預設作出合理的道德判斷和行為的人工智能系統,對我們來說才是真正安全可靠的。