一種觀點(diǎn)認(rèn)為,人工智能是人類設(shè)計出來的,因此不可能超過人類。但實(shí)際上,人工智能是人類智慧與機(jī)器進(jìn)化的結(jié)合,具有超過人類智慧的能力與趨勢。因此,人工智能對未來人類形成“控制”這種可能是存在的。
人類過度依賴人工智能可能會導(dǎo)致物種退化
隨著人工智能在社會中的廣泛應(yīng)用,會形成一種類似于資本控制的控制形態(tài),即人類由于高度依賴人工智能形成整體上的物種退化。
例如,在一個高度智慧化的時代,出行有自動駕駛,飲食有自動做菜的炊具,社交有人工智能的安排或者有機(jī)器擬人化的伴侶,生育孩子則有智能化的撫育器,社會治理和決策則由中央巨型智慧體進(jìn)行判斷。那么,人類整體上,就逐漸演變成一種高度依賴人工智能存在的物種,雖然人類在人工智能的幫助下整體上的能力會增強(qiáng),但人類作為獨(dú)立的個體則會相應(yīng)地退化。這就存在一種總有一天人類無法理解人工智能,從而在這一互生的體系中失去相應(yīng)的位置和必要性的可能。
人工智能自身對人類的控制
人工智能的進(jìn)一步演化,則會形成其發(fā)展歷史上的第二次躍遷,即人工智能壓倒性地超過人類智慧,并具備了自身的主體意識,從而開始擺脫客體的屬性,反過來控制人類。這就形成了人工智能自身對人類的控制這一形態(tài)。對于這種形態(tài)的存在,則要滿足以下條件。
第一,是人工智能要具有自我意識。這并不是指人工智能在處理外界輸入時的判斷和反應(yīng)超過了人類,而是人工智能要具有清晰的自我意識,從而將自己與人類主體區(qū)分開來。這一點(diǎn)在當(dāng)前的人工智能界依然存疑,但具有其實(shí)現(xiàn)的可能性。
第二,人工智能能夠從控制人類身上得到基本的經(jīng)濟(jì)利益。這就要求人類本身能夠完成人工智能所不能完成的必要工作。對人工智能系統(tǒng)本身來說,高度依賴人類的工作是對人工智能本身的維護(hù)和更新,這也包括不斷用人類智慧去完善人工智能。
第三,人工智能具有控制人類的手段。未來的人工智能顯然具有控制人類的手段,伴隨著整個經(jīng)濟(jì)體系的智能化,大部分的物質(zhì)生產(chǎn)過程由人工智能體系所控制,公共管理領(lǐng)域引入人工智能與暴力體系引入人工智能,會使人類在經(jīng)濟(jì)、管理和暴力領(lǐng)域都置于人工智能的控制之下。更重要的是,相當(dāng)一部分人類認(rèn)為人工智能可能會更好地增進(jìn)人類的公平,提供更好的治理。這就使得在思想上具有了人工智能可能控制人類的正當(dāng)性觀念。
第四,人工智能具有控制人類的必要。這里的必要主要是指如果不控制人類,人類可能具有隨時關(guān)閉乃至消除人工智能自我存在的可能。如果假設(shè)宇宙中任何個體形成的自我意識都具有保護(hù)自我存在和延續(xù)的目的和行為,那么,人工智能可能會主動控制人類,以防止人類關(guān)閉它們。
人類的選擇與對策
對于第一種情形,確保人類的自我延續(xù)和獨(dú)立,從而避免人類的退化,將是從現(xiàn)在開始的一個命題,但人類依然具有較為從容的時間和主動權(quán)。對于第二種情形,則是當(dāng)前就要開始著手避免的。一個有效防范人工智能自身控制形成的機(jī)制則包括四個層面:第一,從動機(jī)和利益出發(fā),讓人工智能不想控制人類。第二,從倫理、邏輯與規(guī)則出發(fā),讓人工智能不愿控制人類。第三,承認(rèn)人工智能的權(quán)利和相互擺脫恐懼,讓人工智能不必控制人類。第四,建立最后安全機(jī)制,讓人工智能不能控制人類。(北京日報 作者何哲,為中央黨校(國家行政學(xué)院)公共管理教研部教授)