8月29日,2019世界人工智能大會(huì)在上海開(kāi)幕。世界一些國(guó)家的著名科技公司和學(xué)界、產(chǎn)業(yè)界著名人士參加了此次大會(huì),對(duì)人工智能的發(fā)展進(jìn)行展望分析和獻(xiàn)計(jì)獻(xiàn)策。中國(guó)騰訊董事會(huì)主席兼首席執(zhí)行官馬化騰在演講時(shí)表示,人工智能(AI)治理的緊迫性越來(lái)越高,應(yīng)以“科技向善”引領(lǐng)AI全方位治理,確保AI“可知”“可控”“可用”“可靠”。
盡管并非所有人都認(rèn)同AI的這幾個(gè)“可”,但這提出了AI的一種方向,即AI產(chǎn)品的研發(fā)和使用必須同時(shí)具有幾個(gè)維度,而不能只發(fā)展一個(gè)方面。AI或其他科技產(chǎn)品無(wú)論如何新穎和實(shí)用,也需要在可控的狀態(tài)下才能受到人們的歡迎,并且在獲得極大效益的同時(shí),防止和減少對(duì)人類(lèi)社會(huì)可能造成的麻煩和災(zāi)難。這或許是反思世界各國(guó)經(jīng)濟(jì)發(fā)展與環(huán)境保護(hù)曾犯下的錯(cuò)誤后得出的經(jīng)驗(yàn)。
確保AI的“知、控、用、靠”也是總結(jié)了科技史上的先研發(fā)、后管理的傳統(tǒng)思路和做法的教訓(xùn)。在科技史上,汽車(chē)的發(fā)明把人類(lèi)社會(huì)帶入了工業(yè)文明時(shí)代,但是,在汽車(chē)的使用過(guò)程中,人們卻較難控制其帶來(lái)的交通事故和傷害,安全帶的發(fā)明和使用就是控制汽車(chē)傷害事件的一個(gè)要素,但是,汽車(chē)發(fā)明之后80年才研發(fā)出安全帶。
基于這樣的認(rèn)知,微軟提出了其人工智能發(fā)展的一項(xiàng)原則——每一項(xiàng)AI產(chǎn)品都要經(jīng)過(guò)AI倫理道德審查。AI的迅猛發(fā)展也讓人類(lèi)認(rèn)識(shí)到,如果AI在可用的同時(shí)不可控的話,人類(lèi)將付出更大的代價(jià)。因此,對(duì)每一種AI產(chǎn)品進(jìn)行倫理審查和立規(guī)也成為AI研發(fā)必須同時(shí)完成的任務(wù)。2016年微軟的CEO薩提亞·納德拉(Satya Nadella)提出了人工智能的十大倫理:AI必須用來(lái)輔助人類(lèi);AI必須是透明的;AI必須實(shí)現(xiàn)效能最大化,同時(shí)又不能傷害人的尊嚴(yán);AI必須保護(hù)人的隱私;AI必須承擔(dān)算法責(zé)任以便人類(lèi)可以撤銷(xiāo)非故意的傷害;AI必須防止偏見(jiàn)。
以上6項(xiàng)是對(duì)AI產(chǎn)品提出的,但同時(shí)也提出了使用AI產(chǎn)品的人類(lèi)應(yīng)該擁有的4個(gè)倫理原則,包括人要有同理心,這在人與AI共存的世界里非常有價(jià)值;教育,為研發(fā)和管理AI提供基礎(chǔ);保持人的創(chuàng)造力,機(jī)器也會(huì)繼續(xù)豐富和增強(qiáng)人們的創(chuàng)造力;裁決和責(zé)任,最終由人來(lái)對(duì)AI的判決或診斷,或?qū)I產(chǎn)生的所有結(jié)果負(fù)責(zé)。
如果能實(shí)施,這些原則當(dāng)然能對(duì)AI進(jìn)行有效的控制。但實(shí)際上,由于種種原因,很多機(jī)構(gòu)和研發(fā)者設(shè)計(jì)的AI產(chǎn)品并非可控,也因此會(huì)在應(yīng)用時(shí)出現(xiàn)種種問(wèn)題。目前最大的問(wèn)題就是侵犯人們的隱私,難以保證安全,也因此受到人們的批評(píng)和反對(duì)。
最近一個(gè)比較大的教訓(xùn)是蘋(píng)果產(chǎn)品的語(yǔ)音助手西瑞(Siri)。2019年7月,媒體報(bào)道,西瑞會(huì)偷錄用戶的隱私語(yǔ)音,如就診時(shí)的醫(yī)療信息等,并轉(zhuǎn)化為聲音檔案,發(fā)送給蘋(píng)果公司在不同國(guó)家的承包商。聲音檔案同時(shí)也記錄用戶的位置、使用數(shù)據(jù)與通訊內(nèi)容。在經(jīng)過(guò)一番解釋和拉鋸之后,蘋(píng)果公司于8月28日就西瑞秘密錄下與用戶的交流,并將文件泄露給外包商正式道歉。由于隱私不保,用戶提出了批評(píng),而且如果這些情況不能改善,就會(huì)讓蘋(píng)果失去大量的用戶,甚至被市場(chǎng)拋棄。
不過(guò)這種情況也表明,人工智能的發(fā)展最終還是取決于是否能受人控制,因?yàn)殡x開(kāi)了人的控制,AI就無(wú)法進(jìn)化和升級(jí)。正是在人與AI的互動(dòng)情況之下,才有可能讓AI的倫理審查和監(jiān)控失靈或失范,并造成安全漏洞。
因此,不只是可知可用,可控和可靠也要同時(shí)得到保證和保障,AI才會(huì)有未來(lái)。其他產(chǎn)品同樣如此。