當(dāng)前人工智能的發(fā)展主要受益于以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)技術(shù),這讓計算機(jī)可以從大量數(shù)據(jù)中自主學(xué)習(xí)與進(jìn)化,從而作出比人類更高效、更精準(zhǔn)、更廉價的預(yù)測與決策。正因如此,人工智能作為新的通用型技術(shù),被認(rèn)為將給經(jīng)濟(jì)和社會帶來變革性影響,已被各國上升到國家戰(zhàn)略和科技主權(quán)高度,成為不斷升溫的全球科技競爭的新焦點(diǎn)。

  在應(yīng)用層面,人工智能已經(jīng)滲透到各行各業(yè),算法幫我們過濾掉垃圾郵件,給我們推薦可能喜歡的歌曲,為我們翻譯不同的語言文字,替我們駕駛汽車。新冠肺炎疫情暴發(fā)以來,人工智能在輔助醫(yī)療診斷與新藥研發(fā)等方面嶄露頭角,無人物流配送、無人駕駛汽車等新模式助力非接觸服務(wù)發(fā)展。總之,人工智能潛力巨大,可以成為一股向善的力量,不僅帶來經(jīng)濟(jì)增長,增進(jìn)社會福祉,還能促進(jìn)可持續(xù)發(fā)展。

  但與此同時,人工智能及其應(yīng)用的負(fù)面影響與倫理問題也日益凸顯,呼吁人們在技術(shù)及其產(chǎn)業(yè)化之外更加關(guān)注倫理視域。例如,人工智能模型訓(xùn)練及其應(yīng)用離不開大量數(shù)據(jù)的支持,可能導(dǎo)致違法違規(guī)或過度收集、使用用戶數(shù)據(jù),加深人工智能與數(shù)據(jù)隱私保護(hù)之間的緊張關(guān)系;人臉識別技術(shù)在一些場景的應(yīng)用也引發(fā)了國內(nèi)外對該技術(shù)侵犯個人隱私的爭議。人工智能技術(shù)也可能被不法分子濫用,例如用來從事網(wǎng)絡(luò)犯罪,生產(chǎn)、傳播假新聞,合成足以擾亂視聽的虛假影像等。

  隨著算法歧視的不斷發(fā)酵,人工智能參與決策的公平性問題也備受關(guān)注。有研究發(fā)現(xiàn),很多商業(yè)化的人臉識別系統(tǒng)都存在種族、性別等偏見,這樣的技術(shù)用于自動駕駛汽車,就可能導(dǎo)致黑人等深色皮膚的人更容易被自動駕駛汽車撞到。人工智能在招聘、廣告投放、信貸、保險、醫(yī)療、教育、司法審判、犯罪量刑、公共服務(wù)等諸多方面的應(yīng)用也伴隨公平性爭議。此外,人工智能的知識產(chǎn)權(quán)保護(hù)問題也日益浮現(xiàn),目前人工智能已能夠獨(dú)立創(chuàng)造詩歌、小說、圖片、視頻等,知識產(chǎn)權(quán)制度將需要盡快回應(yīng)人工智能創(chuàng)造物的保護(hù)問題。自動駕駛汽車、AI醫(yī)療產(chǎn)品等人工智能應(yīng)用一旦發(fā)生事故,也面臨誰來擔(dān)責(zé)的難題。最后,人工智能的應(yīng)用可能取代部分手工的、重復(fù)性的勞動,給勞動者就業(yè)帶來一定沖擊。

  2020年被認(rèn)為是人工智能監(jiān)管元年,美歐采取的監(jiān)管路徑大相徑庭。歐盟《人工智能白皮書》提出的“重監(jiān)管”模式更多倚重事前的規(guī)制,考慮為技術(shù)開發(fā)與應(yīng)用設(shè)置嚴(yán)苛條件;美國《人工智能應(yīng)用監(jiān)管指南》提出的“輕監(jiān)管”模式更多倚重標(biāo)準(zhǔn)、指南等彈性手段,考慮為人工智能應(yīng)用設(shè)置避風(fēng)港、“監(jiān)管沙箱”等。在全球科技競爭日趨激烈、數(shù)字經(jīng)濟(jì)日趨成為國家核心競爭力等背景下,考慮到我國科技行業(yè)發(fā)展實際,我國對人工智能需要創(chuàng)新治理,倚重敏捷監(jiān)管、倫理治理、技術(shù)治理等多元手段來共同確保人工智能正向應(yīng)用與向善發(fā)展。

  首先,監(jiān)管不僅需要對人工智能應(yīng)用分級分類、以問題和風(fēng)險防范為導(dǎo)向,而且需要具有敏捷性與適應(yīng)性。人工智能技術(shù)的一個核心特征是快速發(fā)展迭代,制定強(qiáng)制性法律必然趕不上技術(shù)發(fā)展步伐,所以國外大都采取出臺指南、倫理框架等“軟法”。此外,自動駕駛汽車、智能醫(yī)療等人工智能應(yīng)用的發(fā)展落地仍面臨較多法規(guī)政策障礙,需要考慮修訂阻礙性的法律法規(guī),同時通過“數(shù)字沙箱”“安全港”“試點(diǎn)”等方式推動其試驗與應(yīng)用落地。

  其次,采取倫理治理,把倫理原則轉(zhuǎn)化為倫理實踐。目前,國內(nèi)外很多科技公司都出臺了人工智能倫理原則,也在通過倫理審查委員會、倫理嵌入等方式落實其倫理原則。行業(yè)的這些倫理治理措施已在國內(nèi)外獲得較大共識,更能適應(yīng)AI技術(shù)發(fā)展。

  再次,以技術(shù)手段防范人工智能濫用。例如,深度合成作為一項人工智能應(yīng)用,在影視制作、教育、醫(yī)療、娛樂等領(lǐng)域具有很大正向應(yīng)用價值,但也可能被不法分子濫用來制造、傳播虛假影像以從事欺詐欺騙活動。對此,行業(yè)內(nèi)已在積極研發(fā)、部署內(nèi)容鑒別與溯源技術(shù),以對抗深度合成的濫用。面對復(fù)雜性與迭代速度不斷增強(qiáng)的人工智能應(yīng)用,技術(shù)治理將發(fā)揮越來越大的作用。(作者:曹建峰,騰訊研究院高級研究員)