21世紀經濟報道 記者 鄭雪 北京報道
報告(gao)全文和下載鏈(lian)接(jie):
新一(yi)輪人工智能(neng)飛速發(fa)展,如何平(ping)衡發(fa)展與安(an)全成(cheng)為(wei)此(ci)次發(fa)展過程中的一(yi)道(dao)必(bi)答題(ti)。
8月1日,南財合規科技研究院與觀韜中茂律師事務所推出《中國AI治理的獨立思考——生成式人工智能發展與監管白皮書》(以下簡稱白皮書),通過分析生成式AI的發展現狀、政策導向、實操中面臨的風險,以及各國的監管路徑,以期為未來的AI治理提供有益思路。
生(sheng)成(cheng)(cheng)(cheng)式AI技術(shu),是指具有文(wen)本(ben)、圖片、音頻(pin)、視頻(pin)等內(nei)容生(sheng)成(cheng)(cheng)(cheng)能(neng)力的模型及相關(guan)技術(shu)。生(sheng)成(cheng)(cheng)(cheng)式AI本(ben)質在(zai)于“創(chuang)造(zao)未知世界”。
大模型是本輪生成式AI競賽的殺手锏。各個科技公司加碼大模型,上演“百模大戰”。白皮書梳理了來自互聯網公司、AI公司、科研院所、教育行業、車企等發布的超過30個大模型。此外(wai),白(bai)皮書還(huan)梳理(li)(li)(li)了當前接入類ChatGPT技術應用,將(jiang)其(qi)整理(li)(li)(li)為辦公軟件(jian)、社交(jiao)文娛(yu)、商業營銷(xiao)、家庭助理(li)(li)(li)、智慧醫療六大類,并具(ju)體細分為16個(ge)應用方向。
白皮書指出,生成式AI當前主要面臨四大類風險:一是知識產權侵權風險,需要關注著作權侵權、商業秘密侵犯、不正當競爭和反壟斷風險;二是算法風險,面臨算法黑箱、算法歧視、算法決策、算法失真風險;三是數據安全與個人信息保護風險,需要考慮個人信息保護、數據跨境風險、數據安全風險等問題;四是倫理道德風險,需要關(guan)注生(sheng)成(cheng)式(shi)AI發展(zhan)過程中(zhong)帶來的偏見(jian)、刻板(ban)印(yin)象、歧視等(deng)問(wen)題。
值(zhi)得(de)關注的是,白皮書梳理(li)了歐盟、美國的人工智能監管框(kuang)架(jia),以期為中國人工智能治理(li)思路提供參考。
白皮書指出,美國其未在聯邦或者州層面制定相關的法律文件來規制生成式AI的應用以及其可能帶來的風險,而是采取以美國國家標準與技術研究院的《人工智能風險管理框架》(以下簡稱框架)為主引導實踐的治理框架,框架概述了可信的人工智能系統的特征,即可解釋性、透明度和問責制。美國關于生成式AI應用的治理框架反映了其對于創新技術的一貫態度,即鼓勵科技發展,著力保持自身在全球科技創新中的領導地位。
歐盟略顯保守,其采用了以人工智能法案為主的風險分級監管治理框架,將人工智能技術可能對人的健康和安全或基本權利造成的風險程度分為四個級別:不可接受的風險、高風險、有限風險和最小風險,并分別采取不同的限制措施。
具體到中國來看,白皮書指出,“發展”正逐漸成為中國AI治理的第一視角。中國在7月發布了《生成式人工智能服務管理暫行辦法》,提及“堅持目標導向和問題導向”,單設了“技術發展與治理”章節,同時也新增了不少有力措施來鼓勵生成式AI技術發展,如探索優化應用場景、加強基礎技術自主創新、推動公共訓練數據資源平臺建設、豁免責任等。
針對生成式AI商業化(hua)中出(chu)現的一系(xi)列風險,開發者又該如何(he)應對?白皮書亦給出(chu)了答案。
白皮書提出了以風險控制為核心目標導向的AI風險治理框架。風險治理框架的核心為風險識別-風險度量-應對策略-控制措施。
風險識別:關注知識產權、算法、數據(ju)安全以及個人信息等方面帶來的(de)風(feng)險(xian)。同時提醒關注未知風(feng)險(xian)。
風險度量:典(dian)型的風(feng)(feng)險衡量(liang)(liang)方(fang)法需要開發者(zhe)將測量(liang)(liang)或(huo)估計的影響和影響可能(neng)(neng)性相乘或(huo)定性組(zu)合(he)為風(feng)(feng)險評分(fen)(風(feng)(feng)險≈影響x可能(neng)(neng)性)。試(shi)圖完全消除負面風(feng)(feng)險在實踐中可能(neng)(neng)適得其反,因為并非所有事件和風(feng)(feng)險都(dou)可以消除。
應對策略:開發者(zhe)針對已識別(bie)的生(sheng)成式(shi)AI商(shang)業化應用風險的應對治理模(mo)塊(kuai),目前包括(kuo)以(yi)下(xia)模(mo)塊(kuai):協議安排、內部(bu)政策、技術性限制、數(shu)據治理、動態測試及評估(gu)、透明度實踐(jian)等。
控制措施:依(yi)據風(feng)險應(ying)對策(ce)略,確定的(de)具(ju)體(ti)風(feng)險控制節(jie)點,需(xu)要開發者(zhe)內(nei)部具(ju)體(ti)落實(shi)的(de)措施。
此外,生成式AI應用風險事件庫也是一個值得借鑒的行業實踐。AI風險事(shi)件數(shu)據(ju)庫通過(guo)整理和分析生成式AI商(shang)業化應用的(de)開發和部署在(zai)現實商(shang)業領域中造(zao)成的(de)或可能造(zao)成不(bu)良后果或者損害(hai)的(de)情(qing)況,形成相應數(shu)據(ju)庫。

