時間:2023-08-01 來源:法治網 責任編輯:cche
□ 劉艷紅 (中國政法大學刑事司法學院教授、博士生導師)
4月11日,中國國家互聯網信息辦公室《生成式人工智能服務管理辦法(征求意見稿)》規定,生成式人工智能,“是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術”。2022年11月,OpenAI公司推出了名為ChatGPT的生成式人工智能。生成式人工智能是元宇宙技術架構的終極樣態之一,其加速了元宇宙的實現,而元宇宙也為其提供了良好的技術運行環境。在生成式人工智能技術的推動下,元宇宙的概念不但沒有“褪色”,反而獲得了新的發展動能。尤其是聽得懂、說得出、能互動的GPT4的面世,使社會各行各業都遭受到了不同程度沖擊。與以往的人工智能技術相比,ChatGPT等生成式人工智能給人類社會帶來的潛在風險真實而緊迫。
如果說互聯網引發了空間革命、智能手機引發了時間革命的話,ChatGPT類技術正在引發人類社會的知識革命。埃隆·馬斯克評價說其不亞于iPhone、比爾·蓋茨說其不亞于重新發明互聯網、周鴻祎認為其可類比蒸汽機和電力的發明。相較于已有的人工智能技術,ChatGPT的現象級躥紅得益于大規模語言模型和生成式人工智能架構所塑造的技術性能的實質躍升。海量數據與強大算力支撐之下的“涌現”能力使得ChatGPT類技術不僅可以“理解”人類自然語言,“記住”訓練期間獲得的大量事實,還可以基于“記住”的知識生成高質量的內容。良好的互動性、高度通用性與智能生成性正在加速ChatGPT類技術與人類社會形成更加剛性、高頻、泛在與深刻的聯結。與之對應,這也意味著ChatGPT類技術給人類社會帶來的潛在風險較之已有的人工智能技術而言更具現實緊迫性。深度學習之父杰弗里·辛頓在談及ChatGPT時認為,“多數人認為這(AI危害)還很遙遠。我過去也認為這還很遙遠,可能是30到50年甚至更長的時間。但顯然,我現在不這么想了”。在此背景下,分析生成式人工智能的潛在風險并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構在現實基礎之上的理性思考。為此,如何結合生成式人工智能的運行機理與安全風險進行法律規制,成為當下科技界、產業界、法律界共同關注的話題。
生成式人工智能的運行分為三個階段,即機器學習與人工標注的準備階段、算法處理數據的運算階段以及產出物流入社會的生成階段,對應了準備階段的數據安全風險、運算階段的算法偏見風險以及生成階段的知識產權風險,需要對此進行事先預防并提供法律保護。
強基賦能:生成式人工智能準備階段中的數據安全風險與合規處置
ChatGPT在準備階段的數據分為國家數據、政務數據以及個人數據,并分別存在一定的安全風險,應該進行合規處置。第一,針對國家數據,應該基于總體國家安全觀的理念進行統籌規劃,構建審查分級監管機制,采用穿透式監管的模式來分析國家數據的產生來源、內容架構以及潛在價值,從而保護數據主權。第二,針對政務數據,應該根據國家的整體布局來構建對應的合規監管體系,由政務機構在事前報備可以公開利用的數據,設立限制加工利用的前提要件。第三,針對個人數據,應該設置獨立監督機構來審查收集廣度,基于最小比例原則限制收集深度,同時禁止其編造虛假回復。
內核優化:生成式人工智能運算階段中算法模型的分析與糾偏
《生成式人工智能服務管理辦法(征求意見稿)》第四條(二)規定,在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中不得出現各類歧視。ChatGPT在機器學習的同時,通過人工標注來修正和校對機器學習的結論,而“機器學習+人工標注”作為算法技術內核,在提升技術水平的同時也會增加算法偏見的風險。鑒于此,應該遵循技管結合理念,從技術與規范兩方面進行全流程監管。第一,針對先天性算法偏見調整算法的學習路徑,強調算法應該遵守技術標準,在算法程序編譯環節進行預防、調整和校對,設置統一的人工標注規范標準,避免造成偏向性誤導。第二,針對后天性算法偏見,應該建立自動化、生態化、全流程的動態監管體系,自動對運行全程進行實時監控,構建多主體的生態化監管網絡,落實全流程覆蓋的監管機制。
提質增效:生成式人工智能生成階段中知識產權的剖析與重塑
ChatGPT在生產中注入自主意識,通過神經卷積網絡形成深度學習能力,而這也給知產保護帶來巨大挑戰。第一,公眾向ChatGPT反饋自己的需求,這表明人類意志已經干預了ChatGPT的創作。第二,算法中的人工標注模式注入了人的意志,可以追溯和解釋結論產生路徑。第三,ChatGPT具備一定的“自我反省能力”,解釋其運行機理具有實際可行性。因此,ChatGPT的生成物具有獨創性與創新性,應該被賦予知識產權并加以保護。當前應該構建重點突出的知產合規保護體系,ChatGPT的可解釋性算法及其生成的內容具有獨創性與創新性,屬于重點保護對象。具體合規保護任務分為提供一般預防措施的基礎性保護與強化技術特征的專門性保護,最終構建全流程保護體系,并及時引入全新的知產保護技術。
總之,伴隨生成式人工智能技術的蓬勃發展,必須提前預防可能產生的安全風險,比如影響教育公平、科研倫理、環境保護、數字鴻溝等。為了規避技術主義的陷阱,需要分析生成式人工智能對當前及未來社會可能造成的影響,并提供法律規制手段,在發揮技術效能的同時減少社會負面影響。