中国妞xxxhd露脸偷拍视频_亚洲一区在线视频观看_97在线看_国产精品欧美久久久久一区二区_亚洲网在线_免费观看一级淫片

最新資訊:如何看待ChatGPT爆火背后潛在的法律風險︱法經兵言

2023-02-21 20:54:07

近年來,隨著人工智能算法不斷迭代升級,尤其是機器學習賦予人工智能強大的學習能力,使其不再局限于只能依據事先指定的模板或者規則,進行簡單的內容輸出和制作,而是能夠根據用戶提出的指令即可生成靈活且真實的內容,甚至能夠實現高質量的內容創作,這類技術也被稱為人工智能生成內容(AIGC)。


(資料圖片僅供參考)

近期爆火的ChatGPT就是AIGC的典型代表,該技術是基于語言模型GPT-3.5的聊天機器人,ChatGPT模型使用一種稱為人類反饋強化學習(RLHF)的機器學習進行訓練,可以模擬對話、回答后續問題、承認錯誤、挑戰不正確的前提并拒絕不適當的請求。雖然,此前不乏能夠與人進行互動對話的聊天機器人,但并沒有像ChatGPT一樣受到廣泛關注,是因為與其他聊天機器人相比,ChatGPT具有更強大的功能,借助其核心技術之一“Transformer神經網絡架構”,利用從大型文本語料庫中所學到的內容,能夠生成具有更豐富細節和更長篇幅的內容,可以完成包括寫郵件、寫代碼、寫新聞報道以及寫論文等多種任務,且任何人都可以輕松地使用,具有開放性、跨領域及通用性的特征,其本身可以構成網絡信息技術領域的終端,成為支撐人工智能技術和產業發展的一種關鍵基礎設施。由此,ChatGPT也引發了全球各界的廣泛關注甚或擔憂。

潛在風險

ChatGPT強大的功能以及較低的使用門檻,打破了人們對人工智能的固有印象,且讓人們看到了AIGC技術在多領域應用的巨大潛力。然而,隨著ChatGPT爆火掀起新一輪AIGC熱潮,也讓人們意識到其中潛在的諸如技術壟斷、資本擴張、數據濫用、算法歧視、隱私侵權等法律風險,可能對市場競爭、企業創新、消費者福利甚或國家安全產生負面影響。為預防此類技術廣泛適用帶來的法律風險,需結合ChatGPT的技術特性以及其在不同領域應用的情況,分析存在的法律問題并做好相應對策。

其一,ChatGPT可能存在“技術+資本”的壟斷風險。

雖然,ChatGPT是由初創公司OpenAI開發,并非出自微軟、谷歌等科技巨頭,但是,OpenAI創始人表示,ChatGPT的開放成本和運行成本相當高,致使其開發和運維成本非一般初創型企業可以承擔。相關資料顯示,GPT-3訓練一次的費用是460萬美元,總訓練成本達1200萬美元。高昂的成本使得初創公司難以實現獨立的開發和運營,必須與科技巨頭合作,才能獲得運營所需的極其昂貴的數據資源和云計算能力。

在此情況下,OpenAI選擇與微軟達成合作,得到了微軟10億美元的投資,并專門為微軟新必應(New Bing)搜索引擎專門定制了下一代大型語言模型。這在很大程度上預示著該領域市場在未來存在著被微軟、谷歌等科技巨頭壟斷數據、算法及技術要素資源的風險,因為初創企業在該領域難以獨立生存,而科技巨頭可憑借其擁有的數據、技術、資本、用戶等優勢,通過收購、簽訂協議等方式獲得初創企業的技術,將其在原有市場的市場力量迅速傳導至新的市場,還可能通過實施技術封鎖、數據屏蔽等排除限制競爭的行為以維持壟斷地位。

其二,ChatGPT可能存在算法偏見。

目前,ChatGPT仍存在一定的技術缺陷,其依賴于其訓練數據中的統計規律,無法在網絡上抓取實時信息,也無法識別核實數據來源,易導致算法歧視、濫用現象的出現,因為訓練數據受限于數據的種類和內容的不足,使數據集可能存在某種價值偏見,則ChatGPT算法的輸出結果可能會產生有害的指引或者有偏見的內容。這種算法偏見產生的負面影響會隨著技術的廣泛應用不斷凸顯。

譬如,ChatGPT給予的答復中存在性別歧視和種族歧視的問題,可能會誤導使用者將具有歧視性的回答視為“正確答案”而作出錯誤的決斷,從而可能會對社會認知和倫理產生負面影響,甚至涉及國家安全、文化安全的風險。特別是在處理算法包容性的問題上,由于中西文化的根源及演進路徑不同,還會涉及對傳統文化和現實觀照之間的解讀、評價及傳播的問題,這些都可能會在ChatGPT的大規模語言模型訓練中被忽視或者選擇性忽略掉,亦有可能被特意地放大。為此,需要通過法律規則和科技倫理規則的融合,以穩妥地處理技術應用與技術規制之間的關系。

其三,ChatGPT可能引發著作權糾紛。

ChatGPT作為人工智能技術驅動的自然語言處理工具,它能夠通過學習和理解人類的語言來進行對話或寫作,并不是簡單地從某個模板中選擇內容,可以根據使用者提出的問題或者要求,進行內容創作,甚至已有研究者和學生借助ChatGPT撰寫論文,由此衍生出了關于著作權的兩方面問題亟待解決。一是ChatGPT撰寫論文的著作權歸屬問題,二是研究者使用ChatGPT撰寫論文是否構成學術不端的問題。這些問題給學術圈帶來了巨大的沖擊,也引發了學者們對如何規范使用此類技術的探討。這方面已經在有的國家和地區的現實反饋中予以體現,譬如,全球學術頂刊《自然》(Nature)雜志一周之內兩次發布有關ChatGPT的分析文章,探討諸如ChatGPT等大型語言模型(LLMs)給學術圈帶來的潛在混亂,生成內容存在的潛在侵權,以及如何規范使用等問題。

其四,ChatGPT可能存在數據安全隱患。

ChatGPT的運行需要大量數據的支持,其所采用的數據量多達上萬億,主要使用的是公共爬蟲數據集和有著超過萬億單詞的人類語言數據集。根據ChatGPT和OpenAI官網的《隱私政策》可以看到,用戶在使用ChatGPT時,會被采集有關用戶訪問、使用或互動的信息,相關負責人也表示,ChatGPT會使用每個客戶的一小部分數據樣本來提高模型性能,用戶若不希望數據用于提高性能,需要通過郵件向OpenAI發送申請。這意味著,包含用戶隱私以及用戶對話的數據可能會被OpenAI采集并存儲在其數據中心,隨著ChatGPT用戶數量暴增,其采集和存儲的用戶數據量也將非常龐大。

雖然,ChatGPT表示,存儲訓練和運行模型所需的數據會嚴格遵守隱私和安全政策,但在未來可能出現的網絡攻擊和數據爬取等現象下,仍存在不可忽視的數據安全隱患。特別是對涉及國家核心數據、地方和行業重要數據以及個人隱私數據的抓取、處理以及合成使用等過程中的安全保護與流動共享的平衡處置,這不僅涉及數據安全,還涉及國家安全、行業安全及個人安全等。

正視背后問題,未雨綢繆

目前,雖然ChatGPT暫未向中國開放,但如騰訊、百度等眾多國內科技巨頭紛紛表示將研發類ChatGPT的產品,因此,當前ChatGPT潛在的法律風險在未來也同樣可能會在我國出現,因此,必須正視ChatGPT產品爆火背后存在的問題,否則將可能引發對AIGC的信任危機,不利于我國AIGC相關產業的規范持續健康發展。

首先,需要完善AIGC領域的反壟斷法監管。

一方面,需進一步優化和明確AIGC領域的反壟斷法相關監管規則,提高反壟斷法律法規在相關應用場景的適用性。為此,仍然需要堅持且完善以替代分析法為主的相關市場界定方法,充分考量AIGC類產品的功能與技術特性,并在認定其市場支配地位的過程中,提高與支持AIGC相關的技術因素、硬件條件、場景因素,尤其是算法、數據、算力等要素優勢的考量比重。在判定行為競爭效果時,需權衡行為的積極和消極影響,兼顧激勵創新與保護競爭,在評估行為的負面影響的同時,也需考量行為對創新、經濟效率以及消費者體驗等積極影響。

另一方面,由于傳統反壟斷法的事后規制存在滯后性和局限性,難以有效應對動態變化和高技術性的AIGC領域的市場壟斷問題,因此,有必要分類分級、科學審慎地引入反壟斷事前監管方式,通過設置技術、資本、用戶等條件,抓住具體要素治理的綱目,明確AIGC領域需承擔特殊義務的平臺企業,設置行為“紅黃綠燈”,聚焦用戶、數據、算力、資本等可計量指標,從事前層面規范和約束相關平臺企業的行為,預防可能出現的扼殺式經營者集中、算法(壟斷)協議以及濫用市場支配地位等反競爭風險。

其次,要健全預防算法歧視的法律法規體系及規制機制。

一是要從源頭上規范相關技術所使用訓練數據樣本的非歧視性,要求相關企業及時檢查和更新數據庫,并移除可能存在歧視性的特定數據內容。二是要建立AIGC技術的算法問責制度,當AIGC生成的歧視性內容對社會以及相關主體的權益產生實質損害時,有必要完善相應的歸責體系,明確導致算法歧視的責任主體以及各主體應承擔的法律責任。三是要完善算法解釋與算法備案制度,提升人工智能算法透明度,并根據AIGC的應用場景對算法進行分級,加強對高風險算法和場景的審查,在可行的范圍內使用可理解和可解釋的方法,以便用戶、監督者和公眾酌情了解AIGC如何以及為何產生其輸出內容。

再次,要規范AIGC技術在進行內容創作時的行為。

一方面,要完善AIGC著作權歸屬相關規則。根據我國著作權法,人工智能暫不被視為著作權人,但可根據不同主體對生成內容價值的作用大小判定AIGC作品的著作權歸屬。這一點在司法實踐中已有體現,譬如,在騰訊訴網貸之家案中,法院經過審理最終裁定,爭訴的作品《午評:滬指小幅上漲0.11%報2671.93點通信運營、石油開采等板塊領漲》確系AI所創作,涉及的內容判定為具有獨創性,AI生成的作品具有著作權。雖然,AI尚不具有法律上的著作權人資格,但是,AI是由人設計創造,即其擁有者(AI copyright owner)可以享有其作品的相關著作權利,最后法院認定騰訊公司可享有相關信息網絡傳播權,這是國內首例有關AI作品著作權保護的案件。

進言之,ChatGPT 生成內容的價值源于其設計者算法的巧妙設計,則設計者擁有ChatGPT 生成著作的權利,工具使用者不得濫用或者非法使用ChatGPT 生成內容。若ChatGPT的最終生成內容是經由工具使用者反復調適,輸入變量等操作,使生成內容的價值遠大于其在一般運行狀態下生成的內容,則工具的使用者可以享有著作權。

另一方面,為避免學術不端問題的出現,需要制定AIGC技術在學術寫作的使用規范,明確可使用范圍和限度,并要求在文中規范標注ChatGPT技術生成的內容;在技術層面,需要基于ChatGPT技術生產內容的邏輯與特征,加強對ChatGPT生成內容的鑒別和識別。

最后,要從制度和技術層面加強AIGC領域的數據安全保護。

在制度層面,需要結合AIGC底層技術所需數據的特性和作用,建立健全數據分類分級保護制度,譬如可根據數據主體、數據處理程度、數據權利屬性等方面對訓練數據集中進行分類管理,根據數據對于數據權利主體的價值,以及數據一旦遭到篡改、破壞等對數據主體的危害程度進行分級。

在數據分類分級的基礎上,建立與數據類型和安全級別相配套的數據保護標準與共享機制,同時,AIGC還涉及數據跨境流通問題,應當在考慮國際通行標準和做法的基礎上,制定合理的跨境數據安全執法規則,加強與其他國家和地區規則的銜接,促進數據安全跨境執法合作。在技術層面,需要加快推動“隱私計算”技術在AIGC領域的應用,這類技術能夠讓多個數據擁有者在不暴露數據本身的前提下,通過共享SDK或者開放SDK權限的方式,在進行數據的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數據不泄露給其他參與方。

以ChatGPT為代表的AIGC領域具有巨大的發展前景,能夠帶來更多數字化創新的發展機遇,也已成為未來全球競爭與創新的重點方向,但我們也必須正視ChatGPT爆火背后潛在的法律風險,及時更新、科學完善AIGC領域的相關法律法規,建立健全相關行為規范和倫理指南,用系統觀念和法治思維及方法來推動AIGC在我國規范健康持續發展。

(陳兵系南開大學法學院副院長、教授、博導,南開大學競爭法研究中心主任,中國新一代人工智能發展戰略研究院特約研究員;林思宇系南開大學法學院博士生)

(文章來源:第一財經)

標簽: ChatGPT 人工智能

關閉
新聞速遞
主站蜘蛛池模板: 国产精品精品 | 小毛片| 国产精品成久久久久三级 | 草久久久| 久草热在线 | 亚洲精品综合精品自拍 | 日本久久久久久久久 | 在线观看视频免费播放 | 日韩免费高清 | 精品国产青草久久久久福利 | 中文字幕av网 | 嫩草影视在线观看 | 2021毛片 | 国产精品一区在线观看 | 日韩精品 电影一区 亚洲 | 久久久精品动漫 | 午夜精品一区二区三区在线 | 一级午夜 | 狠狠gao | 欧美性xxxxx 一二三区在线 | 免费一级毛片视频 | 久久久精彩视频 | 久久人人爽爽人人爽人人片av | 九九热在线播放 | 九九在线视频 | 一本色道精品久久一区二区三区 | 久久99国产精一区二区三区 | 性xxxx | www.欧美| 欧美视频在线观看 | 91啪国 | 国产美女久久 | 红桃视频一区二区三区免费 | 亚洲一区视频在线 | 国产综合视频 | 精品久久久久一区二区国产 | 欧美福利一区二区 | 亚洲欧美在线视频 | 亚色成人| 国产精品国产三级国产aⅴ入口 | eeuss影院一区二区三区 |