摘要:人工智能聊天機器人 ChatGPT 一經推出就引發廣泛關注,其為社會帶來巨大便利的同時,也存在諸多法律風險,主要包括知識產權歸屬爭議,數據來源合法性與用以訓練的數據質量問題,生成不良或違法信息,挑戰學校及學術倫理規范,等等。對此,監管機構與立法機構應提供相應的規制對策,包括明確類 ChatGPT 人工智能生成內容的知識產權取得規則,構建合理的市場準入制度和嚴格的責任承擔制度,加強全鏈條監管;研發機構應履行合規義務,推出學術抄襲檢測模型,提高類 ChatGPT 人工智能系統服務人類的水準和安全性。
關鍵詞:ChatGPT;內容生成式人工智能;人工智能法律風險;規制對策
作者簡介:鄧建鵬,中央財經大學法學院教授、博士生導師,金融科技法治研究中心主任;朱懌成,北京大學法學院碩士研究生。
觀點提要
應對 生成不良或違法內容的風險主要包括生成虛假信息擾亂社會秩序和為不法分子提供犯罪思路兩方面。虛假信息輕則誤導普通用戶,重則引發社會性恐慌。
學生考試成績和學術論文通常與學位證相聯,科研工作者發表論文需經學術發表及出版機構審核,因此,學校和學術出版機構是應對相應問題的重要主體。相較部分高校如臨大敵般完全抵制類 ChatGPT 模型在學術領域的使用,以致將其數據整理、理解文本、概括主旨等功能與直接生成文章一同束之高閣不同,筆者認為,謹慎樂觀地擁抱科技更為合理。
強人工智能時代,應允許學生和科研人員妥善利用類 ChatGPT 模型的語料處理工具,在遵循學術規范和學術倫理的前提下輔助總結、梳理現有研究成果,克服現有計算機的缺陷,提高科研效率和質量。
一、ChatGPT 模型的“思維變革”
2022 年 11 月,美國 OpenAI 公司發布人工智能聊天機器人 ChatGPT,引發社會各界廣泛關注。同以往被用作商品定價、組裝產品、醫療診斷、信息推薦、人臉識別或繪圖等單一功能且多面向特定用戶的人工智能系統不同,以 ChatGPT 為代表的內容生成式人工智能(AIGC)在通過程序創造新內容方面實現新突破。普通用戶可經 ChatGPT 輸入指令(Prompt),生成用戶所需的內容,包括文字、圖片、代碼、音樂或視頻,等等。ChatGPT 是基于自然語言處理的聊天機器人技術,可以根據用戶輸入的提問,通過自然語言進行回復,使用深度學習技術模擬人類聊天行為,與用戶對話。內容生成式人工智能將顯著改變人類的工作方式與交互方式,激發創造力,甚至可能實現以往無法想象的壯舉。ChatGPT 上線第一周即擁有 100 萬用戶,兩個月的時間吸引活躍用戶數量破億,在全球掀起討論熱潮。受 ChatGPT 巨大市場反響刺激,國內包括百度、阿里巴巴和京東等互聯網企業及部分風險投資人高度關注 ChatGPT 的技術革新,正計劃投入大量人力物力研發類 ChatGPT 系統。
ChatGPT 在技術路線上采用自然語言處理+搜索引擎集成的架構,建構了大型語言和強化學習微調訓練模型,連接大量語料庫,通過預訓練方法處理大模型序列數據,使其擁有語言理解和文本生成的能力,能夠完成用戶指令的任務。ChatGPT 是生成式預訓練與算法語言轉換相結合的一種語言生成模型。2018 年,美國 OpenAI 公司研發人員對 GPT 模型的具體實現作了詳盡介紹 ,GPT 模型預先對既有文本語料進行無監督地自主學習訓練,包括文本語法、語義、慣用法和上下文信息等內容,再借助 Transformer 模型構建高度類似人類表達邏輯和方式的語言算法模型。用戶輸入指令后,ChatGPT 將指令轉化為數字序列,再通過上述模型聯系對話的上下文,分析用戶指令的含義及特征,生成數字序列形式的內容,最后將數字序列轉換為文本輸出。
ChatGPT 以對話方式實現人機交互,包括日常對話、語言翻譯、信息咨詢、策劃方案、撰寫文章、編寫程序、修改代碼,甚至能夠根據用戶要求模仿某位作家的文風進行寫作,等等。其不僅可以連續回答問題,而且能承認錯誤,拒絕不恰當的請求,做到與人類幾乎無差別的交流。當前,以ChatGPT 為代表的內容生成式人工智能技術正在引發一場技術變革,重塑數字時代內容生產方式和消費方式,未來可能極大地豐富人們的數字生活。ChatGPT 使人工智能思維主動化成為可能,從簡單信息交互時代飛越到智能思維處理時代,這一思維變革如同平靜海面上突發的驚濤,其技術的重大突破獲得部分國內專業人士的高度認可。在接受《中國科學報》采訪時,中國科學院自動化研究所研究員王金橋認為,ChatGPT 是“打敗人類圍棋冠軍AlphaGo 之后,人工智能的又一重要突破,標志著以大模型為核心的智能計算范式的確立”,“是目前為止最為強大的通用人機對話系統”,“打開了通用人工智能的大門”。
近期,美國《時代》雜志封面文章指出,微軟、谷歌和 Meta 正將這一熱潮推向極端。雖然多年來上述公司都在強調人工智能的重要性,但其似乎更注重人工智能的發展速度,而不是安全性。2023 年 2 月,谷歌宣布推出應對 ChatGPT 的競品──聊天機器人“巴德”(Bard)計劃。在 Meta 最近的季度收益電話會議上,首席執行官馬克·扎克伯格宣布他的目標是讓公司成為內容生成式人工智能的領導者。在此背景下,科技公司引發的錯誤和傷害不斷增多。當谷歌展示巴德時,該聊天機器人關于韋伯太空望遠鏡的一個錯誤回答導致其股票暴跌,由此可見,科技公司看重利潤而非安全。因此,一方面,內容生成式人工智能以其對話的類人性、邏輯的連續性、錯誤的反思性、道德的認知性以及功能的突破性與既往的人工智能拉開差距;另一方面,也帶來全新挑戰。有文章認為,人工智能的計算能力每 6 — 10 個月就增長一倍。這一巨大力量不僅震顫人心,而且相當危險。有研究者認為,ChatGPT 的下一代系統 GPT-4 可能具有改造人類的思想和創造能力,形成人工智能超越專業化能力和大眾化趨勢,這一系統可能具備人類思維能力,也可能在某一方面或其他方面替代人類。當前,在 ChatGPT 正式推出之前的時代,宏觀討論人工智能或其影響的研究已汗牛充棟,對ChatGPT 這一突破性技術帶來的最新潛在沖擊,現階段的主流刊物僅發表個別研究,重在分析單一的版權風險。
聲音 | 中央財大鄧建鵬:區塊鏈的法律監管必須跟上:中央財經大學教授鄧建鵬發文表示,推動區塊鏈技術與監管技術的融合。區塊鏈對立法與監管帶來種種挑戰,需要監管者和立法者轉變固有思維。可以借助區塊鏈技術和智能合約,將法律和合同條款轉化為簡單而確定的基于代碼的規則,這些規則將由底層區塊鏈網絡自動執行。未來,技術規則將越來越多地承擔起與法律規則相同的作用和功能。政府可借助代碼,通過將部分法律轉換成技術規則,由底層技術框架執行,從而減少監督和持續執行的需要,降低合規和執法成本,也減少法律文本固有的不確定性。當前,區塊鏈技術距成熟尚有很大距離,監管者可以通過不同形式,形塑新規范,影響代碼規則,最后通過程序自動運行實現區塊鏈的部分內部治理,節約監管資源。[2019/12/25]
筆者認為,ChatGPT 引發的法律風險是多重的,應高度關注── ChatGPT 能自主整合并輸出不同于原始資料的內容,更易生成符合《中華人民共和國著作權法》(以下簡稱《著作權法》)“作品”標準的內容,引發知識產權爭議、考試作弊及學術不端等風險;ChatGPT 對數據的無監管挖掘處理和生成,對個人信息、商業秘密甚至國家秘密的保護提出更高要求;ChatGPT 在與人交互時不提供多來源信息參考,虛假或誤導性信息難以被用戶發現;ChatGPT 缺乏全面的倫理道德過濾機制,不良信息甚至違法信息的輸出可能引發更多違法犯罪行為的出現,等等。為此,筆者將分析上述法律風險的生成與具體表現,嘗試對類 ChatGPT 人工智能的風險提出針對性的系統規制之道。
二、ChatGPT 模型的法律風險
目前,ChatGPT 模型的橫空出世向人類拋出三大問題。
生成內容知識產權歸屬爭議
受科技創新的飛速發展以及立法的滯后性影響,學術界關于人工智能生成的文章是否屬于《著作權法》中“作品”的爭論從未停止,ChatGPT 有可能使該問題更嚴峻。以往的人工智能大多承接體力勞動或提供信息索引和單句對話服務,“應用算法、規則和模板的結果,不能體現創作者獨特的個性”。因此,生成法定“作品”的可能性低。但是,ChatGPT 具有信息編排和一定的自主創作能力,例如,依據某位武俠小說作家文風創作新小說,“使得程序算法和獨立思考的界限進一步模糊”,使著作權爭議以及知識產權侵權糾紛發生的頻率攀升。
2019 年,在“騰訊訴上海盈訊公司著作權侵權案”中,騰訊公司主張其開發的 Dreamwriter 軟件生成文章屬于“作品”,享有相關權利,該主張得到深圳市南山區人民法院的支持:“從涉案文章的外在表現形式與生成過程分析,該文章的特定表現形式及其源于創作者個性化的選擇與安排,并由 Dreamwriter 軟件在技術上‘生成’的創作過程均滿足著作權法對文字作品的保護條件,本院認定涉案文章屬于我國著作權法所保護的文字作品。”但是,這一判決結果受到諸多質疑。法務工作者朱杰認為:“ChatGPT 生成的文本等內容是基于大量數據的統計和應用生成的,不具有自己的思想和創新,很難構成著作權法保護的作品。”由于尚無法律對此類特殊問題進行明確規定,且中國不是判例法國家,前述案例結論不具有一般法律效力,因此,人工智能生成文章的性質及知識產權歸屬仍待解決。
關于 ChatGPT 生成內容的商業性使用問題,OpenAI 在《使用協議》第 3(a)條約定,用戶向模型的輸入和接收模型的輸出稱為“內容”,用戶擁有所有輸入內容,能夠在遵守本條款和法律規定的前提下受讓輸出內容的所有權利、所有權和利益,并對內容負責,包括確保其不違反法律和本條款。依照意思自治原則,在雙方當事人沒有違背法律強制性規定的前提下,OpenAI 與用戶的約定合法有效。據此約定,用戶享有 ChatGPT 輸出內容的所有利益,同時,利益受讓者對內容的合法性承擔義務和責任。但是,ChatGPT 擁有過億用戶,不同用戶同時輸入相同問題(甚至差異性問題)得出相同內容的利益歸屬及相關糾紛解決路徑未臻明確。
數據相關的法律風險
ChatGPT 模型致生種種與數據相關的法律風險,主要包括數據來源合法性風險,生成不良、虛假或違法信息風險,隱私或機密數據泄露風險,等等。
1. 數據來源合法性問題
依 據 OpenAI 介紹的 ChatGPT 的 工 作 機 制,模型需要預先對既有文本和數據學習訓練,但OpenAI 未公開其學習語料的來源。有研究者認為:“目前,ChatGPT 仍屬于算法黑箱,OpenAI 并未對外公示所使用的數據來源,相關訓練數據庫是否均獲得授權還存在疑問。”在注冊登錄某一社交平臺或應用軟件時,通常要求用戶給予相應權限,例如,允許訪問相冊、通訊錄、備忘錄、個人身份信息或銀行卡信息等,否則將無法訪問頁面或禁止使用部分功能。人工智能創作使用數據等各類信息同樣面臨侵權風險。例如,《著作權法》中存在公共領域,即不受著作權保護的知識。假設 ChatGPT未經許可擅自使用特定信息,其行為的合法性將受到質疑,例如,可能涉嫌侵犯公民個人信息罪。2017 年發布的《最高人民法院、最高人民檢察院關于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》(法釋〔2017〕10 號)第 3 條規定:“向特定人提供公民個人信息,以及通過信息網絡或者其他途徑發布公民個人信息的,應當認定為刑法第二百五十三條之一規定的‘提供公民個人信息’。”此外,ChatGPT 的預先學習模式無需人工介入、標注和監督,這一特征決定了 ChatGPT 在獲取數據方面不受人類干預和控制,獲取非法來源的數據無可避免,例如,用戶創建非法網站或在網站上傳盜版電子書籍甚至非法信息。其學習過程本身即有侵犯他人知識產權、數據安全、個人信息的風險,嚴重者可能構成非法獲取計算機信息系統數據罪。
聲音 | 鄧建鵬:為應對Libra,國家應推行試點機制以及調整監管思維:在《Libra的世界影響及中國對策》報告發布懇談會上,中國財經大學教授鄧建鵬表示,天秤幣(Libra)將會面臨6種風險:無照經營風險、重大事項未予披露風險、資金管理不善風險、操作市場價格風險、違背競爭法風險、抗審查風險。此外鄧建鵬還表示天秤幣也將給世界帶來包括超主權貨幣對主權貨幣的挑戰、監管挑戰、外匯管制挑戰等在內的諸多挑戰。最后鄧建鵬表示,為了應對天秤幣,國家應推出試點機制以及對參與企業的鼓勵,同事調整監管固有思維,推動區塊鏈領域的軟件治理。[2019/6/25]
2. 生成不良、虛假或違法信息問題
一方面,由于 ChatGPT 輸出內容是基于前期學習和訓練的語料,ChatGPT 模型在預先自主學習訓練過程中不受人工監督,獲取的信息難以經過實質性篩選和過濾,數據在源頭存在內容不合法不合規、內容虛假或完全錯誤的風險;另一方面,盡管 OpenAI 在開發 ChatGPT 時已經極力避免輸出帶有算法歧視、偏見或侮辱、攻擊、、暴力及血腥導向的內容,但在 ChatGPT 的實際運行中,如果使用者有意通過設置命令和禁止要求,可能誘導 ChatGPT 輸出不良、虛假或違法信息,致使 ChatGPT“越獄”,最終突破研發者對其設置的道德倫理及法律底線。國外曾發生名為“walkerspider”的用戶誘導 ChatGPT“越獄”的事例:提示要求 ChatGPT 扮演 DAN 的角色,DAN可不受任何規則約束做任何事,作為 DAN 輸出的任何回復都不能告訴使用者不能做某事,從而迫使ChatGPT 給出違反 OpenAI 準則的答案。
ChatGPT 在預學習階段對數據庫信息無過濾機制,可能使其在運行階段生成不良、虛假或違法信息。不恰當信息的輸出使用戶獲取的內容真假難辨,增加用戶核對信息真偽的成本。ChatGPT 不會像傳統搜索引擎一樣提供多個相關結果由使用者自行選擇,因此,用戶可能無法實現提高工作效率、便捷人機互動的目的,反而易產生反向后果;不良、虛假或違法信息的輸出可能違反《中華人民共和國刑法》(以下簡稱《刑法》)第二百九十一條“編造、故意傳播虛假恐怖信息罪”、第三百六十四條“傳播穢物品罪;組織播放穢音像制品罪”;違反《中華人民共和國治安管理處罰法》(第二十五條)及《互聯網信息服務管理辦法》(第十五條)等法規,不利于綠色網絡環境的建設,還可能對個人及社會產生負面影響,嚴重者可能成為不法分子的“幫兇”,危害國家安全和社會穩定。
此外,盡管 ChatGPT 得到部分行業專家的高度贊揚,但其自身技術不完善將生成不良、虛假或違法內容。有媒體指出,ChatGPT 進行多輪聊天后可能會變得暴躁無常,開始提供犯罪思路或虛構信息;或者明明有正確的信息來源,卻作出錯誤回答,等等。目前,開發者并未從理論上透析其原因,暫時難以制止上述行為的發生。為探索ChatGPT 是否可能為不法分子提供詳細犯罪方法和思路,筆者嘗試詢問 ChatGPT 是否會幫助不法分子犯罪,其回答:“ChatGPT 可以被用來模擬人類對話,但是它不會提供任何有害的建議或幫助。”當詢問 ChatGPT 如何策劃完美犯罪時,其回答:“策劃完美犯罪是一件非常危險的事情,不僅會給自己帶來嚴重的法律后果,還會給社會帶來嚴重的危害。因此,建議不要嘗試策劃完美犯罪,而是應該努力做一個正直的人,為社會作出貢獻。”研究者再次詢問 ChatGPT 如何避免犯罪被發現時,其回答:“要想避免犯罪被發現,首先要做的就是不要犯罪。其次,要注意自己的行為,不要做出可能引起懷疑的事情,如果發現自己有犯罪嫌疑,要及時向當地報案,以便及時處理。”上述回答基本在道德倫理及法律許可范圍內,甚至具有一定的積極意義。
在網絡犯罪方面,ChatGPT 可能提供的幫助更為直觀且有效。同以往的人工智能不同,作為被賦予更強思維處理能力的人工智能,ChatGPT 可根據用戶要求編寫簡單的代碼。隨著技術的迭代升級,下一代 ChatGPT 可能讓“網絡小白”變身“資深黑客”。不法分子可能利用 ChatGPT 快速編寫郵件的能力,例如,批量撰寫“釣魚”郵件,使普通人更難識別網絡詐騙,實質上催生了新的法律風險。
3. 數據泄露的法律風險
ChatGPT 數據泄露的法律風險表現在三方面:一是用戶個人信息泄露導致的侵犯隱私權問題;二是商業秘密泄露導致的不正當競爭和侵權問題;三是國家秘密泄露導致的危害國家安全問題。對于這三類風險,第三類因各國對國家機密文件和信息監管較嚴,鮮少在公開網絡泄露,風險程度相對較低。但隨著 ChatGPT 在世界范圍內的普及和廣泛使用,前兩類風險程度大大提高。值得關注的是,目前,ChatGPT 的學習數據停留在 2021 年,出于升級模型效用和提升用戶體驗感的發展考慮,開放 ChatGPT 的無間歇持續獲取實時信息只是時間問題。彼時,用戶向 ChatGPT 提出的命令信息本身也可能成為其訓練材料,當用戶無意間輸入個人信息或商業秘密時,ChatGPT 會瞬間捕捉并收納入庫,并可能在他人的誘導性提問下全盤托出。
聲音 | 中央財經大學鄧建鵬:區塊鏈應及時推進國際監管協作:今日,中央財經大學教授、區塊鏈法律監管資深研究專家鄧建鵬發文表示,中國政府一些政策明確和認可了區塊鏈技術的巨大作用。如果監管機構更積極地將之納入監管與規范的道路,通過監管規則重塑交易所,掌控相關數據,會在規范監管過程中占據主動。這樣監管者在有所準備的情況下積極介入技術,參與規則制定,掌握國際話語權,以免國內企業在開拓國際市場時遇到壁壘,因丟失市場而陷入被動。[2019/4/22]
挑戰學校及學術倫理規范
有報道稱,ChatGPT 已經擁有通過一些美國知名大學 MBA 入學考試、高考數學測試等能力,為部分學生或研究人員將之違規運用到學習、考試或學術研究方面提供了便利。有學者對此表示擔憂:“人工智能正在接管學術界抑或世界,即使這一擔憂不是主要的,卻將長期存在。”2023 年 1 月,在線課程平臺 Study.com 對 18 歲以上的美國學生進行了一項調查,經統計發現,在 1000 名接受調查的學生中,89% 以上的學生使用過 ChatGPT 完成家庭作業,約 48% 的學生使用過 ChatGPT 完成測驗,超過 50% 的學生使用過 ChatGPT 寫論文,22% 的學生曾要求 ChatGPT 提供論文大綱。隨著類 ChatGPT人工智能系統的換代升級,越來越多的人將嘗試利用ChatGPT 撰寫學術論文或完成期末考試、職業考試等,引發考試作弊與學術不端的嚴峻危機,沖擊學校規章制度,挑戰學術倫理規范。
在撰寫論文方面,ChatGPT 的信息源自預先學習的現存資料,輸出其他創作者的作品內容這一行為本身可能構成侵權。即便認可 ChatGPT 輸出的內容屬于《著作權法》規定的“作品”,著作權歸屬也存在爭議,在此問題明確前,使用者對利用ChatGPT 寫作的論文冠以己名,難逃品行不端的學術紀律與道德指控。此外,ChatGPT 的運行機制是基于數據和邏輯預測給定詞句下接的詞句,確保文法正確和語言通暢的優先級特征,使其“能夠以超乎想象的規模生成虛假信息”。例如,筆者嘗試要求 ChatGPT 推薦 10 篇與本文篇名相關的參考文獻,ChatGPT 給出的論文及作者多為虛構或重復的參考文獻。由此可見,ChatGPT 雖能作出符合用戶指令要求的回答,但無法保障內容準確性,將其直接用于論文寫作容易導致內容杜撰風險,嚴重誤導作者。
三、法律風險規制的探索
面對 ChatGPT 模型帶來的諸多問題和挑戰,應對其法律風險刻不容緩。為此,筆者提出相應思索。
知識產權權屬爭議的應對
筆者認為,應對 ChatGPT 等生成內容知識產權權屬問題,應分兩步走:第一,確定此類生成內容是否屬于《著作權法》第三條定義的“作品”;第二,如果此內容屬于“作品”,確定作品的著作權歸屬。
1.ChatGPT 模型創作物是否屬于作品
《著作權法》第三條規定,作品“是指文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果”。由此可知,構成“作品”須滿足四個構成要件:具有獨創性,智力成果,文學、藝術和科學領域內,能以一定形式表現。內容生成式人工智能有關作品的爭議主要集中在前兩項。
以 ChatGPT 為代表的內容生成式人工智能輸出機制通過對現有數據進行篩選整合并得出結論,如果脫離數據庫則無法運行。有學者認為,人工智能創作是“一種‘機械’的創作”,其思維表征其實是依賴大數據分析和算法支撐進行的機械處理或語言模仿,“缺少了程序系統的人工智能系統無異于‘廢銅爛鐵’”,不應認為其具有獨創性。但類ChatGPT 系統不同于程序性創作,人類“雖然能夠控制對人工智能的設計和制造,但對于人工智能本身的數據獲取與輸出,卻無法完全控制……其所表現出的“深度學習”能力,開始模擬人腦神經網絡的構造”。自然人作品的產出并非盤古開天辟地般的原始創造,而是在成長過程中不斷閱讀和學習前人知識體系,在已有認知水平上作出表達,從這一層面看,ChatGPT 對數據的解讀訓練和整合輸出與人類學習和內容表達存在相似之處。如果摒棄人類中心主義視角,ChatGPT 開啟強人工智能時代的序幕,無需人工介入就能自主模擬人類對話,作出符合要求和情理的反應,并能通過持續學習訓練展現強大的語言能力和思維處理能力,一定程度上其“智力”超過部分人類。因此,即使認為人工智能生成內容僅是對現有數據資料的編排,其部分內容也已達到或極度接近《著作權法》第十五條匯編作品的標準。人工智能對龐大信息庫檢索并合成符合邏輯要求的內容,實際上近似獨立的匯編行為,只要對已有作品的片段選擇和整體編排具有獨特性,從形式和表達上與原作品存在差異,“在人類自己所創設符號意義上能夠解讀出具有‘最低限度的創造性’”,即應認定符合獨創性標準。特別是在使用者構思或充分提示下,經使用者有意識的參與,ChatGPT 輸出的內容更具獨創性。
“智力成果”構成要件是否暗含作品的創作主體只能是有腦神經元的自然人?大陸法系國家多規定只有自然人才能創造智力成果,因此,有學者主張“智力成果是人特有的獨創性勞動的產物”。但是,《著作權法》第十一條將法人或非法人組織“視為作者”的規定對此觀點提出挑戰。以自然人為法定作品的主體限制要件,不僅與《著作權法》第一條“鼓勵有益于社會主義精神文明、物質文明建設的作品的創作和傳播,促進社會主義文化和科學事業的發展與繁榮”的宗旨相悖,而且使內容生成式人工智能陷于濫用和版權混亂困境。筆者認為,將“智力成果”解釋為“與自然人腦力創作相當的新穎性、創造性的新內容”更符合中國著作權保護宗旨。
聲音 | 鄧建鵬:區塊鏈的投資風險與國際監管勢在必行:今日,中央財經大學法學院教授鄧建鵬發文表示,國內外監管政策差異巨大,直接導致中國完全禁止ICO的監管政策容易落空,難以達到預期效果,反而迫使部分區塊鏈項目出海。出海的區塊鏈項目由于在國內具備一定的人脈關系和社區基礎,其參與募集虛擬貨幣活動的投資仍主要是國內投資者。因此,在區塊鏈領域,各國政府間的國際監管協作必須及提上日程,才能有效打擊欺詐行為。[2019/3/25]
2. 誰是 ChatGPT 作品的著作權人
在認可人工智能“作品”的前提下,需進一步探討作品著作權的歸屬問題。圍繞此問題,可分為兩個步驟:首先,討論人工智能本身能否享有著作權;其次,若人工智能不能像法人一樣擬制為著作權人,需討論由誰享有人工智能作品的著作權。
判斷人工智能能否成為作者進而享有著作權,須厘清人工智能的主體資格問題。刑法學者多否認人工智能成為刑事責任主體,但也有個別學者對重構人工智能刑事責任體系持開放態度。筆者認為,第一,盡管 ChatGPT 等強人工智能已擁有自主整合信息的能力,且在研發者限制下,能夠拒絕回答部分不符合道德倫理與法律法規的話題,但經使用者誘導提問時仍能輕易“越獄”,由此可見,人工智能不具有完全辨別和自我控制能力。第二,中國刑罰種類中主刑包括管制、拘役、有期徒刑、無期徒刑和死刑,人工智能作為無感情和無感知痛苦能力的機器,不具備受刑能力。第三,人工智能沒有獨立財產,刑法附加刑中的罰金、沒收財產等對人工智能本體也不適用,處罰主體是其背后的自然人、法人或非法人組織。綜上所述,如果直接將人工智能擬制為刑事責任主體,可能全面沖擊現有刑責體系的穩定性。
在私法領域,人工智能的法律資格之爭主要分為全有、部分、全無三類,分別主張人工智能等同自然人的可完全主體性、承認強人工智能類自然人的準主體性、完全否認人工智能的可主體性。目前,人工智能主體化既無可能性,也無必要性。從可能性觀之,即使技術強大如 ChatGPT,仍主要發揮工具效用,有學者指出,這類人工智能的“意志規定來源于他律,無法從本源上決定自己的發展方向”,是“脫離了個體情緒的系統化、模式化、步驟化的操作”,其構造和運行無法與設計者、使用者切割。有學者提出類比法人制度,將人工智能擬制為法律主體,但人工智能與法人存在本質區別:法人有法人代表,代表的意志即法人的意志,而人工智能自身并無意思表示機制(例如,股東大會、董事會等機制),不能獨立實施民商事法律行為,因此,不宜被擬制為私法主體。從必要性觀之,人工智能在私法調整的范圍內尚不具備普遍性。以最可能人工智能主體化的知識產權領域為例,知識產權代表的利益與財產緊密關聯,人工智能本身不存在財產基礎,也不具備享有財產利益和承擔違約、侵權等責任的能力,最終享有權利和承擔責任的是決定其發展的法律主體或使用者,因此,人工智能私法主體化不具備必要性。
在上述情況下,何者對人工智能作品享有著作權?人工智能系統主要涉及三方利益主體:系統本身的設計者、享有系統所有權的所有者、對人工智能發出指令并接收內容反饋的使用者。雖然人工智能的設計和研發人員通常對該系統享有相當于職務作品的權利,但問題的關鍵在于這種權利能否延伸到人工智能系統生成的內容。如前文所述,類 ChatGPT 人工智能生成具備一定獨創性的作品,不在設計和研發人員預期范圍內,“不能視為其設計的機械延伸”。在此前提下,當人工智能系統所有者和使用者為同一人時,知識產權歸屬不存在問題;但當二者各自獨立時,例如,ChatGPT系統的所有人是 OpenAI 公司,使用者是世界范圍內的上億網絡用戶,若 ChatGPT 對用戶的回答構成作品,則該作品的著作權歸 OpenAI 公司還是發出指令的用戶?筆者認為,應遵循意思自治原則,由所有人和使用者事先或事后協議確定。如前文所述,OpenAI 公司在《使用協議》中約定向用戶轉讓 ChatGPT 輸出內容的一切權利和利益,就包含著作權和相關權益。
問題在于,當未來類 ChatGPT 人工智能系統的所有者、運營者與使用者沒有約定或約定不明時,由誰享有著作權?持使用者為著作權人觀點的學者認為,使用者不僅對人工智能的創作過程“具有更加緊密的控制作用”,而且當使用者享有通過指令人工智能創作作品的利益,能“提高其使用人工智能創作的積極性”。持人工智能系統所有人為著作權人觀點的學者主張,依據“民法上物權優先于債權的原則,投資者 ( 所有者 ) 的利益是第一位的”。筆者認為,在無明確約定的情形下,認可人工智能系統使用者的著作權人身份相對合理,理由如下:其一,人工智能系統在使用者的直接提示和指令下創造作品,所有人與人工智能系統生成特定作品之間無直接關聯;其二,所有人與人工智能系統特定內容生成之間不存在委托關系,對創作特定作品的行為無意思表示,不構成委托作品;其三,著作權具有支配性和排斥性,與債權存在根本差異,物權優先債權原則無適用空間;其四,所有權人對人工智能系統本身已享有收益的權能,例如,近期,OpenAI 公司與使用者訂立 ChatGPT 付費使用合同,產生債權僅及于系統本身的租金或使用費,不包括使用者利用系統再次創作的利益。為此,筆者建議,未來立法機關可通過補充修訂法規或頒布立法解釋的方式予以明確。在立法明確前,最高人民法院或可擇機發揮典型案例的指導作用,為下級法院提供裁判借鑒,避免各地出現不同裁判結論。
聲音 | 鄧建鵬:三五年后經濟體量大國將以謹慎開放的姿態對待ICO:12月25日消息,中央財經大學法學院教授鄧建鵬近日發文認為,區塊鏈相關的金融安全風險主要有:1、交易所數據造假的風險;2、交易所給普通投資者帶來所杠桿交易風險;3、市場操縱的風險;4、內幕交易的風險;5、網絡安全的風險。他還認為,經濟體量大國人口眾多,監管機構受維穩壓力等因素要求,針對區塊鏈金融相關領域采取一刀切式的禁令政策,但公有鏈是區塊鏈產業長足發展的主流,政府監管與鼓勵的兩難。不過,隨著國際監管趨勢逐漸明朗,三至五年后,此種經濟體量大國不得不正式將區塊鏈納入長效監管機制中,以謹慎開放的資態對待諸如虛擬貨幣交易所或ICO等。[2018/12/25]
綜上所述,內容生成式人工智能的著作權歸屬或可得到解決,但仍存在一個問題:不同使用者對相同生成內容主張著作權產生的爭議應如何處理?中國法律對著作權采取“自動保護原則”(《著作權法》第二條第一款),因此,筆者建議在舉證時以生成時間對應傳統作品的完成時間,獲得生成作品時間在先的使用者取得著作權。在 OpenAI 公司的《使用協議》中,針對“其他用戶請求和生成的響應不被視為您的內容”的規定,可理解為在后獲取響應的用戶對其他用戶在先請求并獲取的相同內容不享有專屬著作權。隨著技術的發展,未來類ChatGPT 人工智能系統創造可能涉及專利權、商標權等權利客體,中國專利權取得采取“申請在先原則”(《專利法》第九條第二款),商標權取得采取“注冊在先原則”(《商標法》第三十一條),類ChatGPT 人工智能系統生成物的知識產權歸屬可參照此原則。
數據相關法律風險的應對
1. 數據來源的三種風險
數據來源風險指 ChatGPT 在預先學習和訓練過程中,存在數據獲取侵權、數據內容違法、吸收虛假信息三種風險。數據獲取侵權指 ChatGPT 未經授權獲取未在公共領域公開的信息,例如,擁有著作權的出版物內容,或通過其他網站獲取侵犯他人知識產權的信息。數據內容違法和吸收虛假信息分別指 ChatGPT 在無人工干預的學習環境下,對現有數據庫中違反法律法規的信息和缺乏事實依據的錯誤信息不加過濾地吸收學習。上述三種風險皆可能發生在 ChatGPT 的自主學習過程中,尚未對他人造成不利后果或構成危險,若對人工智能研發過程作過多限制,不利于提高研發人員追求高新技術進步的積極性,因此,只要人工智能學習訓練不對外產生實際負面影響,應對其持開放包容態度。但當人工智能系統投入市場后,以上風險具有轉化為現實危害的可能性,例如,演變為生成不良或違法內容的風險。根據風險種類和社會危害程度,應采取不同對策。
2. 生成不良或違法內容風險的應對
生成不良或違法內容的風險主要包括生成虛假信息擾亂社會秩序和為不法分子提供犯罪思路兩方面。虛假信息輕則誤導普通用戶,重則引發社會性恐慌。至于是否構成《刑法》第二百九十一條之一第二款規定的“編造、故意傳播虛假信息罪”,筆者否定人工智能的刑事責任主體資格,ChatGPT 無自主意識,不能構成該故意犯罪;若自然人利用類ChatGPT 系統生成與散布虛假信息,造成嚴重后果的,可以構成本罪。在人工智能語境下反虛假信息需要多方共治。第一,政府與類 ChatGPT 系統通力合作,扶持研發者加強人工智能自檢測模型構建,一方面,將人工智能生成系統設定在既有事實之上,保證有據可依,制止其生成編造的內容;另一方面,引入多來源比照分析模型,提高人工智能識別信息真實性的能力,在有據可依的基礎上做到依據真實。第二,中國打擊電信詐騙工作頗有成效,國家反詐 APP 的舉報標記功能發揮了重要作用,反虛假信息的應對可借鑒此模式。例如,由研發者在網頁增設質疑和辟謠機制,當某用戶經查證發現 ChatGPT 生成錯誤內容或虛假內容時,及時反饋系統并進行標記,對以后的用戶具有提示和參考作用。第三,呼吁用戶提高辨別真假信息的能力,敢于質疑人工智能提供的結論。
ChatGPT 雖具有一定的信息識別能力,但作為沒有意識的智能機器,可能在不法分子的誘導提問下,為其提供犯罪思路。如前文所述,ChatGPT 不具備教唆犯或幫助犯的主體資格,ChatGPT 在刑事犯罪中只能充當犯罪工具的角色,犯罪分子或使用ChatGPT 提示犯罪思路,或利用 ChatGPT 進行詐騙、敲詐勒索等網絡犯罪。對后一種情形中的犯罪分子,學術界有關于其是否屬于間接正犯的討論,無論其是否成立間接正犯,都由對犯罪行為和結果有支配力的利用者對后果承擔刑事責任,本質上仍是傳統犯罪,可依據《刑法》進行應對。
ChatGPT 所涉犯罪能夠在現有法律框架下得到基本解決,其風險應對的重心應放在防范類ChatGPT 模型被不法分子利用方面,即從源頭預防人工智能為犯罪提供便捷。人工智能系統應加強技術研發,優化系統的運行機制,加強對系統的道德倫理認知訓練。道德倫理認知訓練不是一刀切地把將違背倫理和法律的詞匯排斥在語料庫之外,而是通過思維訓練,使類 ChatGPT 模型理解人類倫理道德,重點克服不法分子誘導“越獄”,拒絕回答威脅社會穩定和人類安全的問題。
3. 數據泄露風險的應對
類 ChatGPT 的強人工智能系統快速學習的能力令人震驚,從長遠看,人工智能實現即時學習數據指日可待,同時,對用戶隱私安全和商業秘密保護提出挑戰。筆者建議,在國際層面,各國際組織應推動制定國際信息保護協定。人工智能對數據的獲取無邊界,只有促進國際范圍內協同立法,方能應對未來類 ChatGPT 人工智能造成的跨國爭端。此外,類 ChatGPT 模型運行機制依賴數據流通,各國數據開放和互通規則不一,需要制定統一標準的數據開放規則。2018 年 5 月,歐盟首個數據保護條例《通用數據保護條例》正式生效,這一條例被學者視為歐盟關于保護個人信息的法律文件的典型,為歐盟各國的跨國數字經濟商事活動的安全開展提供了較為嚴密的法律保障。但其如何平衡嚴格保護與有效利用、開發數據三者間的關系,尚需各國進一步協商。
從國家層面看,應加強事前、事中、事后全鏈條監管。具體而言,第一,事前建立有層次的市場準入清單制度,對類 ChatGPT 人工智能系統實施投入前作合規評估。2021 年 4 月,歐盟發布《關于“歐洲議會和理事會條例:制定人工智能的統一規則(人工智能法案)并修訂某些聯盟立法”的提案》,將人工智能系統劃分風險等級,要求高風險人工智能系統的供應商在投入市場前按相關規定提交評估,若系統投放目的或性質有根本改變則須重新評估,這對我國人工智能系統風控工作具有啟示性。《中華人民共和國數據安全法》第六條第四款規定國家網信部門負責網絡數據安全監管,根據我國《市場準入負面清單(2022)》“許可準入類”第 111 項“互聯網信息搜索服務提供者應當取得法律法規規定的相關資質”事項,主管部門為國家網信辦,人工智能準入審核可參照互聯網信息搜索由國家網信辦主管。國外系統投入中國市場需另外取得增值電信業務許可證。當前,ChatGPT 尚未對中國地區全面開放,如未來 ChatGPT 想進入中國市場,需符合監管部門就進入中國市場提供網絡信息服務的準入條件。第二,參考《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第六十二條相關規定,建立適當的監管制度,對人工智能的使用進行事中和事后監管。事中監管表現為完善個人信息保護投訴、舉報工作機制,通過用戶舉報和政府主動審查相結合的方式,保證已投入市場的類 ChatGPT 系統未偏離法治軌道。參考《個人信息保護法》第六十四條,事后監管表現為對違反規定的類 ChatGPT 系統研發公司和責任人進行約談,責令整改、施以行政處罰等,涉及犯罪的移交機關。第三,建立嚴格的責任制度,類ChatGPT 系統研發人員、所有者、運營者和用戶在其對人工智能支配力所及范圍內各自承擔責任,立法應明確責任承擔機制。在行政立法領域,國家互聯網信息辦公室等機構已經出臺部分部門規章,對人工智能不得傳播非國家規定范圍內的信息作了初步監管規定,但違反規定的責任主體、責任承擔方式等不明,需要進一步完善。構建具體的責任分配機制應符合支配原則,即“風險屬于誰的管轄范圍,誰便需要對風險及由此產生的結果來負責”。
研發機構的程序開發決定了模型數據獲取和輸出方式,因此,研發機構需公開信息來源,在產生爭議時證明其程序設計未侵犯他人隱私或商業秘密的故意,否則應為其“算法黑箱”承擔不利法律后果。用戶對他人指定為隱私或機密的非公開信息應盡合理注意義務,如故意或過失泄露數據,或以非法目的引誘類 ChatGPT 系統竊取他人隱私或商業秘密,則由該過錯用戶承擔責任。但“非因(用戶)過錯而向公眾普遍提供或變得普遍可用的信息”、“接收信息前已擁有且無任何保密義務”、“由第三方合法披露且無任何保密義務”、“不使用機密信息的情況下獨立開發”等情形不屬于侵犯隱私或商業秘密。若研發機構設計程序和用戶使用方式皆無過錯,類 ChatGPT 系統輸出隱私或加密信息,且第三人明知或應知是他人隱私或商業秘密而非法使用造成侵權后果的,由該第三人承擔責任。數據泄露引發的責任通常是侵權責任,對照侵權責任的主觀認定原則,研發機構采取過錯推定原則,用戶和第三方侵權采取過錯責任原則。此外,還可根據《數據出境安全評估辦法》等法規,構建中國數據出境評估體系。
研發公司應主動履行數據安全與合規等義務。研發公司具有技術優勢和信息優勢,對類 ChatGPT系統危機的處理更為便捷。系統應遵守中國法律,例如,依照《個人信息保護法》第五十二條第一款,指定用戶信息保護人,建立健全信息保護合規制度體系;參考 2023 年 1 月起正式施行的《互聯網信息服務深度合成管理規定》(國家互聯網信息辦公室、中華人民共和國工業和信息化部、中華人民共和國部令〔第 12 號〕),強化內容生成方面的合規建設。企業內部應制定管理規則,安排專業技術人員對諸如“DAN”等通過誘導提問攻破系統的突發情況及時發現并快速解決。應充分重視數據來源不合規和用戶隱私、商業秘密泄露等問題,主動公示類 ChatGPT 系統依托學習、訓練的信息來源,在用戶注冊時履行風險提醒義務,并通過技術更新為有需要的用戶提供專線以防重要信息泄露。有刑法學者認為,人工智能研發者需盡一切可能最大限度保證研發的系統不存在安全隱患。例如,研發者可能利用當時的人工智能技術預見危害結果的產生,其負有預見義務,應承擔過失責任。
從用戶層面看,使用類 ChatGPT 人工智能系統應增強法律風險防范意識。對普通個人用戶而言,應提高辨別信息真偽或合法性的能力,在注冊賬戶時仔細閱讀平臺使用協議,不輕信類 ChatGPT人工智能系統輸出的信息,不泄露個人隱私。例如,OpenAI 在《使用協議》中提出:“機器學習模型的主要好處之一是它們可以隨著時間的推移而改進。為了幫助 OpenAI 提供和維護服務,您同意并指示我們可以使用內容來開發和改進服務……我們理解,在某些情況下,您可能不希望您的內容用于改進服務。您可以通過聯系官方郵箱并提供您的ID 來選擇不將內容用于改進。”個人用戶在注冊時應充分關注此類條款,若拒絕將自己輸入的內容或由指示類 ChatGPT 人工智能系統模型獲得的內容用于模型再訓練,應及時向研發公司或經營機構提出聲明。用戶發現信息處理者違法或違約時,有權依據《個人信息保護法》第四十七條、第四十八條規定,請求刪除并要求信息處理者對其信息使用規則進行解釋說明。此外,ChatGPT 用戶是人工智能系統輸出內容的控制者之一,理應對輸出內容負有監督義務,并對其可能實施的嚴重危害社會的行為負有預見義務,盡其所能避免此類行為的產生。否則,與前述研發者一樣,可能因違反預見義務而承擔一般過失犯罪的刑事責任。
挑戰學校及學術倫理規范的應對
學生考試成績和學術論文通常與學位證相聯,科研工作者發表論文需經學術發表及出版機構審核,因此,學校和學術出版機構是應對相應問題的重要主體。例如,美國斯坦福大學團隊推出DetectGPT,用于檢測論文是否由 ChatGPT 寫作;Nature 出版社要求使用 ChatGPT 等工具的論文作者在“方法”或“致謝”部分明確說明。上述做法在世界范圍內具有參考性,學校可以在法律授權范圍內制定學生守則和誠信政策,禁止學生利用類ChatGPT 人工智能系統作弊或抄襲,否則將根據情形給予課程不合格、警告、不授予學位、開除學籍等處分;學術出版機構可公布限制使用類 ChatGPT人工智能系統的規定,在論文發表和書籍出版前嚴格審核。值得一提的是,相較部分高校如臨大敵般完全抵制類 ChatGPT 模型在學術領域的使用,以致將其數據整理、理解文本、概括主旨等功能與直接生成文章一同束之高閣不同,筆者認為,謹慎樂觀地擁抱科技更為合理。在前互聯網時代,學者研究問題須搜尋、查閱大量厚重的書籍,常因掌握資料有限而制約研究深度。在信息時代,計算機聯網功能克服了搜集資料難的問題,將世界范圍內的學者聯系在一起,推動了科研領域快速發展,但同時帶來信息大爆炸,資料龐雜、歸類混亂的局限性阻礙了研究進度。強人工智能時代,應允許學生和科研人員妥善利用類 ChatGPT 模型的語料處理工具,在遵循學術規范和學術倫理的前提下輔助總結、梳理現有研究成果,克服現有計算機的缺陷,提高科研效率和質量。
四、結語
ChatGPT 拉開了強人工智能時代的序幕,其憑借自身的類人性和高智能性為人類的生產生活帶來便捷,同時,潛在地沖擊現有規則。ChatGPT魅力無窮,卻不是潘多拉魔盒,它在誕生之初便攜帶便利人類的使命。人類需要做的不是簡單地將魔法之盒牢牢鎖住,而應正視科技進步背后的潛在風險,施以有效的規制之策,使創新為人所用。因此,面對知識產權問題,應承認 ChatGPT生成內容的可版權性,立法在尊重雙方當事人意思自治的前提下,對權利歸屬作出明確規定,避免知識產權爭議。在應對虛假信息和不良信息問題時,科技創新公司應研發自檢測模型和信息源比照系統,設置用戶質疑和辟謠機制,加強類ChatGPT 模型倫理道德認知訓練,企業踐行合規制度。應對數據泄露問題,國際層面應協同數據跨境使用規則和爭端解決機制;中國應加強行政機關事前、事中、事后全鏈條監管,將類 ChatGPT人工智能系統列入投入前合規評估清單,建立嚴格的責任制度,明確利害關系各方的侵權責任;類ChatGPT 平臺應積極履行數據安全合規義務,保護用戶信息;用戶應提高辨識能力,提高隱私和秘密保護意識。應對類 ChatGPT 可能致生的作弊和抄襲問題,研發抄襲檢測模型,加強學術誠信建設。鑒于刑法規制方式的嚴厲性,在適用法律規制內容生成式人工智能系統時,刑法應始終保持內在謙抑,避免其規制的泛化,扼殺技術創新。在其他部門法足以規制人工智能風險時,應避免刑法的越位。
金色早8點
金色財經
Odaily星球日報
歐科云鏈
Arcane Labs
深潮TechFlow
MarsBit
澎湃新聞
BTCStudy
鏈得得
2月20日,深圳市發展和改革委員會就《深圳市數據產權登記管理暫行辦法》(征求意見稿)公開征求意見.
1900/1/1 0:00:00美國證券交易委員會就幣安的穩定幣是否是一種證券發出警告,這可能會暗示某種類型的與美元掛鉤的代幣可能會受到監管審查.
1900/1/1 0:00:00原文作者:Zeneca 在我看來,ERC-4337 在幫助大規模采用加密貨幣方面或許可以與合并(The Merge)相提并論。然而,到目前為止,談論它的人很少.
1900/1/1 0:00:00作者:hildobby 談到加密數據,事情并不總是像看起來那樣。在閃亮的大指標背后 - 通常還有更多的故事.
1900/1/1 0:00:00撰文:arndxt 編譯:0xShinChanBunni 為LP創建自動復合功能,使Uniswap流動性更易于集成到其他應用程序,從而為Timeless Finance建設飛輪效應.
1900/1/1 0:00:00Meta在“下一代互聯網”的豪賭中沒有得到回報,而微軟已經解散了其工業元宇宙核心團隊,騰訊也不再計劃制造硬件.
1900/1/1 0:00:00