<option id="eiswy"></option>
<center id="eiswy"></center>
<noscript id="eiswy"></noscript>
<optgroup id="eiswy"><div id="eiswy"></div></optgroup>
<center id="eiswy"></center>
<center id="eiswy"></center>
關注我們
荊楚網 > 最新播報

ChatGPT火爆背后有何法律風險?

發布時間:2023年02月13日07:16 來源: 法治日報

調查動機

最近,由美國人工智能研究室OpenAI開發的全新“聊天機器人”ChatGPT火了。作為一款人工智能語言模型,它不僅能和人展開互動,還可以寫文章、制定方案、創作詩歌,甚至編寫代碼、檢查漏洞樣樣精通,上線僅兩個月全球活躍用戶破億。

對此,有人直呼“太好用了,你要什么它就給什么”,也有人擔憂“一些工作將被它取代”。

ChatGPT的問世掀起了新一輪人工智能浪潮,但其使用過程中可能涉及的法律問題不容忽視,記者對此進行了調查采訪。

□ 本報記者   韓丹東

□ 本報實習生 王意天

ChatGPT火了,在國內連續多日沖上熱搜榜,一時與ChatGPT相關的各種信息遍布網絡。

ChatGPT全稱“Chat Generative Pre-trained Transformer”,按照其自我介紹,它是一個由OpenAI訓練的大型語言模型,被設計用來回答各種問題并為人們提供幫助。

人工智能、人機交互、自動問答……與ChatGPT相關聯的各種“高大上”的形容詞讓不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人擔憂的那樣,可以取代文本創作等類型的工作?

《法治日報》記者近日采訪發現,ChatGPT的火爆背后暗藏法律風險隱患。人工智能在給人們的生活增添樂趣、提供便利的同時,其信息真偽、知識產權等法律風險也愈發受到關注。另一方面,不少人盯上了其熱度想“搭便車”牟利,出現了大批“山寨”產品和賬號轉賣行為。

存在信息泄露風險

可能侵犯知識產權

ChatGPT爆火后,很多博主拍攝了測評視頻。不少人給出評價稱,面對一些提問,ChatGPT反應速度、準確性較高,表現甚至優于一些搜索引擎。但ChatGPT的回答通常是籠統的、整合性的回答,而不是具有個性色彩的、創新性的回答。

公開資料顯示,ChatGPT可以總結研究論文、回答問題、生成可用的計算機代碼,甚至快速通過美國醫學執照考試、沃頓商學院的MBA期末考試、司法考試。一些醫學論文預印本和已發表的文章甚至正式賦予了ChatGPT作者身份。

但在受訪的法律人士看來,ChatGPT的強大功能也隱含著不少法律風險。

“ChatGPT對信息、數據來源無法進行事實核查,可能存在個人數據與商業秘密泄露和提供虛假信息兩大隱患?!北本┯?上海)律師事務所互聯網法律事務部主任謝連杰說。

謝連杰分析說,ChatGPT依托海量數據庫信息存在,其中包括大量的互聯網用戶自行輸入的信息,因此當用戶輸入個人數據或商業秘密等信息時,ChatGPT可能將其納入自身的語料庫而產生泄露的風險。雖然ChatGPT承諾刪除所有個人身份信息,但未說明刪除方式,在其不能對信息與數據來源進行事實核查的情況下,這類信息仍然具有泄露風險。

其次,人工智能生成的信息并不總是準確的,ChatGPT常常出現“一本正經地胡說八道”的情況,需要一定的專業知識才能辨別真偽;也可能有不法分子惡意“訓練”人工智能,使其提供詐騙信息、釣魚網站等內容,損害公民人身財產安全。

“對于這類隱患,平臺應充分提示用戶其生成的內容可能為虛假信息,且在其生成疑似違法信息時進行攔截或提示用戶存在安全風險?!敝x連杰說。

泰和泰(重慶)律師事務所高級合伙人朱杰說,ChatGPT在建立語料庫、生成文本時,如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實施的,可能會導致侵權。

他解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本,進而統計分析,因此,對于一些受著作權保護的文本、視頻、代碼等,如果沒有經過權利主體的授權,直接獲取復制到自己的數據庫中,并在此基礎上修改、拼湊,極可能侵害他人的著作權。

2019年,國際保護知識產權協會(AIPPI)發布《人工智能生成物的版權問題決議》,認為人工智能生成物在其生成過程中有人類干預,且該生成物符合受保護作品應滿足的其他條件情況下,能夠獲得保護,對于生成過程無人類干預的人工智能生成物無法獲得版權保護。

近日,多家國內學術刊物針對ChatGPT發聲?!遏吣蠈W報(哲學社會科學版)》發布關于使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯合署名的文章。在論文創作中使用過相關工具,需單獨提出,并在文章中詳細解釋如何使用以及論證作者自身的創作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理?!短旖驇煼洞髮W學報(基礎教育版)》發布聲明,建議作者在參考文獻、致謝等文字中對使用人工智能寫作工具(如:ChatGPT等)的情況予以說明。

朱杰認為,ChatGPT生成的文本等內容是基于大量數據的統計和應用生成的,不具有自己的思想和創新,很難構成著作權法保護的作品。

謝連杰提到,ChatGPT的文本數據挖掘技術可能導致其在他人享有著作權的作品中“借鑒”部分內容。對于這部分內容,若不能構成我國著作權法所規定的“合理使用”的情形,則可能引發侵權糾紛。

借勢販賣租賃賬號

“搭便車”山寨頻出

ChatGPT走紅后,由于服務端對中國大陸的IP有限制,無法注冊使用,其賬號一時在國內多個網購平臺、社交平臺上銷售火熱。在某電商平臺上售賣成品賬號的店鋪,一天之內多達萬人付款,價格最低1.68元。

記者在一家名為“ChatGPT賬號供應商”的店鋪購買了賬號,商家隨后私聊發來賬號和密碼,并特別標注輸入時需要復制粘貼,還附有登錄教程。登錄后,記者發現這是一個多人共享賬號,左側聊天欄已經存在許多聊天窗口,系統運行十分緩慢,不一會記者就被提醒不能多人同時提問。

記者發現,某電商平臺上,多數商家售賣的都是共享賬號,而單人定制賬號或者代注冊賬號的價格往往更高。

近日,多個電商平臺對ChatGPT賬號銷售行為進行了查禁,相關關鍵詞被屏蔽。記者先前賬號訂單顯示商品不存在,進入到商家界面發現,所有的商品均已下架。

然而,記者在社交平臺上搜索“ChatGPT賬號”等關鍵詞發現,仍有不少網友在提供代注冊、有償賬號分享服務,圍繞ChatGPT賬號展開的買賣行為仍在野蠻生長。

朱杰認為,這種買賣行為可能構成非法經營等違法行為。ChatGPT的正版服務由境外機構提供,而未經我國相關部門批準利用VPN跨境提供經營活動是被明確禁止的,所以國內這些代問、代注冊的商家以營利為目的,搭建或使用VPN進行注冊賬號,未辦理國家相關行政許可,擅自經營買賣國外賬號,可能會受到行政處罰甚至刑事處罰。

ChatGPT賬號價值被炒作成商品以外,借其名稱熱度“搭便車”的牟利行為也大量出現。近日,記者查詢發現,以“ChatGPT”“智能問答”等字眼作名稱的小程序、公眾號數量激增,不少小程序都顯示有“1000+人最近使用”。

記者使用其中一些小程序后發現,這些產品不僅和ChatGPT毫無關系,而且大多以免費試用為噱頭,吸引用戶注冊使用后,再推出收費服務,最終目的是誘人充值以牟利。例如,一個名為“××超級AI”的公眾號中提到,可以為用戶提供ChatGPT中文版的服務,小程序界面有不同的服務類型,從“AI情感問題”到“AI程序助手”,用戶可以選擇與不同的AI聊天。

可當記者點擊進入“AI情感問題”一欄,還未進行任何操作,對話框就顯示記者“已經用完今天的免費次數”,后續體驗需要購買VIP,分別為19.9元的一天會員、199元的月度會員與999元的年度會員。

朱杰說,“山寨”軟件打著正版軟件的旗號進行宣傳,欺騙消費者進行下載,可能構成虛假廣告;同時,“山寨”軟件使用的名稱及標志如與正版軟件相同或相似,引導他人誤認為與正版存在特定聯系,可能構成反不正當競爭法中規定的商業混淆行為,將受到行政處罰。

法律規范必不可少

部門監管精細治理

ChatGPT浪潮澎湃,其背后暴露出的人工智能法律風險、圍繞ChatGPT展開的無序商業行為亦洶涌來襲,如何應對成為關注焦點。

上海政法學院人工智能法學院副教授郭金蘭告訴記者,我國算法行業在此前的標準制定時已經初步嘗試了以場景和架構為基準的思路。

2018年7月,中國科學院軟件研究所聯合15家產學研單位共同編制首個國內人工智能深度學習算法標準《人工智能深度學習算法評估規范》。這一規范基于深度學習算法可靠性的內部和外部影響,結合實際應用場景,確定了由7個一級指標和20個二級指標組成的算法可靠性評估指標體系,做了場景化和精細化算法治理實踐的有益嘗試。

2022年出臺的《互聯網信息服務算法推薦管理規定》中明確要求,人工智能的算法應當堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益。今年1月10日起施行的《互聯網信息服務深度合成管理規定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。

隨著人工智能產品不斷迭代升級,未來對相關產品該如何進行監管與應對?

郭金蘭認為,對人工智能監管,需要深入人工智能系統的整個生命周期,從模型的建立、語料庫的標注、模型訓練、投放市場后的迭代進化直到系統退出使用。監管需要關注到每個具體的環節,包括語料庫的篩選標準制定、參與人工標注的人員培訓,開發者的價值觀考察等。

“對ChatGPT這類生成式人工智能的監管必須將算法監管和數據監管結合起來。在算法監管機制的未來探索中,應充分考慮算法決策的主體類型和作用類別,探索場景化和精細化的算法治理機制?!惫鹛m建議說。

朱杰建議,國家應當加強對人工智能的倫理規制,將倫理道德納入人工智能研發和應用的全過程,增強全社會人工智能的倫理意識和行為自覺,積極引導負責任的人工智能研發與應用活動,促進人工智能健康發展。

【責任編輯:王會】

Copyright ? 2001-2024 湖北荊楚網絡科技股份有限公司 All Rights Reserved

營業執照增值電信業務許可證互聯網出版機構網絡視聽節目許可證廣播電視節目許可證

關于我們 - 版權聲明 - 合作咨詢

版權為 荊楚網 www.enkeai.com 所有 未經同意不得復制或鏡像

成人高清在线播放一区二区三区