OpenAI吹哨人之死:ChatGPT的陰暗面
作者:娛樂 來源:休閑 瀏覽: 【大 中 小】 發(fā)布時(shí)間:2024-12-23 02:35:13 評(píng)論數(shù):
被稱為“OpenAI吹哨人”的吹哨Suchir Balaji,11月26日被發(fā)現(xiàn)死在舊金山的暗面一間公寓中,終年26 歲,吹哨當(dāng)局裁定他的暗面死亡為自殺。
據(jù)外媒報(bào)道,吹哨Suchir Balaji在加利福尼亞州庫比蒂諾長(zhǎng)大,暗面一直對(duì)人工智能很著迷。吹哨
2013年,暗面DeepMind的吹哨進(jìn)步激發(fā)了他對(duì)此的興趣,促使他進(jìn)入加州大學(xué)伯克利分校攻讀計(jì)算機(jī)科學(xué),暗面并于2021年畢業(yè)。吹哨同年他加入OpenAI,暗面很快就參與到GPT-4的吹哨開發(fā)工作中,他的暗面工作是幫助OpenAI搜集和組織大量的互聯(lián)網(wǎng)數(shù)據(jù),用以訓(xùn)練ChatGPT大模型。吹哨
最早,他也如同其他人一樣被人工智能的前景所吸引,認(rèn)為神經(jīng)網(wǎng)絡(luò)可以解決從治愈疾病到應(yīng)對(duì)氣候變化一系列人類最關(guān)心的問題??梢哉f,對(duì)Suchir Balaji而言,人工智能不僅僅是一串串代碼,而是一種煉金術(shù)、一種將想象變成現(xiàn)實(shí)的工具。
但隨著他目睹越來越多針對(duì)生成式人工智能的投訴案發(fā)生,他的觀點(diǎn)慢慢發(fā)生了變化。
Suchir Balaji在個(gè)人博客上詳細(xì)闡述了他的觀點(diǎn):OpenAI 在數(shù)據(jù)的使用方面存在不合理性,因?yàn)樗唇?jīng)許可就使用受版權(quán)保護(hù)的材料訓(xùn)練其模型,所以侵犯了從程序員到記者等無數(shù)原創(chuàng)作者的知識(shí)產(chǎn)權(quán)。
這相當(dāng)于在原創(chuàng)者作品的基礎(chǔ)上生成了“替代品”,并拿走了屬于原創(chuàng)者的利益。
馬斯克在X上分享了這一新聞,圖源:馬斯克X賬號(hào)截圖
生成式AI因何而侵權(quán)?
Balaji所言非虛,無論是ChatGPT還是其他生成式AI應(yīng)用,它們都是通過從互聯(lián)網(wǎng)上抓取大量數(shù)據(jù)(包括受版權(quán)保護(hù)的內(nèi)容)來構(gòu)建自己的算法模型。
我們總結(jié)類似OpenAI一類大模型的常規(guī)訓(xùn)練過程就會(huì)發(fā)現(xiàn),其一般包括三個(gè)步驟:
步驟一:OpenAI從互聯(lián)網(wǎng)上收集大量文本,包括博客、文章和書籍等等。其中部分?jǐn)?shù)據(jù)是公開的,但大部分?jǐn)?shù)據(jù)受版權(quán)保護(hù)。
步驟二:AI分析這些數(shù)據(jù)以學(xué)習(xí)如何生成人類理解的文本。
步驟三:當(dāng)你向ChatGPT提問時(shí),它不會(huì)告訴你被訓(xùn)練時(shí)的原始數(shù)據(jù),但它的回答通常會(huì)大量借鑒原始數(shù)據(jù)中的信息。
為什么說OpenAI會(huì)拿走屬于原創(chuàng)者的利益?舉一個(gè)不那么準(zhǔn)確的比方,當(dāng)你向ChatGPT發(fā)問之后,如果它能生成一個(gè)類似知乎專業(yè)大V的回答,那么知乎也就失去了存在的意義,大V們也再無存在的必要,整個(gè)生態(tài)就坍塌了。
回溯歷史,OpenAI曾針對(duì)Balaji的呼吁為自己辯護(hù),聲稱其使用的公開數(shù)據(jù)符合版權(quán)法。OpenAI表示:“我們正使用公開數(shù)據(jù)構(gòu)建我們的人工智能模型,這一行為合理合法……并且這對(duì)創(chuàng)新者來說是必要的,對(duì)美國的科技競(jìng)爭(zhēng)力更為重要。”
一個(gè)事實(shí)是,生成式AI發(fā)展至今,除了Balaji以外,還有大量批評(píng)者認(rèn)為生成式AI將造成大量的道德困境,他們呼吁監(jiān)管層出臺(tái)相關(guān)法律。
外媒指出,Balaji在AI倫理問題上的直言不諱贏得了人們的欽佩和批評(píng),且反映了創(chuàng)新與責(zé)任之間存在的緊張關(guān)系,“Balaji的離世留下了一個(gè)核心問題——生成式人工智能的倫理困境”。
此外,還有部分外媒指出,Balaji掌握的信息可能會(huì)在針對(duì)OpenAI的訴訟中發(fā)揮關(guān)鍵作用。
更大的倫理困境
巴拉吉并不是唯一一個(gè)發(fā)起控訴的人。2023年年底,《紐約時(shí)報(bào)》曾對(duì)OpenAI及其合作伙伴微軟提起訴訟,指控他們非法使用數(shù)百萬篇原創(chuàng)文章來訓(xùn)練他們的大模型?!都~約時(shí)報(bào)》辯稱“這種未經(jīng)授權(quán)的使用直接損害了他們的業(yè)務(wù)”。
從更深遠(yuǎn)的影響來看,《紐約時(shí)報(bào)》認(rèn)為在ChatGPT能夠生成與傳統(tǒng)新聞機(jī)構(gòu)質(zhì)量相當(dāng)?shù)膬?nèi)容之后,下一步將會(huì)是人工智能取代傳統(tǒng)新聞業(yè)。
再往前看,2022年年底也曾有三位藝術(shù)家組團(tuán)起訴多個(gè)生成式人工智能平臺(tái),理由是人工智能未經(jīng)許可使用他們的原創(chuàng)作品來訓(xùn)練他們的大模型,而用戶用AI生成的作品與藝術(shù)家現(xiàn)有的作品極其相似,藝術(shù)家認(rèn)為這些應(yīng)該被認(rèn)定為“未經(jīng)授權(quán)的衍生作品”。
其結(jié)果是,如果法院認(rèn)定AI生成的作品未經(jīng)授權(quán)且為衍生作品,那么就適用嚴(yán)厲的侵權(quán)處罰。
在國內(nèi)也有類似的案例,最流行的是“魔改”——利用AI普通人能夠?qū)⒔?jīng)典影視劇中的角色和場(chǎng)景“移植”到全新的場(chǎng)景中,這在各大短視頻平臺(tái)十分常見。
北京市兩高(鄭州)律師事務(wù)所副主任張博在接受央廣網(wǎng)采訪時(shí)指出,無論是換臉、改臺(tái)詞還是加入新情節(jié),都是對(duì)原影視劇內(nèi)容的再創(chuàng)作。但是,在追逐流量的同時(shí),也滋生了很多新型侵權(quán)行為。
張博認(rèn)為,AI“魔改”視頻涉及影視演員的形象,比如利用AI工具改變演員的動(dòng)作、表情和臺(tái)詞,涉嫌侵犯了演員的肖像權(quán)和名譽(yù)權(quán)。
此外,在第八屆中國網(wǎng)絡(luò)版權(quán)保護(hù)與發(fā)展大會(huì)上,一眾專家也對(duì)AI帶來的版權(quán)風(fēng)險(xiǎn)進(jìn)行了探討。北京大學(xué)國際知識(shí)產(chǎn)權(quán)研究中心主任易繼明指出,大部分情形下,AI研發(fā)企業(yè)并未獲得版權(quán)人的授權(quán),潛藏著侵犯他人版權(quán)的法律風(fēng)險(xiǎn)。
在此背景下,產(chǎn)業(yè)界迫切需要法律與公共政策能夠明確提供關(guān)于使用語料的合法性指引,創(chuàng)作者與公眾也需要高度關(guān)注自身利益能否得到有效保障,AI大模型訓(xùn)練中使用語料的合法性及合理性問題,成為AI時(shí)代亟待研究的重大課題。
但這一問題該如何解決?目前看來還十分困難,難點(diǎn)一是在人工智能侵權(quán)行為難以界定,二是規(guī)范性的法律文件很難界定。
具體而言,著作權(quán)法保護(hù)的是具有獨(dú)創(chuàng)性的作品,但AI生成的內(nèi)容是否具備獨(dú)創(chuàng)性,以及如何判斷其獨(dú)創(chuàng)性,是一個(gè)復(fù)雜且爭(zhēng)議的問題,不同國家對(duì)此有不同看法。
例如美國版權(quán)局明確表示AI自動(dòng)生成的作品不受版權(quán)法保護(hù),而中國法院則在一系列案例中認(rèn)定,只要AI生成內(nèi)容能體現(xiàn)出自然人獨(dú)創(chuàng)性智力投入,就應(yīng)當(dāng)被認(rèn)定為作品,受到著作權(quán)法保護(hù)。
其次,傳統(tǒng)的著作權(quán)法體系下,作品的作者是具有法律人格的自然人或法人。但AI作為生成內(nèi)容的主體,其法律地位并不明確,無法直接作為作者享有著作權(quán)。這導(dǎo)致在立法時(shí)需要重新考慮作者身份的認(rèn)定問題。
最后,立法者還需要在保護(hù)著作權(quán)人權(quán)益和促進(jìn)AI產(chǎn)業(yè)發(fā)展之間找到平衡點(diǎn)。過于嚴(yán)格的法律可能會(huì)抑制AI技術(shù)的創(chuàng)新和應(yīng)用,而過于寬松的法律則可能損害著作權(quán)人的利益。“管就死,放就亂”這也是監(jiān)管難推進(jìn)的原因之一。
但我們必須意識(shí)到的一個(gè)問題是,生成式AI的發(fā)展大概率將一去不回頭,而人們對(duì)AI生成內(nèi)容與人類生成內(nèi)容的判斷邊界也將越來越模糊,最終走向混亂。
或許,另一位Balaji的預(yù)測(cè)將解決這一問題,他是一位“80后”印度裔創(chuàng)業(yè)者兼投資人,其在《巴拉吉預(yù)言:技術(shù)、真相和構(gòu)建未來的指南》(此書被稱為“解讀硅谷創(chuàng)業(yè)家思想‘右轉(zhuǎn)’的入門讀本”)中指出,新興技術(shù)“區(qū)塊鏈”之不可篡改的“真實(shí)”才是可信的“真實(shí)”;
以加密貨幣在工作流中加入激勵(lì)機(jī)制,通過智能合約來推動(dòng)協(xié)作,才是未來可能的工作方式。
國內(nèi)也曾有專家學(xué)者指出,相關(guān)部門的機(jī)構(gòu)應(yīng)開發(fā)更高效的數(shù)字指紋技術(shù)和使用區(qū)塊鏈技術(shù),讓每個(gè)人工智能參與創(chuàng)作的作品享有獨(dú)特的數(shù)字身份,可追溯人工智能生成文本的來源,保證人類原創(chuàng)作品和人工智能創(chuàng)造作品的版權(quán)。
以未來視角看現(xiàn)在,Suchir Balaji的離世或許只是AI倫理問題被揭開的“第一章”,技術(shù)的流向并不以人類意志為轉(zhuǎn)移,我們唯一能期待的是AI成為人類的工具,而非人類成了AI的奴隸。