時間:2023-03-30|瀏覽:666
3月29日,非營利組織“未來生命研究所(Future of Life Institute)”發(fā)表了一封題為“暫停巨型AI實(shí)驗(yàn)”的公開信,呼吁全球的AI實(shí)驗(yàn)室暫停訓(xùn)練比GPT-4更強(qiáng)大的系統(tǒng)至少6個月,并在此期間開發(fā)出一份針對AI的共享安全協(xié)議,必要時需要政府介入。?
1000多名科技人士在這份公開信上簽名,包括特斯拉CEO馬斯克、Stability AI?的CEO Emad Mostaque等企業(yè)掌門人,也包括Alphabet旗下DeepMin的研究人員,還有諸如圖靈獎得主Yoshua Bengio這樣的重量級學(xué)者。當(dāng)然,也有人表達(dá)了不同意見,認(rèn)為這是在阻礙技術(shù)進(jìn)步。
開發(fā)出GPT-4模型的OpenAI公司內(nèi)還沒有人簽名,該公司目前也沒有對這封公開信予以回應(yīng)。但我們向卷入紛爭中的ChatGPT要了個回應(yīng)。
這個AI自然語言大模型產(chǎn)品倒是表現(xiàn)出了善解人意的一面:暫停實(shí)驗(yàn)存在合理性,但需要謹(jǐn)慎考慮這么做帶來的技術(shù)發(fā)展滯后問題。它還給出了關(guān)于AI的六大風(fēng)險和十個管理制度建議。
人類精英:暫停實(shí)驗(yàn) 確立規(guī)則
截至今日,掛在“未來生命研究所(FLI)“官網(wǎng)上的《暫停巨型AI實(shí)驗(yàn)》公開信,已經(jīng)收集了1130人的簽字,名單里精英云集,不乏特斯拉、蘋果等科技公司的高管,也有政客和作家,當(dāng)年,更多的是全球多所高校的教授以及人工智能領(lǐng)域的專家。??????
那么精英云集簽字的這封公開信到底說了什么?以下是這封信的全文(向上滑動啟閱)
廣泛的研究表明,具有能與人類競爭的智能的AI系統(tǒng)會對社會和人類構(gòu)成深刻的風(fēng)險,頂尖的AI實(shí)驗(yàn)室也承認(rèn)這一點(diǎn)。正如廣受認(rèn)可的阿西洛馬人工智能原則(Asilomar AI principles)原則所述,高級AI可能代表著地球生命歷史的深刻變化,應(yīng)該以合適的態(tài)度和資源去進(jìn)行規(guī)劃和管理。不幸的是,這種水平的規(guī)劃和管理并沒有發(fā)生。盡管最近幾個月AI實(shí)驗(yàn)室陷入了一場失控的競賽,以開發(fā)和應(yīng)用越來越強(qiáng)大的數(shù)字思維,然而沒有人能夠理解、預(yù)測或可靠地控制這些思維,甚至他們的創(chuàng)造者也不能。
當(dāng)代AI系統(tǒng)在一般任務(wù)上正在擁有與人類競爭的能力,我們必須問問自己:
我們應(yīng)該讓機(jī)器在我們的信息渠道中充斥宣傳和謊言嗎?
我們是否應(yīng)該自動化所有的工作,包括那些有成就感的工作?
我們是否應(yīng)該培養(yǎng)出可能比我們數(shù)量更多、比我們更聰明、最終超越并取代我們的非人類思維?
我們是否應(yīng)該冒著失去對我們文明控制的風(fēng)險?
此類決策決不應(yīng)該委托給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導(dǎo)人。只有當(dāng)我們確信AI的效果是積極的,風(fēng)險是可控的時候,AI系統(tǒng)才應(yīng)該被開發(fā)。這種對AI的判斷必須是合理的,并隨著系統(tǒng)潛在影響的變化而變化。
OpenAI最近關(guān)于人工通用智能(AGI)的聲明指出,“在開始訓(xùn)練未來的系統(tǒng)之前,進(jìn)行獨(dú)立審查可能很重要。同時對于最前沿的工作而言,人們應(yīng)該在合適的時間點(diǎn)限制用于創(chuàng)建新系統(tǒng)的計算增長率。我們同意這一說法,并認(rèn)為現(xiàn)在就是合適的時間點(diǎn)。
因此,我們呼吁所有的AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月。這種暫停應(yīng)該是公開的和可核實(shí)的,所有關(guān)鍵的參與者也能暫停相關(guān)工作。如果這種暫停不能迅速開始,政府應(yīng)該介入并實(shí)施暫停。
AI實(shí)驗(yàn)室和獨(dú)立專家應(yīng)利用這一暫停的時段,共同開發(fā)一套AI設(shè)計和開發(fā)的共享安全協(xié)議,這些協(xié)議需要由獨(dú)立的外部專家嚴(yán)格審計和監(jiān)督。這些協(xié)議應(yīng)確保所有遵守它們系統(tǒng)的AI是安全的。這種暫停并不意味著總體上暫停AI開發(fā),只是讓人們從具有新興功能的、不可預(yù)測的危險競賽中后退一步。
AI的研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大、最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、可信和可靠。
與此同時,AI開發(fā)人員必須與政策制定者合作,大幅加快強(qiáng)大的AI管理制度的開發(fā)。管理制度至少應(yīng)包括以下內(nèi)容:
?針對AI的新的、有能力的監(jiān)管機(jī)構(gòu);
?監(jiān)督和跟蹤能力強(qiáng)大的AI系統(tǒng)和計算能力池;
?幫助區(qū)分真實(shí)和合成數(shù)據(jù)的溯源、水印系統(tǒng),并跟蹤模型泄露;
?提供健全的審計和認(rèn)證生態(tài)系統(tǒng);
?對AI造成的損害進(jìn)行責(zé)任認(rèn)定;
?為AI技術(shù)的安全研究提供充足的公共資金;
?資源充足的機(jī)構(gòu)以應(yīng)對AI將造成的巨大經(jīng)濟(jì)和政治破壞(尤其是對民主的破壞)。
人類可以通過AI享受一個繁榮的未來。在成功創(chuàng)建了強(qiáng)大的AI系統(tǒng)后,我們現(xiàn)在可以享受一個“AI之夏”。
在這個AI的夏天,我們可以收獲回報,為所有人的利益設(shè)計這些系統(tǒng),并給社會一個適應(yīng)的機(jī)會。人類社會曾經(jīng)暫停使用一些可能會對社會造成災(zāi)難性影響的技術(shù),我們現(xiàn)在也可以在AI領(lǐng)域這樣做。讓我們享受一個漫長的AI之夏,不要在沒有準(zhǔn)備的情況下匆忙進(jìn)入秋天。
事實(shí)上,這封公開信是近期人類精英們對人工智能風(fēng)險擔(dān)憂的總爆發(fā)。自 ChatGPT 高速迭代后,擔(dān)憂從未停止,特別是當(dāng)微軟、谷歌、百度、華為等科技巨頭們在自然語言模型上展開“軍備競賽”之后。
日前,“深度學(xué)習(xí)之父”杰弗里·辛頓(Geoffrey Hinton)在媒體采訪中表示,人工智能正處于“關(guān)鍵時刻”,毀滅人類“并非不可能”。AI領(lǐng)域內(nèi)的“大牛”蓋瑞·馬庫斯(Gary Marcus)發(fā)推特支持辛頓,甚至發(fā)出靈魂一問:“用百分之一的人類毀滅風(fēng)險換取和機(jī)器對話帶來的樂趣,這值得嗎?”
而馬庫斯在轉(zhuǎn)發(fā)FLI這封公開信時表示,“這封信并不完美,但精神是正確的。我們需要放慢腳步,直到我們更好地理解AI帶來后果……他們可能會造成嚴(yán)重傷害……主要參與者對他們正在做的事情越來越保密,這使得社會很難抵御可能發(fā)生的任何傷害?!?/span>
也有科技圈人士對這封信的觀點(diǎn)持不同意見。
Writer的創(chuàng)始人Waseem 以諷刺的語氣表達(dá)了他對權(quán)威們的不滿,“讓我們停止建設(shè)和發(fā)展我們的公司,因?yàn)閬碜怨韫鹊膬|萬富翁說我們有風(fēng)險。一定要喜歡那些比我們?nèi)祟惛斆鞯娜?,因?yàn)樗麄兏嬖V我們?nèi)绾紊?。?dāng)我們有他們神圣的指引時,誰還需要進(jìn)步?”?
OSS Capital的創(chuàng)始人Joseph Jacks 態(tài)度更是簡潔明了:強(qiáng)烈反對,絕對不簽這個。
?ChatGPT:暫停合理但小心阻滯技術(shù)
目前,OpenAI 還沒有就 FLI 的這封公開信做出回應(yīng)。而我們把人類精英們的擔(dān)憂與建議甩給了ChatGPT,引發(fā)這場紛爭的這個對話機(jī)器人不但認(rèn)可了FLI要求暫停實(shí)驗(yàn)的合理性,還補(bǔ)充了六大AI風(fēng)險。
ChatGPT的答案中也包含了暫停實(shí)驗(yàn)帶來弊端:導(dǎo)致技術(shù)發(fā)展的滯后。這也和輿論場上很多普通大眾的想法趨同。????????????????????
那么,問題擺在眼前,如果要讓研究人員和政府制定規(guī)則,該包含哪些內(nèi)容呢?ChatGPT給出了十大建議,相當(dāng)于給包括自己在內(nèi)AI發(fā)展畫了一個規(guī)范圈。
連ChatGPT自己都這么說了,可見,“AI失控”、”替代人類“無論是在意見領(lǐng)袖圈層還是輿論場上都有探討的意義。
最近,微軟的創(chuàng)始人比爾·蓋茨在大力肯定人工智能帶來生產(chǎn)力提升的同時,也強(qiáng)調(diào)過風(fēng)險,“AI失控的可能性是存在的,一臺機(jī)器會認(rèn)為人類是自己的威脅嗎?它們會得出結(jié)論認(rèn)為自身利益與人類的利益不同進(jìn)而不在意我們嗎?” 他預(yù)測,隨著算法、算力的提升,超級智能AI會在未來出現(xiàn)。
連 OpenAI 的CEO Sam Altman都表示,超級智能AI的風(fēng)險可能會遠(yuǎn)遠(yuǎn)超出我們的預(yù)料。此前,他在技術(shù)研究員Lex Fridman的播客中表達(dá)他的擔(dān)憂,包括AI造成的虛假信息問題,帶來的經(jīng)濟(jì)沖擊等等,“危害可能遠(yuǎn)遠(yuǎn)超過了人類能應(yīng)對的程度”,他舉了個例子,“我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?”
這正應(yīng)了那封公開信中所說的:沒有人能夠理解、預(yù)測或可靠地控制這些數(shù)字思維,“甚至他們的創(chuàng)造者也不能”。
雖然通用人工智能(AGI)還遠(yuǎn)遠(yuǎn)沒有到來,但就像比爾·蓋茨說得那樣,在這之前,世界需要建立規(guī)則以使AI帶來的正面影響遠(yuǎn)遠(yuǎn)超過其負(fù)面影響。
換句話說就是,別讓人類造出的東西把人類自己滅了。畢竟,戰(zhàn)爭、核事故帶來的災(zāi)難還歷歷在目。
熱點(diǎn):BTG幣 幣圈精英哥 比特幣暫停 nft實(shí)驗(yàn) 比特幣pt