時(shí)間:2023-04-03|瀏覽:524
《三體》中的降臨派、拯救派和幸存派分別代表著不同的觀念和立場(chǎng)。借用這三個(gè)概念,我們可以將對(duì) AI 看法的人劃分為 AI 降臨派、AI 拯救派和 AI 幸存派。
AI 降臨派:
這一派的人認(rèn)為 AI 的發(fā)展將為人類(lèi)帶來(lái)巨大的好處,甚至取代人類(lèi)成為地球的主導(dǎo)力量。他們相信 AI 可以解決人類(lèi)的許多問(wèn)題,如氣候變化、資源分配、疾病治療等。AI 降臨派的人通常對(duì) AI 技術(shù)非常熱衷,支持無(wú)限制地發(fā)展和應(yīng)用 AI 技術(shù),期待 AI 在未來(lái)改變世界。
AI 拯救派:
這一派的人認(rèn)為 AI 是人類(lèi)發(fā)展的關(guān)鍵,但需要在一定范圍內(nèi)受到監(jiān)管和引導(dǎo)。他們認(rèn)為,通過(guò)合理的政策制定和倫理道德約束,可以確保 AI 技術(shù)的安全和可持續(xù)發(fā)展。拯救派關(guān)注 AI 對(duì)社會(huì)和個(gè)人產(chǎn)生的影響,期望在維護(hù)人類(lèi)利益的同時(shí),讓 AI 成為人類(lèi)的得力助手。
AI 幸存派:
這一派的人對(duì) AI 技術(shù)持懷疑甚至擔(dān)憂的態(tài)度。他們認(rèn)為 AI 技術(shù)的發(fā)展將可能導(dǎo)致一系列問(wèn)題,如失業(yè)、隱私侵犯、安全威脅等。幸存派的人認(rèn)為,人類(lèi)應(yīng)該小心應(yīng)對(duì) AI 技術(shù)的發(fā)展,尋求與 AI 和諧共生的方法。他們強(qiáng)調(diào) AI 的潛在風(fēng)險(xiǎn),提倡謹(jǐn)慎和審慎的態(tài)度來(lái)平衡 AI 技術(shù)的利弊。
這三派的劃分并沒(méi)有嚴(yán)格按照《三體》原著的定義(原著中降臨派要?dú)缛祟?lèi),拯救派想要拯救三體人,幸存派要出賣(mài)人類(lèi)利益為后代謀求茍活的空間),而是以人們對(duì) AI 的接受程度以及欲施加的監(jiān)管力度進(jìn)行劃分。
降臨派(歡迎 AI 降臨)接受程度最高,拯救派(用 AI 造福人類(lèi))次之,幸存派(在 AI 時(shí)代幸存)最保守,以便于我們理解立場(chǎng)。
讓我們看看在這一周內(nèi),三派有哪些觀點(diǎn)碰撞。
降臨派
吳恩達(dá):暫停 AI 開(kāi)發(fā)不可行
本周,一封上千人簽署的公開(kāi)信火遍了全網(wǎng),一家名為未來(lái)生命研究所(Future of Life Institute)的機(jī)構(gòu)呼吁全球應(yīng)該至少暫停六個(gè)月開(kāi)發(fā)比 GPT-4 更強(qiáng)大的模型,以讓有關(guān)的監(jiān)管手段能夠跟上。
人們?cè)谠撔派峡吹搅嗽S多知名人士的簽名,包括圖靈獎(jiǎng)得主 Yoshua Bengio、馬斯克、史蒂夫 · 沃茲尼亞克、Skype 聯(lián)合創(chuàng)始人、Pinterest 聯(lián)合創(chuàng)始人、Stability AI CEO 等人。
該信爆火后,人們發(fā)現(xiàn)部分知名人士的簽名實(shí)際上是網(wǎng)友冒簽的,所謂千人簽名的真實(shí)性存疑。
不管怎么說(shuō),這封公開(kāi)信還是激起了人們關(guān)于是否要封禁 AI 研究的討論。
著名計(jì)算機(jī)科學(xué)家、Google Brain 的聯(lián)合創(chuàng)始人吳恩達(dá)在社交媒體上發(fā)表了他對(duì)這封信的看法。
他認(rèn)為,讓有關(guān)部門(mén)暫停他們尚未了解的新興技術(shù),往好了說(shuō)是反競(jìng)爭(zhēng),往壞了說(shuō)是開(kāi)了一個(gè)糟糕的先例。
以下是他的觀點(diǎn)原文:
要求在 6 個(gè)月禁止開(kāi)展比 GPT-4 更進(jìn)一步的研究是一個(gè)可怕的想法。我看到許多新的應(yīng)用在教育,醫(yī)療保健,食品……這將幫助許多人。繼續(xù)改進(jìn) GPT-4 會(huì)對(duì)這些領(lǐng)域有所幫助。我們要權(quán)衡 AI 創(chuàng)造的巨大價(jià)值和現(xiàn)實(shí)的風(fēng)險(xiǎn)。
除非有關(guān)部門(mén)介入,否則沒(méi)有切實(shí)可行的方法來(lái)實(shí)施暫停并阻止所有團(tuán)隊(duì)擴(kuò)大 LLM(大語(yǔ)言模型)。讓有關(guān)部門(mén)暫停他們不了解的新興技術(shù)是反競(jìng)爭(zhēng)的,樹(shù)立了一個(gè)可怕的先例,是糟糕的創(chuàng)新政策。
負(fù)責(zé)任的人工智能很重要,而且人工智能有風(fēng)險(xiǎn)。目前主流的媒體報(bào)道稱(chēng),人工智能公司正在瘋狂地發(fā)送不安全的代碼,這種說(shuō)法是不正確的。絕大多數(shù)人工智能團(tuán)隊(duì)(遺憾的是,并非所有人工智能團(tuán)隊(duì))都認(rèn)真對(duì)待人工智能和安全問(wèn)題。
暫停 6 個(gè)月不是一個(gè)切實(shí)可行的建議。為了提高人工智能的安全性,有關(guān)透明度和審計(jì)的規(guī)定應(yīng)該變得更加切實(shí)可行,產(chǎn)生更大的影響。讓我們?cè)谕七M(jìn)技術(shù)進(jìn)步的同時(shí),在安全方面作更多的投資,而不是扼殺進(jìn)步。
Jim Fan:我們應(yīng)該欣賞 GPT-4
針對(duì)大語(yǔ)言模型的安全性,英偉達(dá) AI 科學(xué)家 Jim Fan 提出了一個(gè)有意思的觀點(diǎn)。
他認(rèn)為按照 AI 的行為規(guī)范,那么大部份人類(lèi)也是「不安全」的,許多大語(yǔ)言模型在安全性和公正性上已經(jīng)表現(xiàn)地很好,我們不應(yīng)該一味地批評(píng)它們。
以下是他的觀點(diǎn)原文:
按照 GPT 的「?jìng)惱砼c安全」指導(dǎo)方針,我們大多數(shù)人也表現(xiàn)得不理性、有偏見(jiàn)、不科學(xué)、不可靠,總的來(lái)說(shuō)——「不安全」。事實(shí)上,我們對(duì)人工智能的要求更高。這是件好事,我完全支持做更多。但有些事不吐不快。
我指出這一點(diǎn)的原因是為了讓大家了解安全校準(zhǔn)工作對(duì)于整個(gè)研究團(tuán)體來(lái)說(shuō)是多么困難。大多數(shù)的訓(xùn)練數(shù)據(jù)本身就是有偏見(jiàn)的、有毒的、不安全的等等。實(shí)際上,創(chuàng)造一個(gè)安全的人工智能助手是違反人類(lèi)數(shù)據(jù)分布的。
從某種意義上說(shuō),許多生產(chǎn)型 LLM(Claude,Cohere,GPT)在安全性和公正性方面都是「超人」,盡管它們并不完美。對(duì)我們來(lái)說(shuō),下意識(shí)地批評(píng)失敗案例比欣賞挑戰(zhàn)(和成就)更加容易。
拯救派
Sam Altman:確保 AGI 惠及全人類(lèi)
生命研究所的公開(kāi)信將 OpenAI 拉入了輿論的風(fēng)暴之中,OpenAI 的 CEO Sam Altman 在 Twitter 上卻表示他依然很平靜,并提出了建立 AGI(通用人工智能)的三個(gè)要點(diǎn)。
以下是他的觀點(diǎn)原文:
我們需要為了 AGI 美好的未來(lái)而付出的努力
1、調(diào)整超級(jí)智能的技術(shù)能力
2、充分協(xié)調(diào)大多數(shù)主要 AGI 的工作
3、有效的全球監(jiān)管框架,包括民主治理
此前,Sam Altman 在 Lex Fridman 的采訪播客曾表示自己會(huì)對(duì) OpenAI 的技術(shù)感到害怕,他表示:
當(dāng)人們認(rèn)為這是一個(gè)巨大的飛躍時(shí),我會(huì)說(shuō),我有點(diǎn)害怕,我覺(jué)得這很奇怪。
我認(rèn)為一點(diǎn)都不害怕的話才是瘋狂的,我同情那些非常害怕的人。
Sam Altman 更關(guān)心的是「虛假信息問(wèn)題或經(jīng)濟(jì)沖擊」,而不是如何用算法制造「超級(jí)智能」。他認(rèn)為有些公司并不會(huì)像 OpenAI 一樣設(shè)置如此嚴(yán)格的安全柵欄,并擔(dān)心因此導(dǎo)致 AI 失控造成不良的社會(huì)影響。
馬云:ChatGPT 只是 AI 時(shí)代的開(kāi)始
馬云回國(guó)后來(lái)到云谷學(xué)校,聊到了 ChatGPT 對(duì)教育領(lǐng)域的影響。馬云表示,ChatGPT 這一類(lèi)技術(shù)已經(jīng)對(duì)教育帶來(lái)挑戰(zhàn),但是 ChatGPT 這一類(lèi)技術(shù)只是 AI 時(shí)代的開(kāi)始。
以下是他的觀點(diǎn)原文:
我們要用人工智能去解決問(wèn)題,而不是被人工智能所控制,雖然人的體力、腦力比不過(guò)機(jī)器,但機(jī)器只有「芯」,而人有「心」。工業(yè)時(shí)代是知識(shí)驅(qū)動(dòng),知識(shí)的競(jìng)爭(zhēng);數(shù)字時(shí)代,是智慧驅(qū)動(dòng),是創(chuàng)造力和想象力的競(jìng)爭(zhēng),是領(lǐng)導(dǎo)力、擔(dān)當(dāng)力、責(zé)任的競(jìng)爭(zhēng),是獨(dú)立思考的競(jìng)爭(zhēng)。
幸存派
Gary Marcus:什么都不做是不對(duì)的
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)的榮譽(yù)退休教授 Gary Marcus(他同時(shí)還是 AI 暢銷(xiāo)書(shū)《Rebooting.AI》的作者)一直對(duì) LLM 保持批評(píng)的態(tài)度。
當(dāng)生命研究所的公開(kāi)信發(fā)布后,Gary Marcus 可以說(shuō)是該觀點(diǎn)最堅(jiān)定的支持者。
面對(duì)該公開(kāi)信受到的質(zhì)疑,Gary Marcus 做出了一段很長(zhǎng)的回應(yīng),以下是他的觀點(diǎn)原文:
很多針對(duì) 6 個(gè)月禁止培訓(xùn)超大型 #LLM 的攻擊都沒(méi)有抓住要點(diǎn)。
這么多的利害關(guān)系,這里有一個(gè) Twitter # long gread 整理出什么才是真正重要的:
很多對(duì)這封信的攻擊都集中在贊助人身上,而不是署名人。大多數(shù)簽名的人(如我,約書(shū)亞 · 本吉奧等)與 FLI 沒(méi)有任何關(guān)系。評(píng)判這封信應(yīng)該看它寫(xiě)了什么,而不是誰(shuí)寫(xiě)的。這里真正的新聞不是埃隆 · 馬斯克簽署了協(xié)議,而是這么多不是天生盟友的人(比如本吉奧和我,因 2019 年的激烈辯論而聞名)出于共同關(guān)心而走到了一起。
提出一個(gè)不同的選擇并沒(méi)有錯(cuò),而大多數(shù)批評(píng)這封信的人也沒(méi)給出一個(gè)恰當(dāng)?shù)慕鉀Q辦法。
什么都不做是不好的。幾乎所有人,甚至包括 OpenAI 在內(nèi),都承認(rèn)其存在嚴(yán)重的風(fēng)險(xiǎn),但迄今為止,有關(guān)部門(mén)或行業(yè)都沒(méi)有采取什么切實(shí)措施來(lái)減輕這些風(fēng)險(xiǎn)。
并不是所有簽署了這封信的人都主要關(guān)心長(zhǎng)期風(fēng)險(xiǎn); 我們中的許多簽署了這封信的人至少同樣擔(dān)心短期風(fēng)險(xiǎn)。
這封信并沒(méi)有呼吁禁止人工智能。沒(méi)有要求永久禁止。它沒(méi)有呼吁禁止 GPT-4。它沒(méi)有呼吁禁止絕大多數(shù)人工智能研究,只是在一個(gè)非常具體的項(xiàng)目上短暫停頓了一下,該項(xiàng)目的技術(shù)已經(jīng)「知道」存在風(fēng)險(xiǎn),卻沒(méi)有已知的解決方案。實(shí)際上需要更多的研究。有人看過(guò)那封信嗎?
我個(gè)人沒(méi)有改變;我仍然認(rèn)為 LLM 是不可靠的,仍然認(rèn)為它們表達(dá)事實(shí)的能力非常糟糕。我不認(rèn)為它們接近 AGI。但這并不意味著他們沒(méi)有撕裂我們社會(huì)結(jié)構(gòu)的潛力ーー特別是考慮到當(dāng)前的混合情況:難以置信的廣泛和快速部署、企業(yè)不負(fù)責(zé)任、缺乏監(jiān)管以及一直存在的不可靠性。
Eliezer Yudkowsky:暫停還不夠,我們應(yīng)該把 AI 永遠(yuǎn)關(guān)閉!
Eliezer Yudkowsky 是著名的人工智能科學(xué)家和作家,同時(shí)也是機(jī)器智能研究所(MIRI)的聯(lián)合創(chuàng)始人,MIRI 致力于確保超人工智能對(duì)人類(lèi)具有友善的價(jià)值觀。
未來(lái)生命研究所的公開(kāi)信爆火之后,Eliezer Yudkowsky 在《時(shí)代(Time)》上發(fā)表了一篇名為《Pausing AI Developments Isn"t Enough. We Need to Shut it All Down》文章。
在開(kāi)頭提到他并沒(méi)有在上面簽名,因?yàn)檫@封信低估了形勢(shì)的嚴(yán)重性,提出的要求太少,無(wú)法解決問(wèn)題。
文中提到了當(dāng)人工智能變得比人類(lèi)更聰明之后可能造成的危害,Eliezer Yudkowsky 提出了一個(gè)相當(dāng)消極的觀點(diǎn):
我們還沒(méi)準(zhǔn)備好。我們沒(méi)有在任何合理的時(shí)間內(nèi)做好準(zhǔn)備。沒(méi)有計(jì)劃。人工智能能力的進(jìn)步是巨大的,遠(yuǎn)遠(yuǎn)領(lǐng)先于人工智能排列的進(jìn)步,甚至領(lǐng)先于理解這些系統(tǒng)內(nèi)部到底發(fā)生了什么的進(jìn)步。如果我們真的這么做(放任其發(fā)展),我們都會(huì)死的。
Eliezer Yudkowsky 在前不久接受 Lex Fridman 的采訪時(shí)再次警告,人類(lèi)沒(méi)有第二次校準(zhǔn)人工智能的機(jī)會(huì),如果人類(lèi)失敗,人類(lèi)就將滅亡。
熱點(diǎn):幣圈的觀點(diǎn) 幣圈觀點(diǎn) 不要比特幣 比特幣限制 nft限制