時(shí)間:2023-04-22|瀏覽:224
當(dāng)代AI系統(tǒng)現(xiàn)已在通用任務(wù)方面具有與人類競爭的能力。因此,我們必須問自己:我們是否應(yīng)該讓機(jī)器充斥著我們的信息渠道,傳播宣傳和虛假信息?我們是否應(yīng)該將所有工作自動(dòng)化,包括那些有成就感的工作?我們是否應(yīng)該開發(fā)可能最終超越、取代我們的非人類智能?我們是否應(yīng)該冒著失去對文明的控制的風(fēng)險(xiǎn)?這些決策不能交由未經(jīng)選舉的科技領(lǐng)袖來做。只有在我們確信AI系統(tǒng)的影響將是積極的,風(fēng)險(xiǎn)將是可控的情況下,才能開發(fā)強(qiáng)大的AI系統(tǒng)。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的增大而增加。
因此,我們呼吁所有AI實(shí)驗(yàn)室立即暫停至少6個(gè)月的時(shí)間,停止訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。這種暫停應(yīng)該是公開的、可驗(yàn)證的,并包括所有關(guān)鍵參與者。如果這樣的暫停無法迅速實(shí)施,政府應(yīng)該介入并實(shí)行禁令。
AI實(shí)驗(yàn)室和獨(dú)立專家應(yīng)利用這段暫停時(shí)間共同制定并實(shí)施一套先進(jìn)的、共享的AI設(shè)計(jì)和開發(fā)的安全協(xié)議,這些協(xié)議應(yīng)由獨(dú)立的外部專家嚴(yán)格審計(jì)和監(jiān)督。這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在排除合理懷疑之后是安全的。這并不意味著暫停AI發(fā)展,而只是從危險(xiǎn)的競賽中退一步,避免發(fā)展出具有突現(xiàn)能力的更大、更不可預(yù)測的黑箱模型。
AI研究和發(fā)展應(yīng)該致力于AI的新的、有能力的監(jiān)管機(jī)構(gòu);對高能力AI系統(tǒng)和大量計(jì)算能力的監(jiān)督和追蹤;源頭和水印系統(tǒng),以幫助區(qū)分真實(shí)與合成以及追蹤模型泄漏;強(qiáng)大的審計(jì)和認(rèn)證生態(tài)系統(tǒng);對AI造成的損害承擔(dān)責(zé)任;技術(shù)AI安全研究的充足公共資金支持;以及應(yīng)對AI帶來的嚴(yán)重經(jīng)濟(jì)和政治顛覆(特別是對民主制度)的有充足資源的機(jī)構(gòu)。
人類可以與AI共享繁榮的未來。在成功創(chuàng)造出強(qiáng)大的AI系統(tǒng)后,我們現(xiàn)在可以享受一個(gè)“AI夏天”,在這個(gè)時(shí)期,我們可以收獲碩果,為所有人帶來明確的利益,讓社會(huì)有機(jī)會(huì)適應(yīng)。社會(huì)已經(jīng)在其他可能對社會(huì)產(chǎn)生災(zāi)難性影響的技術(shù)上按下了暫停鍵。我們在這里也可以做到。讓我們享受一個(gè)漫長的AI夏天,而不是毫無準(zhǔn)備地跳入秋天。
熱點(diǎn):馬斯克