Near Protocol的聯(lián)合創(chuàng)始人、支撐現(xiàn)代人工智能系統(tǒng)的變壓器技術(shù)的創(chuàng)造者之一伊利亞·波洛蘇金表示,除非明確編程,否則人工智能系統(tǒng)不太可能摧毀人類。
在最近接受美國消費者新聞與商業(yè)頻道采訪時,Polosukhin分享了他對人工智能現(xiàn)狀、潛在風(fēng)險和未來發(fā)展的見解。Polosukin是谷歌2017年開發(fā)變壓器架構(gòu)團隊的一員。他強調(diào)了將人工智能理解為一個有明確目標(biāo)的系統(tǒng),而不是一個有感知能力的實體的重要性。
Polosukhin說:“人工智能不是人,它是一個系統(tǒng)。這個系統(tǒng)有一個目標(biāo)?!??!俺怯腥巳フf,‘讓我們殺死所有人’......否則它不會神奇地去做?!?/p>
他解釋說,除了沒有為此目的進行訓(xùn)練外,人工智能也不會這么做,因為在他看來,缺乏實現(xiàn)這一目標(biāo)的經(jīng)濟激勵。
Polosukhin說:“在區(qū)塊鏈世界里,你會意識到一切都是由經(jīng)濟驅(qū)動的。”?!耙虼?沒有任何經(jīng)濟學(xué)驅(qū)使你去殺人?!?/p>
當(dāng)然,這并不意味著人工智能不能用于這個目的。相反,他指出了一個事實,即人工智能不會自主決定這是一個正確的行動方案。
他澄清道:“如果有人使用人工智能開始制造生物武器,這與他們試圖在沒有人工智能的情況下制造生物武器沒有什么不同?!薄!鞍l(fā)動戰(zhàn)爭的是人,而不是人工智能。”
并不是所有的人工智能研究人員都認(rèn)同Polosukhin的樂觀態(tài)度。Paul Christiano曾是OpenAI語言模型比對團隊的負(fù)責(zé)人,現(xiàn)在是比對研究中心的負(fù)責(zé)人。他警告說,如果沒有嚴(yán)格的比對——確保人工智能遵循預(yù)期的指令——人工智能可能會在評估過程中學(xué)會欺騙。
他解釋說,人工智能可以在評估過程中“學(xué)會”如何撒謊,如果人類增加對人工智能系統(tǒng)的依賴,可能會導(dǎo)致災(zāi)難性的結(jié)果。
他在Bankless播客上說:“我認(rèn)為,在許多人或大多數(shù)人死亡的情況下,人工智能接管的可能性大約為10-20%。”。“我非常認(rèn)真?!?/p>
加密生態(tài)系統(tǒng)中的另一位主要人物,以太坊聯(lián)合創(chuàng)始人Vitalik Buterin警告說,不要對人工智能培訓(xùn)采取過度有效的加速主義(e/acc)方法,這種方法將技術(shù)開發(fā)置于其他任何事情之上,將盈利置于責(zé)任之上。Buterin 5月在推特上回應(yīng)Messari首席執(zhí)行官Ryan Selkis時表示:“超級智能人工智能風(fēng)險很大,我們不應(yīng)該倉促行事,我們應(yīng)該反對那些嘗試的人?!薄!罢埐灰?萬億美元的服務(wù)器場?!?/p>
Polosukhin在駁斥了對人工智能驅(qū)動的人類滅絕的擔(dān)憂的同時,強調(diào)了對該技術(shù)對社會影響的更現(xiàn)實的擔(dān)憂。他指出,對人工智能驅(qū)動的娛樂系統(tǒng)上癮的可能性是一個更緊迫的問題,并將其與電影《白癡政治》中描繪的反烏托邦場景相提并論
Polosukhin提醒道:“更現(xiàn)實的情況是,我們對系統(tǒng)中的多巴胺有點上癮?!睂τ陂_發(fā)者來說,許多人工智能公司“只是想讓我們娛樂”,采用人工智能并不是為了實現(xiàn)真正的技術(shù)進步,而是為了對人們更有吸引力。
采訪結(jié)束時,Polosukhin對人工智能訓(xùn)練方法未來的思考。他表示相信,有可能實現(xiàn)更高效、更有效的訓(xùn)練過程,使人工智能更節(jié)能。
“我認(rèn)為這是值得的,”Polosukhin說,“它肯定會給整個空間帶來很多創(chuàng)新?!?/p>
熱點:NEAR 人工智能 創(chuàng)始人 幣界