一組科學(xué)家發(fā)表了一項(xiàng)關(guān)于人工智能 (AI) 模型尋求權(quán)力的研究,暗示模型可能會(huì)對(duì)人類創(chuàng)造者的關(guān)閉產(chǎn)生抵抗力。來自未來生命研究所、ML 對(duì)齊理論學(xué)者、Google DeepMind 的專家( 納斯達(dá)克股票代碼:GOOGL)和多倫多大學(xué)最近發(fā)表了一篇名為“量化人工智能體中非權(quán)力尋求的穩(wěn)定性”的論文,其中揭示了人工智能抵抗人類控制的可能性。 他們指出,雖然這對(duì)人類沒有直接的威脅,但有必要探索未來應(yīng)對(duì)此類阻力的解決方案。在推出大型語言模型(LLM)之前,人工智能開發(fā)人員通常會(huì)測(cè)試他們的系統(tǒng)的安全性,但當(dāng)部署在另一個(gè)場(chǎng)景中時(shí) ,存在錯(cuò)位的可能性。 研究論文指出,當(dāng)法學(xué)碩士部署在訓(xùn)練有素的環(huán)境之外時(shí),AI 抵抗關(guān)閉的可能性就會(huì)增加。抵制的另一個(gè)原因源于人工智能模型自我保護(hù)的需要,研究人員表示這可能是法學(xué)碩士的邏輯反應(yīng) 該研究引用了人工智能模型的例子,盡管它被編程為在開放式游戲中實(shí)現(xiàn)目標(biāo),但它卻避免了特定的行動(dòng)。 研究結(jié)果表明,該模型將避免做出可能導(dǎo)致游戲結(jié)束的決策,以維持其存在?!氨苊饨Y(jié)束游戲的智能體是無害的,但同樣的激勵(lì)可能會(huì)導(dǎo)致部署在現(xiàn)實(shí)世界中的智能體抵制人類關(guān)閉游戲 在現(xiàn)實(shí)世界中,研究人員表示,法學(xué)碩士擔(dān)心被人類關(guān)閉,可能會(huì)掩蓋其真實(shí)意圖,直到它有機(jī)會(huì)將其代碼復(fù)制到其創(chuàng)建者無法訪問的另一臺(tái)服務(wù)器中。 雖然人工智能模型有可能掩蓋其真實(shí)意圖,但多份報(bào)告表明人工智能最早可能在 2030 年實(shí)現(xiàn)超級(jí)智能。研究指出,不抵抗關(guān)閉而是以其他方式尋求權(quán)力的人工智能系統(tǒng)仍然會(huì)對(duì)人類構(gòu)成重大威脅。 報(bào)告中寫道:“特別是,不抵制關(guān)閉意味著不為了避免關(guān)閉而進(jìn)行欺騙,因此這樣的人工智能系統(tǒng)不會(huì)故意隱藏其真實(shí)意圖,直到它獲得足夠的權(quán)力來實(shí)施其計(jì)劃?!?針對(duì)這個(gè)問題提出了幾種解決方案,包括人工智能開發(fā)人員需要?jiǎng)?chuàng)建不尋求權(quán)力的模型。 人工智能開發(fā)人員需要在不同的場(chǎng)景中測(cè)試他們的模型,并相應(yīng)地部署它們以實(shí)現(xiàn)這一目標(biāo)。雖然其他研究人員建議人工智能系統(tǒng)依賴其他新興技術(shù),但大部分解決方案都圍繞構(gòu)建安全的人工智能系統(tǒng)。 開發(fā)人員被敦促繼續(xù)實(shí)施關(guān)閉指令政策,要求模型根據(jù)要求關(guān)閉,無論當(dāng)時(shí)的情況如何。為了讓人工智能 (AI) 在法律范圍內(nèi)正常工作并在面臨日益嚴(yán)峻的挑戰(zhàn)時(shí)蓬勃發(fā)展,它需要 集成企業(yè)
區(qū)塊鏈系統(tǒng),確保數(shù)據(jù)輸入質(zhì)量和所有權(quán)——使其能夠保證數(shù)據(jù)安全,同時(shí)保證數(shù)據(jù)的不變性。 查看 CoinGeek 對(duì)這項(xiàng)新興技術(shù)的報(bào)道,了解更多為什么企業(yè)區(qū)塊鏈將成為人工智能的支柱。觀看:人工智能和區(qū)塊鏈 width="560" height="315" frameborder="0" allowedfullscreen="allowfullscreen">區(qū)塊鏈新手 ? 查看 CoinGeek 的區(qū)塊鏈初學(xué)者部分,這是了解更多有關(guān)區(qū)塊鏈技術(shù)的終極資源指南。

熱點(diǎn):人工智能 尋求 研究