時間:2024-07-12|瀏覽:298
結(jié)論
前 OpenAI 員工 William Saunders 因?qū)救斯ぶ悄馨踩椒ǖ膿?dān)憂而辭職。
桑德斯將 OpenAI 的軌跡比作泰坦尼克號的軌跡,優(yōu)先考慮新產(chǎn)品而不是安全措施。
他對 OpenAI 專注于實現(xiàn)通用人工智能的同時也發(fā)布商業(yè)產(chǎn)品表示擔(dān)憂。
桑德斯曾是 OpenAI 超級對齊團隊的成員,該團隊后來解散了。
OpenAI 的其他前員工也已離職并創(chuàng)辦專注于人工智能安全的公司。
OpenAI 超級對齊團隊的前成員 William Saunders 公開表示,他決定在公司任職三年后離開。
桑德斯致力于理解人工智能語言模型的行為,他表示自己辭職是因為他認(rèn)為 OpenAI 優(yōu)先考慮產(chǎn)品開發(fā),而不是實施足夠的安全措施。
在最近的采訪中,桑德斯將 OpenAI 的軌跡與泰坦尼克號的軌跡進行了比較,暗示該公司在沒有足夠保障措施的情況下打造了令人印象深刻的技術(shù)。
桑德斯在播客采訪中表示:“我真的不想最終為人工智能這個‘泰坦尼克號’工作,所以我辭職了。”
桑德斯對 OpenAI 雙重關(guān)注實現(xiàn)通用人工智能(AGI,即人工智能可以自學(xué)的程度)同時發(fā)布商業(yè)產(chǎn)品表示擔(dān)憂。
他認(rèn)為,這種結(jié)合可能會導(dǎo)致倉促開發(fā)和安全預(yù)防措施不足。
“他們正走在改變世界的軌道上,然而當(dāng)他們發(fā)布產(chǎn)品時,他們的優(yōu)先事項更像是一家產(chǎn)品公司,”桑德斯解釋道。
他補充說,雖然 OpenAI 的員工在理解和預(yù)防風(fēng)險方面做得很好,但他沒有看到對這項工作給予足夠的優(yōu)先考慮。
這位前員工的擔(dān)憂延伸到了更廣泛的人工智能行業(yè)。桑德斯是 OpenAI 和 Google DeepMind 的 13 名前任和現(xiàn)任員工之一,他們簽署了一封題為“警告權(quán)”的公開信。
這封信強調(diào)了允許人工智能社區(qū)內(nèi)的人們暢所欲言對快速發(fā)展的技術(shù)的擔(dān)憂的重要性。
桑德斯離開 OpenAI 并非個例。其他知名人士也因類似問題離開公司。
例如,競爭對手 AI 公司 Anthropic 成立于 2021 年,創(chuàng)始人是 OpenAI 的前員工,他們認(rèn)為 OpenAI 對信任和安全的關(guān)注不夠。
最近,OpenAI 聯(lián)合創(chuàng)始人兼前首席科學(xué)家 Ilya Sutskever 于 2024 年 6 月離職,創(chuàng)辦了 Safe Superintelligence Inc.,這是一家致力于研究人工智能同時確保“安全始終保持領(lǐng)先”的公司。
OpenAI 因其 AI 開發(fā)方法而面臨批評和內(nèi)部動蕩。2023 年 11 月,首席執(zhí)行官 Sam Altman 因失去信任而被董事會短暫免職。
盡管幾天后奧爾特曼恢復(fù)了職務(wù),但這一事件凸顯了公司內(nèi)部持續(xù)存在的緊張局勢。
盡管存在這些擔(dān)憂,OpenAI 仍在繼續(xù)推進其 AI 開發(fā)。該公司最近解散了超級對齊團隊,桑德斯是該團隊的一員,該團隊的任務(wù)是控制未來可能比人類更聰明的 AI 系統(tǒng)。
前 OpenAI 員工對 AI 安全實踐表示擔(dān)憂一文最先出現(xiàn)在 Blockonomi 上。