時(shí)間:2023-03-27|瀏覽:830
美國(guó)時(shí)間3月25日,OpenAI官方發(fā)布了3月20日ChatGPT臨時(shí)中斷服務(wù)的調(diào)查報(bào)告,并表示有1.2%的ChatGPT Plus用戶可能數(shù)據(jù)被泄露。
根據(jù)OpenAI官網(wǎng)公告表示,3月20日以前,一個(gè)名為Redis-py的開源庫(kù)中的錯(cuò)誤造成了緩存問題,該問題會(huì)導(dǎo)致用戶可能看到其他人聊天記錄的片段,甚至?xí)蛞恍┗钴S用戶顯示其他用戶信用卡的最后四位數(shù)字、到期日期、姓名、電子郵件地址和付款地址。
本來可能還只是零星的用戶出現(xiàn)該類BUG,但令人神經(jīng)大條的是,在20號(hào)早上,OpenAI在對(duì)服務(wù)器進(jìn)行更改的時(shí)候出現(xiàn)失誤,導(dǎo)致Redis請(qǐng)求取消激增,問題進(jìn)一步的加劇,所以出現(xiàn)了這個(gè)“1.2%”的可能。
根據(jù)OpenAI官方的說法,有兩種可能會(huì)使這些信息被暴露:
1. 在特定時(shí)間內(nèi)的付款確認(rèn)郵件,可能會(huì)發(fā)給了一些錯(cuò)誤的用戶,這些郵件上包含信用卡的后四位數(shù)字。
2. 在特定時(shí)間內(nèi),點(diǎn)擊“我的賬戶”-“管理我的訂閱”,可能會(huì)導(dǎo)致另一個(gè)活躍用戶的姓名、電子郵箱、付款地址、信用卡后四位被泄露。
OpenAI表示,目前已經(jīng)聯(lián)系了這些可能已經(jīng)泄露信息的用戶。
網(wǎng)址:https://openai.com/blog/march-20-chatgpt-outage(網(wǎng)頁自動(dòng)翻譯,或不準(zhǔn)確)
為了防止此類事情再次發(fā)生,OpenAI也在博文里說明了他們已經(jīng)采取的行動(dòng):添加“冗余檢查”以確保提供的數(shù)據(jù)與用戶匹配;改進(jìn)修復(fù)了其Redis集群在高負(fù)載下吐出錯(cuò)誤的可能性......而且還強(qiáng)調(diào)他們的Redis開源維護(hù)者一直是出色的合作者。
雖然問題已經(jīng)解決,但還是有大量的網(wǎng)民們依舊質(zhì)疑OpenAI的安全性,還有網(wǎng)民詢問,為什么不能用GPT4檢查代碼上的錯(cuò)誤。
可能是為了安撫ChatGPT用戶的心緒,OpenAI CEO Sam Altman在當(dāng)天立刻接受了媒體專訪。雖然只字未提此次用戶數(shù)據(jù)泄露事件,卻多次強(qiáng)調(diào)“AI安全”。
他提到了以下四點(diǎn):
1.人工智能語言模型(如 GPT)的開發(fā)和改進(jìn)需要一個(gè)包含公眾反饋的迭代過程,專注于解決偏見,并考慮 AI 安全性和一致性。
2.人工智能的進(jìn)步,特別是GPT技術(shù)的進(jìn)步,正在改變編程的性質(zhì),需要仔細(xì)考慮人工智能的安全性、語言輸出的監(jiān)控和解決偏見。
3.人工智能的發(fā)展,特別是神經(jīng)網(wǎng)絡(luò),有可能超越人類智能,大大提高生活質(zhì)量,但也帶來了重大的風(fēng)險(xiǎn)和挑戰(zhàn),必須通過不斷研究和開發(fā)人工智能安全性和一致性來解決。
4.OpenAI是一家營(yíng)利性公司,致力于強(qiáng)大的AI技術(shù),同時(shí)對(duì)安全問題保持透明。
OpenAI CTO Mira Murati也在其官網(wǎng)上發(fā)出自己的觀點(diǎn),“人工智能系統(tǒng)正在成為日常生活的一部分。關(guān)鍵是要確保這些機(jī)器符合人類的意圖和價(jià)值觀。”而如今,他們一手創(chuàng)造的ChatGPT正在挑戰(zhàn)著他們所給到公眾的承諾。
隨著人類工作生活使用人工智能的頻次越來越高,AI安全問題也應(yīng)該成為我們?cè)诋?dāng)下及未來相當(dāng)長(zhǎng)一段時(shí)間應(yīng)該重視的問題,AI技術(shù)不能只考慮跑得快,還要考慮不翻車。
根據(jù)openAI官方解釋,這是由于緩存問題導(dǎo)致用戶信息泄漏,然而這種錯(cuò)誤,在互聯(lián)網(wǎng)行業(yè)中,并不是第一起。
早在2015年的圣誕節(jié),Steam也因?yàn)榫彺鎲栴},使34000名左右用戶的個(gè)人信息被泄露。OpenAI投入巨量的精力和金錢在AI的潛在安全的研究上,卻被一個(gè)常見的老問題給絆倒。雖說“成大事者,不拘小節(jié)”,但“天下難事,必作于易;天下大事,必作于細(xì)?!毕M磥鞳penAI不會(huì)再出現(xiàn)此類的問題了。
我們?cè)儐柫薌PT-4,AI安全問題應(yīng)該如何解決,它回答道:
在人工智能(AI)領(lǐng)域,確保安全性是至關(guān)重要的。以下是一些建議和方法,以解決AI安全問題:
可解釋性和透明度:AI系統(tǒng)的設(shè)計(jì)應(yīng)具備可解釋性,以便研究人員、用戶和監(jiān)管機(jī)構(gòu)理解其決策過程。提高透明度有助于確保AI系統(tǒng)的行為符合預(yù)期,便于發(fā)現(xiàn)潛在的安全隱患。
數(shù)據(jù)安全和隱私:AI系統(tǒng)通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練。保護(hù)這些數(shù)據(jù)的隱私和安全至關(guān)重要。采用加密、數(shù)據(jù)脫敏和差分隱私等技術(shù),以確保數(shù)據(jù)在處理、傳輸和存儲(chǔ)過程中得到保護(hù)。
魯棒性和抗攻擊能力:AI系統(tǒng)應(yīng)具備對(duì)抗對(duì)手的能力,包括識(shí)別和抵御對(duì)抗性攻擊、欺騙性輸入等。研究魯棒性訓(xùn)練方法,提高系統(tǒng)的抗干擾能力。
可審計(jì)性:建立可審計(jì)的AI系統(tǒng),以記錄關(guān)鍵決策過程。這將有助于追蹤潛在問題、確保合規(guī)性,并為未來糾正錯(cuò)誤和不當(dāng)行為提供依據(jù)。
倫理與法規(guī)遵循:確保AI系統(tǒng)符合倫理原則和法律法規(guī),遵循公平、透明、可解釋等原則。研究AI倫理,制定相應(yīng)的政策和指導(dǎo)方針。
持續(xù)監(jiān)控和更新:隨著技術(shù)的進(jìn)步和新的安全威脅的出現(xiàn),需要不斷監(jiān)控和更新AI系統(tǒng),以確保其安全性和有效性。
多學(xué)科合作:鼓勵(lì)不同領(lǐng)域的研究人員、政策制定者、企業(yè)家和公眾共同參與AI安全問題的討論??鐚W(xué)科合作將有助于制定更全面的安全策略。
開放研究和分享:開展開放、合作的研究,分享AI安全相關(guān)的知識(shí)、技術(shù)和最佳實(shí)踐。這將有助于整個(gè)AI領(lǐng)域在安全問題上取得進(jìn)展。
通過積極采納這些措施和方法,我們可以降低AI領(lǐng)域的安全風(fēng)險(xiǎn),推動(dòng)人工智能的健康、可持續(xù)發(fā)展。
希望OpenAI在內(nèi)的人工智能公司,都能為保障AI安全而多上心、多出力,AI行業(yè)才能夠更加健康地發(fā)展。
作者:鹿人 蒹葭 ChatGPT 排版:鹿人
熱點(diǎn):數(shù)據(jù)