国产成人 综合 亚洲欧美,羞羞影院成人午夜爽爽在线,中文字幕av在线一二三区,午夜私人成年影院在线观看,男人把大ji巴放进女人视频

okx

美國對AI的恐懼來源于社交媒體的失控

時間:2023-05-23|瀏覽:221

美國時間 5 月 16 日,參議院審議 AI 監(jiān)管議題的聽證會上,氣氛一派祥和。

這是以 ChatGPT 為代表的生成式 AI 科技爆炸性進步后,美國國會舉辦的第一場聽證會,可能奠定未來美國如何監(jiān)管生成式AI的基調,因此尤其引人關注。

而引人關注的另一點,是因為提供 ChatGPT 的 OpenAI CEO 山姆·奧特曼(Sam Altman),正是聽證會的三位證人之一。另兩位則是長期對 AI 技術持質疑態(tài)度的紐約大學榮休教授加里·馬庫斯(Gary Marcus)和 IBM 的首席隱私和信任官克里斯蒂娜·蒙哥馬利(Christina Montgomery)。

歐美互聯(lián)網大佬參加的國會舉行的聽證會,一向以劍拔弩張的緊張氛圍,和不懂科技還一定要管科技的國會議員聞名。然而這場聽證會,氛圍卻出乎預料的輕松。

不少議員在發(fā)言中表示自己試用過 Open AI 的產品,并據此提問。對 AI 已經產生的問題和未來的風險,也更多地表現出一種溝通,而非問責的態(tài)度,與此前扎克伯格、周受資的待遇形成了鮮明對比。部分原因或許來自奧特曼在聽證會前已經與參議員們進行了多次私下溝通,且對 AI 監(jiān)管表現出非常積極的態(tài)度。

聽證會內容橫跨了生成式 AI 帶來的諸多影響,包括不實信息問題、信息操縱人心問題、失業(yè)問題、隱私問題、版權問題、壟斷問題等。

對此,三位證人對參議員們的擔憂都表示了不同程度的認同,并認可政府應該對 AI 行業(yè)進行監(jiān)管。

「此次聽證會是歷史性的。我不記得之前在任何情況下,有大企業(yè)和私營組織代表來參加聽證會,請求我們去監(jiān)管他們?!挂呀洰斶x參議員二十幾年的迪克·德賓(Dick Durbin)在聽證會中感嘆道。

多方共識下,問題進一步成為,對生成式 AI 的監(jiān)管,究竟要怎么管。

無法承受像管社媒

一樣慢管 AI 的后果

雖然聽證會以 AI 監(jiān)管為主要內容,但「社交媒體」一詞卻不斷出現,在不到三小時的會議中,出現了 32 次之多。

參議員們仿佛在對社交媒體管控「失敗」反思,并想在 AI 領域重新來過。「我們無法承擔像我們曾經管控社交媒體一樣慢地去管控生成式 AI 的后果,因為其影響,不管正面的還是負面的,都會遠遠超出社交媒體帶來的影響?!箙⒆h員克里斯·庫恩斯(Chris Coons)表示。

會議雖然討論了多個 AI 相關的問題,但議員們最關注的,還是生成式AI 發(fā)布不實消息和操縱人心的問題,而對于尚未到來的通用人工智能的監(jiān)管則幾乎沒有探討。

整場聽證會以主席理查德·布盧門撒爾(Richard Blumenthal)的一段以 AI 生成的虛擬錄音開場,AI 以相當接近布盧門撒爾的說話方式模擬了一段他可能發(fā)表的意見,布盧門撒爾也對 AI 的能力表示認可,但很快他的落點落到了本場聽證會的中心——不實信息。如果 AI 提供的信息是與他本人立場相反的呢?聽眾是不是也會覺得這是他本人的立場?

參議員喬什·霍利(Josh Hawley)引用了一篇 4 月的學術論文,提出 AI 可以通過建模,成功預測出公眾對于一件尚未發(fā)生的事情的反應。那是不是意味著如果利用 AI,去做一些策略調整,能成功操縱民意?

對此,奧特曼的回應是,這也是他最擔心的事情之一,「一對一的,互動式的不實信息(傳播)。」他認為需要監(jiān)管、公司努力和公眾教育結合才能解決。

其中一個可能有效的解決方案是,公眾永遠應當知道自己在和 AI 說話,而不能出現以為自己在和人類對話,實際上在和 AI 對話的情況。

但他總體對人類的適應能力表示樂觀?!冈?Photoshop 出來的時候,其中有一段時間人們都很容易被 Photoshop 編輯過的照片欺騙。然而很快,人們有了照片可能是被 Photoshop 編輯過的意識?!?/p>

他也進一步強調了,這也是為什么 Open AI 公司要開放 ChatGPT 使用的原因。這樣大家能從一個發(fā)展中的產品中,盡早地建立對于這種科技的認知,而避免直接放出一個非常成熟的產品,使大家在尚未建立對生成式 AI 的認知之時就受到科技的沖擊。

使用 Midjourney 生成的一張圖片

聽證會還提到了更強大的 AI,會不會更容易針對我們每個人,提供出最符合我們偏好的信息,更容易引走我們的注意力,和相關的 Open AI 如何處理這類的個人向的數據。

「我們不使用廣告作為營收,所以我們沒有在建立用戶畫像?!箠W特曼表示,「我們也沒有在努力讓用戶更多地使用我們。事實上,我們希望用戶更少地使用我們的產品,因為我們 GPU 不足。」

但是他同時認為這絕對是值得擔憂的問題。他非常確定有公司已經在研究相關的事情。Open AI 也無法保證永遠不采取廣告模式盈利。

同時奧特曼也在宣誓過的狀態(tài)下再次明確,Open AI 會利用公開網絡上的資料來訓練,但不會用從 API 獲取的用戶數據中訓練,且如果在 ChatGPT 中進行設置,用戶在 ChatGPT 上的數據也可選不成為公司的訓練材料。

支持 AI 研發(fā)牌照,

奧特曼有沒有私心?

對 AI,政府該不該進行管理,在此次聽證會上幾乎沒有爭議。在政府監(jiān)管上利益相關的兩位證人奧特曼和蒙哥馬利都十分認同政府監(jiān)管。

但到底政府該怎么管,則成為了一個激烈探討的話題。

其中討論最多的一個方向,是是否應該專門建立一個管理生成式 AI 的監(jiān)管機構。這個監(jiān)管機構可以在發(fā)布前和發(fā)布后,聯(lián)合獨立專家,全面地檢查一個 AI 模型的安全性,并擁有對犯錯的公司執(zhí)行吊銷做 AI 模型的權力。實際上,相當于為公司發(fā)放 AI 牌照。

「你不能沒有牌照就建一個核反應堆,你不能沒有一個獨立檢測的牌照就建一個 AI 模型。我認為這是很好的類比?!挂晃蛔h員這樣說道。

奧特曼對此十分認同?!赋^一定門檻的任何嘗試都應該得到政府的牌照,而且牌照應當可以收回,以確保其能夠遵守安全標準。」

在一位議員提問政府應當禁止做了某些事情的 AI,還是應當禁止有能力做某些事的 AI 時,他直接回答,兩者皆應被監(jiān)管。

至于門檻具體是什么,在參議員的要求下,他提供了一個方向,最簡單的可以是以訓練數據量為衡量來進行判斷,更復雜的可以是模型具有了能夠說服人類,改變人類想法的能力,或者能夠創(chuàng)建新的生物制劑后,應該被監(jiān)管。

說到這,你可能會想,為什么許多行業(yè)在面對監(jiān)管時,都十分抗拒,而奧特曼作為 AI 行業(yè)的領導者卻支持一個如此強力的監(jiān)管方式,希望政府擁有能夠吊銷 AI 牌照的權力?

一種解釋是他的確非常關心 AI 帶來的安全問題。這點得到了曾與他私下會面過的參議員,以及同場的證人馬庫斯教授的認可。

奧特曼在國會回答提問 圖片來源:聽證會截圖

另一種解釋則沒那么無私。在一篇福布斯的文章中,長期關注 AI 發(fā)展的資深作者 Jeremy Kahn 提出了另一種解釋:「AI 公司們面臨的最大的挑戰(zhàn)之一來自開源 AI 軟件... 開源社區(qū)已經被證明極其具有創(chuàng)新力,能夠敏捷地匹配上大公司專利模型的表現和能力,使用的模型更小,更簡單,可免費下載且訓練起來更廉價。如果出現牌照政策,這些開源公司都將舉步維艱。它們很難為模型裝備穩(wěn)健的限制,也很難控制人們如何使用它們創(chuàng)造的模型——開源,從本質上來說,就不能避免人們修改代碼和把安全性限制的代碼去掉?!?/p>

如果認同后一種解釋的話,似乎也可以解釋為什么奧特曼雖然大力贊成通過牌照政策確保 AI 安全,但是在檢查模型訓練數據方面,則沒有那么積極。

作為 AI 研究者和批評者的證人馬庫斯教授,在認同牌照政策和新建政府機構來監(jiān)管 AI 的同時,一直極其強調 AI 的透明性,強調獨立專家應該能夠審計大模型訓練的語料。

「我對 GPT-4 最擔憂的一點是我們不知道它訓練的數據是什么... 它訓練依賴的數據對 AI 系統(tǒng)的偏見會有影響?!柜R庫斯教授表示,訓練數據可能包含紐約時報,也包含 Reddit,但是「我們不知道它們的比例?!?/p>

而奧特曼則雖然原則上認同過應該對「原料」進行審查(但主語并沒有說是政府),更多提及支持「外部審計,紅隊演練,提出一個模型在訓練前需要達到的標準」這類的政府監(jiān)管,更偏向于以標準和測試的方式讓政府進行檢查。

「我們過去有建立一項測試,可以檢測一個模型是否能自我復制和自己逃脫進入外界。我們可以為政府提供一個長名單,列出一個模型在被正式投放之前我們認為非常重要的一系列檢測?!箠W特曼講道。

Open AI 是生成式 AI 領域里無可爭議的領軍企業(yè),如果真的按照這個建議施行,Open AI 顯然有機會極大影響政府設計的 AI 安全標準和發(fā)放召回牌照的標準,似乎完全符合福布斯這篇文章的標題《Open AI CEO 山姆·奧特曼想要 AI 牌照監(jiān)管。這或許對我們是好事。但對 Open AI 絕對是好事》。

除了對開源公司產生威脅,達到一定 AI 能力就需要牌照的政策對于不面向公眾的公司也并不友好。

代表 IBM 的證人蒙哥馬利就反對這項政策。IBM 本身并不面向普通公眾,而是面向商業(yè)客戶,許多前述提到的風險,比如操縱選舉的風險對于 IBM 來講并不存在。

蒙哥馬利更偏向于基于風險管理的手段。歐盟 AI 法案目前采取的就是這樣的方式。法案圍繞四類人工智能系統(tǒng)構建,分別是:不可接受的風險、高風險、有限風險以及最低風險。其中前三類將受到法案的監(jiān)管。針對不同風險,采取不同的監(jiān)管手段。

「比如選舉信息的例子。當然任何在這個場景下的算法都應該被要求披露訓練所用的數據,模型的表現,任何相關的信息都非常重要?!姑筛珩R利表示。

她同時也認為現有的機構如 FTC 已經足以能夠完成這一任務,無需新建新的機構。

參議員們本身,也并不都支持創(chuàng)建一個新的政府機構。

參議員喬什·霍利(Josh Hawley)語出驚人,「政府機構通常會被他們本來要監(jiān)管的人所腐蝕,被他們要監(jiān)管的機構所控制... 為什么我們不直接讓公民告你們?」他提議直接對 1996 年《通信規(guī)范法》中的第 230 條款(Section 230)進行明確,使其確認不保護生成式 AI 公司?!肝覀兙痛蜷_訴訟的大門。允許人們上法庭。允許他們來提供證據。比如說他們可以說,他們因為得到了錯誤的醫(yī)療不實信息而受害,或者錯誤的選舉信息而受害,就可以起訴。為什么不這么做?」

盡管三位證人都認同第 230 條款不應該應用于生成式 AI 的公司,奧特曼和馬庫斯教授都立刻指出,目前法律在生成式 AI 方面很不清晰。馬庫斯教授表示,「我們現有的法律是在人工智能出現很多年前制訂的... 法律官司可能會持續(xù)十年甚至更久。」

無解的議題——

壟斷、就業(yè)與國際合作

在聽證會上,AI 大模型集中于少數公司之手的議題也被不止一次的提起。奧特曼本人也承認這一點:「開源社區(qū)現在有很多奇妙的事情發(fā)生,但未來將只有一小部分供應商能夠提供最尖端的模型?!?/p>

他認為這樣自然有其風險,但是好處是監(jiān)管難度也會變小。雖然與會者也都指出這種集中模式有其風險,整個聽證會并沒有人能夠提出一個好的方法解決這一問題。

人工智能帶來的就業(yè)問題也是無解。盡管與會人員有提到新科技通常能帶來新就業(yè),馬庫斯教授警告說「歷史不一定會重現... 我認為這次將可能不同。真正的問題是在多大的時間范疇來看?我認為長期來看,通用人工智能真的會取代一大部分的人類工作?!箠W特曼盡管發(fā)表了較為樂觀的預測,認為人工智能只是工具,未來的工作將會更好,但也承認終究很難預測未來的發(fā)展。

在游戲底特律變人中,仿生人取代了人類的許多底層工作 | 圖片來源:底特律變人游戲截圖

另一個無解的議題是國際合作。馬庫斯教授提出,可以建立一個歐洲核子研究中心一樣的國際組織,絕對中立且關注 AI 安全。這一觀點受到不少認可,但是參與聽證會的成員也無法就這個方向繼續(xù)深入探討。

人工智能生成的作品的版權,對原創(chuàng)作者和新聞出版業(yè)的保護也是一個關注重點。在此次聽證會上,只是略有涉及,參議員們表示,六月和七月還要舉辦多次聽證會,專門針對知識產權問題。美國時間 5 月 17 日,美國眾議院司法委員會下設的法院、知識產權和互聯(lián)網小組委員會也舉辦了生成式 AI 知識產權的聽證會。

熱點:幣圈的恐慌 失控元宇宙 比特幣恐懼 恐懼收藏品 比特幣來源

歐易

歐易(OKX)

用戶喜愛的交易所

幣安

幣安(Binance)

已有賬號登陸后會彈出下載

« 上一條| 下一條 »
區(qū)塊鏈交流群
數藏交流群

合作伙伴

去玩唄SPA 減肥瘦身吧 數字黃金 數字財經 皮卡丘資訊 谷歌留痕 趣玩幣 今日黃金 玩合約 秒懂域名 培訓資訊網 周公解夢 百科書庫 天天財富 百悅米 幣圈交流群 兼職信息網 借春秋財經 借春秋 幣圈論壇 黃金行情 愛網站 金色幣圈 茶百科 幣圈ICO官網 談股票 幣圈官網 非小號行情 玩票票財經 媽媽知道 元宇宙Web 裝修裝飾網 代特幣圈 聚幣網 美白沒斑啦 寶寶起名 旅游資訊網
非小號交易所排名-專業(yè)的交易行情資訊門戶網站,提供區(qū)塊鏈比特幣行情查詢、比特幣價格、比特幣錢包、比特幣智能合約、比特幣量化交易策略分析,狗狗幣以太坊以太幣玩客幣雷達幣波場環(huán)保幣柚子幣萊特幣瑞波幣公信寶等虛擬加密電子數字貨幣價格查詢匯率換算,幣看比特兒火幣網幣安網歐易虎符抹茶XMEX合約交易所APP,比特幣挖礦金色財經巴比特范非小號資訊平臺。
非小號行情 yonghaoka.cn 飛鳥用好卡 ?2020-2024版權所有 桂ICP備18005582號-1