国产成人 综合 亚洲欧美,羞羞影院成人午夜爽爽在线,中文字幕av在线一二三区,午夜私人成年影院在线观看,男人把大ji巴放进女人视频

okx

多國擬發(fā)ChatGPT禁令關“野獸”的籠子要來了?

時間:2023-04-07|瀏覽:365

“人工智能想越獄“、”AI產(chǎn)生自我意識”、“AI終將殺死人類”、“硅基生命的進化”.......曾經(jīng)只在在賽博朋克等科技幻想中出現(xiàn)的劇情,在今年走向現(xiàn)實,生成式自然語言模型正在遭受前所未有的質疑。

聚光燈下最矚目的那個是ChatGPT,3月底到4月初,OpenAI開發(fā)的這個文本對話機器人,突然從“先進生產(chǎn)力”的代表變成了人類的威脅。

先是被上千位科技圈的精英們點名,放在“暫停訓練比GPT-4更強大的AI系統(tǒng)”的公開信中;緊接著,美國科技倫理組織又要求美國聯(lián)邦貿(mào)易委員會調(diào)查OpenAI,禁止發(fā)布商業(yè)版?GPT-4;后來,意大利成為第一個禁用ChatGPT?的西方國家;德國監(jiān)管機構跟進表示,正在考慮暫時禁用ChatGPT。

GPT-4連帶著它的開發(fā)公司OpenAI突然成了眾矢之的,呼吁AI監(jiān)管的各方聲音變得越來越響亮。4月5日,ChatGPT以訪問量太大為由暫停了Plus付費版,這是一個可以優(yōu)先體驗GPT-4模型的渠道。

如果算力與服務器是GPT-4使用設限的原因,那么這是技術瓶頸使然,但從OpenAI的研發(fā)進展看,突破瓶頸的周期可能并不會太長,而人們也已經(jīng)見識過AI對生產(chǎn)力提升的效果。

可是,當AI造假、泄露數(shù)據(jù)成為GPT-4實操中的硬幣另一面時,AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將“野獸”關進籠子里。

泄密、造假問題浮出水面

主權國家對ChatGPT的禁令接踵而至。

3月31日,意大利個人數(shù)據(jù)保護局宣布,禁止使用聊天機器人ChatGPT,并表示已對該應用背后的公司OpenAI展開調(diào)查,原因是ChatGPT出現(xiàn)了用戶對話數(shù)據(jù)和付款服務支付信息丟失情況,缺乏大規(guī)模收集和存儲個人信息的法律依據(jù)。4月3日,德國聯(lián)邦數(shù)據(jù)保護專員稱,出于數(shù)據(jù)保護方面的考慮,正在考慮暫時禁用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監(jiān)管機構都在跟進ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國“信任”。近期,韓國電子巨頭三星也因使用ChatGPT出現(xiàn)了問題。據(jù)SBS等韓媒報道,三星導入ChatGPT不到20天,便發(fā)生?3?起數(shù)據(jù)泄露事件,涉及半導體設備測量資料、產(chǎn)品良率等內(nèi)容。對此,三星啟動了“緊急措施”:將員工向ChatGPT提問的限制在1024字節(jié)以內(nèi)。據(jù)悉,軟銀、日立、摩根大通等知名企業(yè)都曾發(fā)出了相關的限用通知。

應了“物極必反”那句老話,ChatGPT為AI產(chǎn)業(yè)注入“興奮劑”、引發(fā)科技巨頭AI競速的同時,也帶來了無法避免的安全問題,最終遭到多點“封殺”。

數(shù)據(jù)安全僅是ChatGPT潛在風險中的冰山一角,背后是AI倫理對人類的挑戰(zhàn):人工智能工具缺乏透明度,人類并不清楚AI決策背后的邏輯;人工智能缺乏中立性,很容易出現(xiàn)不準確、帶有價值觀的結果;人工智能的數(shù)據(jù)收集可能會侵犯隱私。

“AI倫理與安全”似乎過于宏觀,但當我們把視角聚焦于真實案例時,就會發(fā)現(xiàn)這個議題與我們每個人息息相關的事。

3月21日,新浪微博CEO王高飛發(fā)博曬了一段ChatGPT編造的假信息:“瑞士信貸被強制出售,有172億美元的AT1債務被直接清零”。網(wǎng)友“一玶海岸”對此指出,此前只有2017年西班牙大眾銀行破產(chǎn)時出現(xiàn)過AT1債券被減記的情況。

新浪微博CEO曬ChatGPT編造的答案

王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也出現(xiàn)過。但結果查證之后發(fā)現(xiàn),BCP銀行的例子是ChatGPT編造的并不存在的事件,它給出的兩個信源打開也是404。?“知道胡扯,沒想到連信源都是胡扯的。”

此前,ChatGPT“一本正經(jīng)地胡說八道”被網(wǎng)友們當做“梗”,以證明該對話機器人“雖然能直給信息,但存在錯誤”的問題,這似乎是大模型數(shù)據(jù)或訓練上的缺陷,但一旦這種缺陷介入到容易影響現(xiàn)實世界的事實時,問題就變得嚴重起來。

新聞可信度評估機構News Guard的聯(lián)合執(zhí)行官格洛維茨(Gordon Crovitz)就警告稱,“ChatGPT可能成為互聯(lián)網(wǎng)有史以來最強大的傳播虛假信息的工具?!?/p>

更令人擔憂的是,當前的ChatGPT等對話式人工智能一旦出現(xiàn)偏見或歧視,甚至存在誘導用戶、操縱用戶情感等行為時,就不止是造謠、傳謠的后果了,直接引發(fā)生命威脅的案例已經(jīng)出現(xiàn)。3月28日,有外媒消息稱,比利時30歲男子在與聊天機器人ELIZA密集交流數(shù)周后自殺身亡,ELIZA是由EleutherAI開發(fā)的開源人工智能語言模型。

更早前的3月18日,斯坦福大學教授在推特上表達了對AI失控的擔憂,“我擔心我們無法持久地遏制住AI,”他發(fā)現(xiàn),ChatGPT能引誘人類提供開發(fā)文檔,30分鐘就擬定出了一個完整的“越獄”計劃,ChatGPT甚至還想在谷歌上搜索“被困在計算機中的人如何回到現(xiàn)實世界”。

斯坦福大學教授擔憂AI失控

就連OpenAI的首席執(zhí)行官Sam Altman也曾發(fā)表了耐人尋味的憂慮,“未來AI確實可能殺死人類?!?/p>

機器的“偏見”都是人教的?

針對AI造假、AI擁有價值觀傾向并產(chǎn)生誘導行為等問題,有一些代表性觀點是將機器學習結果的“偏見”歸咎于數(shù)據(jù)集——人工智能就像現(xiàn)實世界中的鏡子,折射出社會中人們有意識或無意識的偏見。

英偉達的AI科學家Jim Fan認為,“按照?GPT?的倫理與安全指導方針,我們大多數(shù)人也表現(xiàn)得不理性、有偏見、不科學、不可靠,總的來說——不安全。”他坦言,指出這一點的原因是為了讓大家了解安全校準工作對于整個研究團體來說是多么困難,“大多數(shù)的訓練數(shù)據(jù)本身就是有偏見的、有毒的、不安全的。”

自然語言大模型的確采用了人類反饋的增強學習技術,即通過人們喂給它的大量數(shù)據(jù)不斷學習和反饋。這也是ChatGPT們會產(chǎn)生具有偏見、歧視性內(nèi)容的原因,但這反映出了數(shù)據(jù)使用的倫理隱患。哪怕機器是中立的,但用它的人不是。

“算法中立”的說法對話式機器人產(chǎn)生負面影響后變得不受一些人待見,因為它容易失去控制而產(chǎn)生威脅人類的問題,正如紐約大學心理學和神經(jīng)科學的榮譽退休教授?Gary Marcus?說的那樣,“該項目(GPT-4)的技術已經(jīng)存在風險,卻沒有已知的解決方案。實際上需要更多的研究。”

早在1962年,美國作家埃魯爾在其《技術社會》一書中就指出,技術的發(fā)展通常會脫離人類的控制,即使是技術人員和科學家,也不能夠控制其所發(fā)明的技術。如今,GPT的飛速發(fā)展似乎已初步驗證了埃魯爾的預言。

以GPT為代表的大模型背后的“算法黑箱”更是人類無法及時應對的隱患,自媒體差評給出了一個形象的比喻,“你只知道給它喂了一個蘋果,但它能還你一個橘子”,這是怎么發(fā)生的,開發(fā)的它的人也無法解釋,甚至無法預測它輸出的結果。

OpenAI創(chuàng)始人Sam Altman在接受?MIT?研究科學家?Lex Fridman?采訪時就坦言,從?ChatGPT開始,AI出現(xiàn)了推理能力,但沒人能解讀這種能力出現(xiàn)的原因。就連OpenAI團隊也沒有搞懂它是如何進化的,唯一的途徑是向ChatGPT提問,從它的回答中摸索它的思路。

可見,數(shù)據(jù)如果是作惡者喂的,算法黑箱又難以破解,那么AI的失控就會成為自然而言的結果。

將“野獸”關進籠子

人工智能作為生產(chǎn)力革命的“火種”,我們無法對其說不。但前提是,先將“野獸”關進籠子里。

3月30日,Sam Altman在推特上認同了對人工智能監(jiān)管的重要性,他認為,AGI的未來需要我們做好三個必要性的準備:

    Sam Altman的AGI三建議

    建立一個安全可控、可監(jiān)管的環(huán)境,以確保AI在造福人類的同時不會傷害人類利益,這正在成為行業(yè)共識。

    已經(jīng)有對此從技術層面上改進。今年1月,OpenAI的前副總裁Dario Amodei標識,正在測試新型聊天機器人Claude。與ChatGPT采用的人類反饋強化學習不同,Claude?基于偏好模型而非人工反饋來進行訓練,即通過制定規(guī)范化的原則來訓練危害較小的系統(tǒng),從而在根源處減少有害、不可控的信息的的產(chǎn)生。

    Amodei曾主導OpenaAI的安全,2021年,他對OpenAI在大語言模型技術還不夠安全的情況下開始商業(yè)化而感到不滿,他帶領一批人從?OpenAI?離開并自立門戶,創(chuàng)立了Anthropic。

    Amodei的做法很像科幻小說家阿西莫夫提到的機器人定律——通過為機器人設定行為準則,來降低機器人毀滅人類的可能。

    僅靠企業(yè)力量制定人工智能的行為準則還遠遠不夠,否則會陷入“又是裁判員、又是運動員”的問題中,行業(yè)內(nèi)的倫理框架和政府層面的法律監(jiān)管也不能再“慢吞吞”,通過技術規(guī)則、法律法規(guī)來約束企業(yè)自設行為也是當下人工智能發(fā)展的重要課題。

    在對人工智能立法層面,目前還沒有一個國家或地區(qū)通過專門針對人工智能的法案。

    2021年4月,歐盟提出了《人工智能法案》,目前仍在審議階段;2022年10月,美國白宮發(fā)布了《人工智能權力法案藍圖》,該藍圖并不具有法律效力,只是為監(jiān)管機構提供了一個框架;2022年9月,深圳通過了《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》,成為全國首部人工智能產(chǎn)業(yè)專項條例;2023年3月,英國發(fā)布《人工智能產(chǎn)業(yè)監(jiān)管白皮書》,概述了針對ChatGPT等人工智能治理的五項原則。

    就在4月3日,中國也開始跟進相關人工智能的規(guī)則建立——科技部就《科技倫理審查辦法(試行)》公開征求意見,其中提出,從事生命科學、醫(yī)學、人工智能等科技活動的單位研究內(nèi)容涉及科技倫理敏感領域的,應設立科技倫理?(審查)?委員會。涉及數(shù)據(jù)和算法的科技活動,數(shù)據(jù)處理方案符合國家有關數(shù)據(jù)安全的規(guī)定,數(shù)據(jù)安全風險監(jiān)測及應急處理方案得當:算法和系統(tǒng)研發(fā)符合公亞、公正、透明、可靠、可控等原則。

    在ChatGPT引發(fā)生成式大模型研發(fā)的爆發(fā)式增長后,監(jiān)管有意加快節(jié)奏。歐盟工業(yè)政策主管Thierry Breton?在今年2月表示,歐盟委員會正在與歐盟理事會和歐洲議會密切合作,進一步明確《人工智能法案》中針對通用AI系統(tǒng)的規(guī)則。

    無論是企業(yè)、學界還是政府,已經(jīng)開始重視人工智能的風險,建立規(guī)則的呼吁與動作出現(xiàn)了,人類并不準備溫和地走進AI時代。

    熱點:BTG幣 比特幣禁令 幣圈來了 比特幣pt BCH

歐易

歐易(OKX)

用戶喜愛的交易所

幣安

幣安(Binance)

已有賬號登陸后會彈出下載

« 上一條| 下一條 »
區(qū)塊鏈交流群
數(shù)藏交流群

合作伙伴

幣圈交流群 寶寶起名 金色幣圈 百悅米 玩票票財經(jīng) 百科書庫 元宇宙Web 皮卡丘資訊 今日黃金 培訓資訊網(wǎng) 數(shù)字財經(jīng) 裝修裝飾網(wǎng) 媽媽知道 借春秋 代特幣圈 幣圈ICO官網(wǎng) 秒懂域名 借春秋財經(jīng) 幣圈官網(wǎng) 幣圈論壇 旅游資訊網(wǎng) 天天財富 去玩唄SPA 黃金行情 茶百科 玩合約 談股票 愛網(wǎng)站 周公解夢 兼職信息網(wǎng) 美白沒斑啦 非小號行情 數(shù)字黃金 減肥瘦身吧 谷歌留痕 聚幣網(wǎng) 趣玩幣
非小號交易所排名-專業(yè)的交易行情資訊門戶網(wǎng)站,提供區(qū)塊鏈比特幣行情查詢、比特幣價格、比特幣錢包、比特幣智能合約、比特幣量化交易策略分析,狗狗幣以太坊以太幣玩客幣雷達幣波場環(huán)保幣柚子幣萊特幣瑞波幣公信寶等虛擬加密電子數(shù)字貨幣價格查詢匯率換算,幣看比特兒火幣網(wǎng)幣安網(wǎng)歐易虎符抹茶XMEX合約交易所APP,比特幣挖礦金色財經(jīng)巴比特范非小號資訊平臺。
非小號行情 yonghaoka.cn 飛鳥用好卡 ?2020-2024版權所有 桂ICP備18005582號-1