時間:2024-01-06|瀏覽:336
奧地利因斯布魯克大學的研究人員發(fā)表了一篇論文,探討了時間有效性在生成人工智能(AI)系統(tǒng)中的應用,指出該基準可能會給生態(tài)系統(tǒng)帶來變化。時間有效性是指一個陳述與另一個陳述的相關性,該陳述與另一個陳述的進展有關。時間。
對于人工智能系統(tǒng),該指標允許模型識別語句基于時間的價值,這是使模型與眾不同的關鍵功能。在這篇長達 18 頁的研究論文中,人工智能模型已經證明了在識別簡單語句中時間有效性的持續(xù)時間方面有足夠的能力。
然而,在存在額外上下文信息的情況下,生成式 AI 模型識別語句中時間有效性的能力有所不同。為了有效衡量大型語言模型 (LLM) 遵循復雜語句中時間有效性的能力,研究人員推出了一項基準測試報告中寫道:“我們提出了時間有效性變化預測,這是一項自然語言處理任務,對機器學習模型的能力進行基準測試,以檢測引起此類變化的上下文語句?!眲?chuàng)建數據集后從 X 開始,研究人員在幾種主流生成人工智能模型上測試了時間有效性持續(xù)時間預測。
在他們提交的材料中,OpenAI 的 ChatGPT 未能以其時間常識(TCS)能力給人留下深刻印象,研究人員指出了訓練聊天機器人所采用的系統(tǒng)?!癈hatGPT 屬于性能較低的模型之一,這與 TCS 的其他研究一致理解”,報紙上寫道。
“它的缺點可能是由于少樣本學習方法和缺乏對數據集具體特征的了解。”該論文指出了具有先進 TCS 的人工智能模型的幾個用例,包括金融市場預測和生成新聞報道中的實用程序來自社交媒體帖子。
人工智能聊天機器人的其他用例包括提高其跟蹤知識的能力,而這些知識在評估新輸入以確定相關性時仍然是必要的。人工智能研究達到新的高度在過去的幾個月里,針對人工智能和法學碩士的突破性研究已經發(fā)表,為人工智能和法學碩士的研究找到了漏洞。前沿模型的能力。
一項研究指出,主流 AI 模型更傾向于阿諛奉承而不是事實反應,因為它們在模型訓練中依賴于人類反饋的強化學習 (RLHF)。 2023 年的另一項研究發(fā)現(xiàn)了一個聊天機器人故障,允許可怕的行為者通過重復單個指令來訪問員工的詳細信息。其他研究探討了區(qū)塊鏈與人工智能模型的應用,以提高用戶的信任、隱私和安全性。觀看:
區(qū)塊鏈和人工智能有什么共同點?
它的數據寬度=“562”高度=“315”frameborder=“0”allowfullscreen=“allowfullscreen”>區(qū)塊鏈新手?
查看 CoinGeek 的區(qū)塊鏈初學者部分,這是了解更多有關區(qū)塊鏈技術的終極資源指南。