国产成人 综合 亚洲欧美,羞羞影院成人午夜爽爽在线,中文字幕av在线一二三区,午夜私人成年影院在线观看,男人把大ji巴放进女人视频

okx

BuidlerDAOxKNN3:大型語(yǔ)言模型使用經(jīng)驗(yàn)

時(shí)間:2023-05-05|瀏覽:251

作者:@於方仁 @Caroline Sun

編排:@黑羽小斗

LLM

大型語(yǔ)言模型(LLM, Large Language Model)是利用海量的文本數(shù)據(jù)進(jìn)行訓(xùn)練海量的模型參數(shù)。大語(yǔ)言模型的使用,大體可以分為兩個(gè)方向:

A. 僅使用

B. 微調(diào)后使用

僅使用又稱(chēng) Zero-shot,因?yàn)榇笳Z(yǔ)言模型具備大量通用的語(yǔ)料信息,量變可以產(chǎn)生質(zhì)變。即使 Zero-shot 也許沒(méi)得到用戶(hù)想要的結(jié)果,但加上合適的 prompt 則可以進(jìn)一步獲取想要的知識(shí)。該基礎(chǔ)目前被總結(jié)為 prompt learning。

大語(yǔ)言模型,比較流行的就是 BERT 和 GPT。從生態(tài)上講 BERT 與 GPT 最大的區(qū)別就是前者模型開(kāi)源,后者只開(kāi)源了調(diào)用 API ,也就是目前的 ChatGPT。

兩個(gè)模型均是由若干層的 Transformer 組成,參數(shù)數(shù)量等信息如下表所示。

目前生態(tài)上講,BERT 多用于微調(diào)場(chǎng)景。因?yàn)槲⒄{(diào)必須在開(kāi)源模型的基礎(chǔ)上,GPT 僅開(kāi)源到 GPT2 的系列。且相同模型參數(shù)量下 BERT 在特定場(chǎng)景的效果往往高于 GPT,微調(diào)需要調(diào)整全部的模型參數(shù),所以從性?xún)r(jià)比而言,BERT 比 GPT 更適合微調(diào)。

而 GPT 目前擁有 ChatGPT 這種面向廣大人民群眾的應(yīng)用,使用簡(jiǎn)單。API 的調(diào)用也尤其方便。所以若是僅使用 LLM,則 ChatGPT 顯然更有優(yōu)勢(shì)。

ChatGPT Prompt

下圖是 OpenAI 官方提出對(duì)于 ChatGPT 的 prompt 用法大類(lèi)。

Figure 1. Prompt Categories by OpenAI?

每種類(lèi)別有很多具體的范例。如下圖所示:

Figure 2. Prompt Categories Examples by OpenAI

除此以外,我們?cè)诖颂岢鲆恍┞晕⒏呒?jí)的用法。

高級(jí)分類(lèi)

這是一個(gè)意圖識(shí)別的例子,本質(zhì)上也是分類(lèi)任務(wù),我們指定了類(lèi)別,讓 ChatGPT 判斷用戶(hù)的意圖在這

Figure 3. Prompt Examples

實(shí)體識(shí)別與關(guān)系抽取

利用 ChatGPT 做實(shí)體識(shí)別與關(guān)系抽取輕而易舉,例如給定一篇文本后,這么像它提問(wèn)。

Figure 4. Example Text Given to ChatGPT

這是部分結(jié)果截圖:

Figure 5. Partial Output from given Text on ChatGPT

之后可以追問(wèn)給他們的關(guān)系,例如:

Figure 6.Asking relationship on ChatGPT

這樣,一個(gè)大型的知識(shí)圖譜便可輕松建立。

分析任務(wù)

如下圖所示,我對(duì) ChatGPT 提出了分析我目前需求的問(wèn)題。

Figure 7. Result for needs request on ChatGPT

甚至還能讓它給定分?jǐn)?shù)。

Figure 8. Scoring to evaluate the identified needs

除此以外還有數(shù)不勝數(shù)的方式,在此不一一列舉。

組合Agent

另外,我們?cè)谑褂?ChatGPT 的 API 時(shí),可以將不同的 prompt 模板產(chǎn)生多次調(diào)用產(chǎn)生組合使用的效果。我愿稱(chēng)這種使用方式叫做,組合 Agent。例如 Figure 1 展示的是一個(gè)大概的思路。

Figure 9.? The Paradigm of the Combination Agent

具體說(shuō)來(lái),例如是一個(gè)輔助創(chuàng)作文章的產(chǎn)品。則可以這么設(shè)計(jì),如 Figure 10 所示。

Figure 10. Agent combination for assisting in creation

假設(shè)用戶(hù)輸入一個(gè)請(qǐng)求,說(shuō)“幫我寫(xiě)一篇倫敦游記”, 那么 Intent Recognition Agent 首先做一個(gè)意圖識(shí)別,意圖識(shí)別也就是利用 ChatGPT 做一次分類(lèi)任務(wù)。假設(shè)識(shí)別出用戶(hù)的意圖是文章生成,則接著調(diào)用 Article Generate Agent。

另一方面,用戶(hù)當(dāng)前的輸入與歷史的輸入可以組成一個(gè)上下文,輸入給 Chat Context Analyze Agent。當(dāng)前例子中,這個(gè) agent 分析出的結(jié)果傳入后面的 AI Reply Agent 和 Phase Control Agent的。

AI Reply Agent 就是用來(lái)生成 AI 回復(fù)用戶(hù)的語(yǔ)句,假設(shè)我們的產(chǎn)品前端并不只有一個(gè)文章,另一個(gè)敵方還有一個(gè)框用來(lái)顯示 AI 引導(dǎo)用戶(hù)創(chuàng)作文章的語(yǔ)句,則這個(gè) AI Reply Agent 就是用來(lái)干這個(gè)事情。將上下文的分析與文章一同提交給 ChatGPT,讓其根據(jù)分析結(jié)果結(jié)合文章生成一個(gè)合適的回復(fù)。例如通過(guò)分析發(fā)現(xiàn)用戶(hù)只是在通過(guò)聊天調(diào)整文章內(nèi)容,而不知道 AI 還能控制文章的藝術(shù)意境,則可以回復(fù)用戶(hù)你可以嘗試著對(duì)我說(shuō)“調(diào)整文章的藝術(shù)意境為非現(xiàn)實(shí)主義風(fēng)格”。

Phase Control Agent 則是用來(lái)管理用戶(hù)的階段,對(duì)于 ChatGPT 而言也可以是一個(gè)分類(lèi)任務(wù),例如階段分為[文章主旨,文章風(fēng)格,文章模板,文章意境]等等。例如 AI 判斷可以進(jìn)行文章模板的制作了,前端可以產(chǎn)生幾個(gè)模板選擇的按鈕。

使用不同的 Agent 來(lái)處理用戶(hù)輸入的不同任務(wù),包括意圖識(shí)別、Chat Context 分析、AI 回復(fù)生成和階段控制,從而協(xié)同工作,為用戶(hù)生成一篇倫敦游記的文章,提供不同方面的幫助和引導(dǎo),例如調(diào)整文章的藝術(shù)意境、選擇文章模板等。這樣可以通過(guò)多個(gè) Agent 的協(xié)作,使用戶(hù)獲得更加個(gè)性化和滿(mǎn)意的文章生成體驗(yàn)。?

Prompt 微調(diào)

LLM 雖然很厲害,但離統(tǒng)治人類(lèi)的 AI 還相差甚遠(yuǎn)。眼下有個(gè)最直觀的痛點(diǎn)就是 LLM 的模型參數(shù)太多,基于 LLM 的模型微調(diào)變得成本巨大。例如 GPT-3 模型的參數(shù)量級(jí)達(dá)到了 175 Billion ,只有行業(yè)大頭才有這種財(cái)力可以微調(diào) LLM 模型,對(duì)于小而精的公司而言該怎么辦呢。無(wú)需擔(dān)心,算法科學(xué)家們?yōu)槲覀儎?chuàng)新了一個(gè)叫做 prompt tuning 的概念。

Prompt tuning 簡(jiǎn)單理解就是針對(duì)prompt進(jìn)行微調(diào)操作,區(qū)別于傳統(tǒng)的 fine-tuning,優(yōu)勢(shì)在于更快捷, prompt tuning 僅需微調(diào) prompt 相關(guān)的參數(shù)從而去逼近 fine-tuning 的效果。

Figure 11. Prompt learning

什么是 prompt 相關(guān)的參數(shù),如圖所示,prompt tuning 是將 prompt 從一些的自然語(yǔ)言文本設(shè)定成了由數(shù)字組成的序列向量。本身 AI 也會(huì)將文本從預(yù)訓(xùn)練模型中提取向量從而進(jìn)行后續(xù)的計(jì)算,只是在模型迭代過(guò)程中,這些向量并不會(huì)跟著迭代,因?yàn)檫@些向量于文本綁定住了。但是后來(lái)發(fā)現(xiàn)這些向量即便跟著迭代也無(wú)妨,雖然對(duì)于人類(lèi)而言這些向量迭代更新后在物理世界已經(jīng)找不到對(duì)應(yīng)的自然語(yǔ)言文本可以表述出意思。但對(duì)于 AI 來(lái)講,文本反而無(wú)意義,prompt 向量隨著訓(xùn)練會(huì)將 prompt 變得越來(lái)越符合業(yè)務(wù)場(chǎng)景。

假設(shè)一句 prompt 由 20 個(gè)單詞組成,按照 GPT3 的設(shè)定每個(gè)單詞映射的向量維度是12288,20個(gè)單詞便是245760,理論上需要訓(xùn)練的參數(shù)只有245760個(gè),相比175 billion 的量級(jí),245760這個(gè)數(shù)字可以忽略不計(jì),當(dāng)然也會(huì)增加一些額外的輔助參數(shù),但同樣其數(shù)量也可忽略不計(jì)。

問(wèn)題來(lái)了,這么少的參數(shù)真的能逼近?fine tuning 的效果嗎,當(dāng)然還是有一定的局限性。如下圖所示,藍(lán)色部分代表初版的 prompt tuning, 可以發(fā)現(xiàn) prompt tuning 僅有在模型參數(shù)量級(jí)達(dá)到一定程度是才有效果。雖然這可以解決大多數(shù)的場(chǎng)景,但在某些具體垂直領(lǐng)域的應(yīng)用場(chǎng)景下則未必有用。因?yàn)榇怪鳖I(lǐng)域的微調(diào)往往不需要綜合的 LLM 預(yù)訓(xùn)練模型,僅需垂直領(lǐng)域的 LLM 模型即可,但是相對(duì)的,模型參數(shù)不會(huì)那么大。所以隨著發(fā)展,改版后的 prompt tuning 效果可以完全取代 fine-tuning。下圖中的黃色部分展示的就是 prompt tuning v2 也就是第二版本的 prompt tuning 的效果。

Figure 12. Prompt learning parameters

V2 的改進(jìn)是將原本僅在最初層輸入的連續(xù) prompt 向量,改為在模型傳遞時(shí)每一個(gè)神經(jīng)網(wǎng)絡(luò)層前均輸入連續(xù) prompt 向量,如下圖所示。

Figure 13. Prompt learning v2

還是以 GPT3 模型為例,GPT3 總從有96層網(wǎng)絡(luò),假設(shè) prompt 由20個(gè)單詞組成,每個(gè)單詞映射的向量維度是12288,則所需要訓(xùn)練的參數(shù)量 = 96 * 20 * 12288 =23592960。是175 billion 的萬(wàn)分之1.35。這個(gè)數(shù)字雖不足以忽略不計(jì),但相對(duì)而言也非常小。

未來(lái)可能會(huì)有 prompt tuning v3, v4 等問(wèn)世,甚至我們可以自己加一些創(chuàng)新改進(jìn) prompt tuning,例如加入長(zhǎng)短期記憶網(wǎng)絡(luò)的設(shè)定。(因?yàn)樵娴?prompt tuning v2 就像是一個(gè)大型的 RNN, 我們可以像改進(jìn)RNN 一般去改進(jìn)prompt tuning v2)。總之就目前而言,prompt tuning 使得微調(diào) LLM 變得可行,未來(lái)一定會(huì)有很多垂直領(lǐng)域的優(yōu)秀模型誕生。

總結(jié)

Large Language Models (LLMs) 和 Web3 技術(shù)的整合為去中心化金融(DeFi)領(lǐng)域帶來(lái)了巨大的創(chuàng)新和發(fā)展機(jī)遇。通過(guò)利用 LLMs 的能力,應(yīng)用程序可以對(duì)大量不同數(shù)據(jù)源進(jìn)行全面分析,生成實(shí)時(shí)的投資機(jī)會(huì)警報(bào),并根據(jù)用戶(hù)輸入和先前的交互提供定制建議。LLMs 與區(qū)塊鏈技術(shù)的結(jié)合還使得智能合約的創(chuàng)建成為可能,這些合約可以自主地執(zhí)行交易并理解自然語(yǔ)言輸入,從而促進(jìn)無(wú)縫和高效的用戶(hù)體驗(yàn)。

這種先進(jìn)技術(shù)的融合有能力徹底改變 DeFi 領(lǐng)域,并開(kāi)辟出一條為投資者、交易者和參與去中心化生態(tài)系統(tǒng)的個(gè)體提供新型解決方案的道路。隨著 Web3 技術(shù)的日益普及,LLMs 創(chuàng)造復(fù)雜且可靠解決方案的潛力也在擴(kuò)大,這些解決方案提高了去中心化應(yīng)用程序的功能和可用性??傊琇LMs 與 Web3 技術(shù)的整合為 DeFi 領(lǐng)域提供了強(qiáng)大的工具集,提供了有深度的分析、個(gè)性化的建議和自動(dòng)化的交易執(zhí)行,為該領(lǐng)域的創(chuàng)新和改革提供了廣泛的可能性。


參考文獻(xiàn)

熱點(diǎn):cnn幣 幣圈經(jīng)驗(yàn) busd幣 bu虛擬幣 GO語(yǔ)言

歐易

歐易(OKX)

用戶(hù)喜愛(ài)的交易所

幣安

幣安(Binance)

已有賬號(hào)登陸后會(huì)彈出下載

« 上一條| 下一條 »
區(qū)塊鏈交流群
數(shù)藏交流群

合作伙伴

愛(ài)網(wǎng)站 周公解夢(mèng) 媽媽知道 秒懂域名 借春秋財(cái)經(jīng) 金色幣圈 幣圈論壇 培訓(xùn)資訊網(wǎng) 幣圈交流群 百悅米 天天財(cái)富 寶寶起名 非小號(hào)行情 兼職信息網(wǎng) 代特幣圈 美白沒(méi)斑啦 今日黃金 皮卡丘資訊 談股票 百科書(shū)庫(kù) 數(shù)字黃金 去玩唄SPA 幣圈ICO官網(wǎng) 玩合約 幣圈官網(wǎng) 趣玩幣 裝修裝飾網(wǎng) 黃金行情 減肥瘦身吧 谷歌留痕 數(shù)字財(cái)經(jīng) 旅游資訊網(wǎng) 茶百科 聚幣網(wǎng) 借春秋 元宇宙Web 玩票票財(cái)經(jīng)
非小號(hào)交易所排名-專(zhuān)業(yè)的交易行情資訊門(mén)戶(hù)網(wǎng)站,提供區(qū)塊鏈比特幣行情查詢(xún)、比特幣價(jià)格、比特幣錢(qián)包、比特幣智能合約、比特幣量化交易策略分析,狗狗幣以太坊以太幣玩客幣雷達(dá)幣波場(chǎng)環(huán)保幣柚子幣萊特幣瑞波幣公信寶等虛擬加密電子數(shù)字貨幣價(jià)格查詢(xún)匯率換算,幣看比特兒火幣網(wǎng)幣安網(wǎng)歐易虎符抹茶XMEX合約交易所APP,比特幣挖礦金色財(cái)經(jīng)巴比特范非小號(hào)資訊平臺(tái)。
非小號(hào)行情 yonghaoka.cn 飛鳥(niǎo)用好卡 ?2020-2024版權(quán)所有 桂ICP備18005582號(hào)-1