重磅!GPT-3.5 Turbo推出微調(diào)功能,可以打造專屬ChatGPT啦!
激石Pepperstone(http://hskilr.com/)報道:
8月23日凌晨,OpenAI在官網(wǎng)宣布,推出GPT-3.5 Turbo微調(diào)功能并更新API,使企業(yè)、開發(fā)人員可以使用自己的數(shù)據(jù),結(jié)合業(yè)務(wù)用例構(gòu)建專屬ChatGPT。GPT-4的微調(diào)功能將于今年秋天推出。
OpenAI表示,從早期測試數(shù)據(jù)來看,GPT-3.5 Turbo 的微調(diào)版本在某些特定任務(wù)上,其性能可以匹配甚至超越GPT-4 的基本功能。(詳細(xì)說明文檔:https://platform.openai.com/docs/guides/fine-tuning)
微調(diào)功能是目前企業(yè)應(yīng)用大語言模型的主要方法,例如,法律領(lǐng)域的Spellbook、律商聯(lián)訊、Litera、Casetext等,他們通過自己積累的海量法律數(shù)據(jù)在GPT-4模型上進(jìn)行微調(diào)、預(yù)訓(xùn)練構(gòu)建法律領(lǐng)域的專屬ChatGPT,使其回答的內(nèi)容更加聚焦、安全、準(zhǔn)確。
自GPT-3.5 Turbo發(fā)布以來,開發(fā)人員和企業(yè)希望能夠開發(fā)自定義大模型,為用戶創(chuàng)造獨(dú)特、差異化的產(chǎn)品體驗(yàn)。現(xiàn)在,OpenAI終于開放了此功能,使得人人都能打造獨(dú)一無二的專屬ChatGPT。
什么是微調(diào)
大語言模型的微調(diào)(Fine-tuning)是一種在預(yù)訓(xùn)練模型的基礎(chǔ)上,對特定任務(wù)進(jìn)行深度訓(xùn)練的方法。
微調(diào)的基本思想是,先在大規(guī)模文本數(shù)據(jù)上預(yù)訓(xùn)練一個大型的語言模型,例如,GPT-3.5,然后,使用特定任務(wù)的數(shù)據(jù)集(如法律、醫(yī)療),進(jìn)一步對模型進(jìn)行訓(xùn)練,以適應(yīng)特定的任務(wù)。在這個過程中,模型的參數(shù)會進(jìn)行微小的調(diào)整,使其在特定業(yè)務(wù)場景上的性能更好。
例如,如果我們有一個預(yù)訓(xùn)練的GPT3.5模型,想讓它在法律業(yè)務(wù)上的表現(xiàn)更好、更專業(yè),可以用海量法律數(shù)據(jù)集對模型進(jìn)行微調(diào)。
經(jīng)過微調(diào),模型學(xué)習(xí)到如何更好地解讀、生成和預(yù)測法律問題。
微調(diào)用例
根據(jù)OpenAI的官方微調(diào)說明文檔,列出了以下常見用例:
- 設(shè)置風(fēng)格、基調(diào)、格式等;
- 提高輸出的可靠性;
- 糾正未能遵循復(fù)雜提示的問題;
- 以特定方式處理多個邊緣內(nèi)容;
- 改進(jìn)可操縱性;
- 執(zhí)行難以在提示中闡明的新技能或任務(wù)。
例如,改進(jìn)可操縱性,微調(diào)功能允許企業(yè)使模型更好地遵循指令,使輸出簡潔或始終以特定語言進(jìn)行響應(yīng)。例如,開發(fā)人員可以使用微調(diào)來確保模型,在提示使用德語時始終以德語進(jìn)行響應(yīng)。
除了提高性能之外,微調(diào)使企業(yè)能夠縮短提示時間同時保證性能。GPT-3.5-Turbo微調(diào)還可以處理4k?tokens,是OpenAI之前微調(diào)模型的兩倍。
早期測試人員通過對模型本身的指令進(jìn)行微調(diào),將提示大小減少了高達(dá) 90%,從而加快了每個API調(diào)用的速度并降低了成本。
如何進(jìn)行微調(diào)
1,準(zhǔn)備數(shù)據(jù),創(chuàng)建一組多樣化的演示對話,類似于要求模型在實(shí)際輸出中的對話。數(shù)據(jù)集中的每個示例都應(yīng)該與OpenAI的聊天完成 API 格式相同的對話,特別是消息列表,其中每條消息都有角色、內(nèi)容和可選名稱。
2,上傳文件
3,創(chuàng)建微調(diào)作業(yè),使用 OpenAI SDK開始進(jìn)行大規(guī)模數(shù)據(jù)訓(xùn)練、微調(diào)。訓(xùn)練模型可能需要幾分鐘或幾小時,具體取決于模型和數(shù)據(jù)集大小。模型訓(xùn)練完成后,創(chuàng)建微調(diào)作業(yè)的用戶將收到一封確認(rèn)電子郵件。
除了創(chuàng)建微調(diào)作業(yè)外,開發(fā)者還可以列出現(xiàn)有作業(yè)、檢索作業(yè)狀態(tài)或取消作業(yè)。
4,使用微調(diào)模型,微調(diào)作業(yè)完成后模型可以投入使用了。
在某些情況下,用戶的微調(diào)模型可能需要幾分鐘才能準(zhǔn)備好處理請求。如果對模型的請求超時或找不到模型名稱,可能是因?yàn)槟P腿栽诩虞d中,可在幾分鐘后重試。
微調(diào)定價
微調(diào)分為初始訓(xùn)練成本和使用成本兩大部分。
訓(xùn)練:0.008 美元/1K tokens。
使用輸入:0.012 美元/1K tokens。
使用輸出:0.016 美元/1K tokens。
例如,一個GPT-3.5 Turbo包含 100,000 個okens的訓(xùn)練文件并訓(xùn)練3個epoch的微調(diào)作業(yè)的預(yù)期成本為2.40美元。
?
本文來源:AIGC開放社區(qū),原文標(biāo)題:《重磅!GPT-3.5 Turbo推出微調(diào)功能,可以打造專屬ChatGPT啦!》
風(fēng)險提示及免責(zé)條款
市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。
掃描二維碼推送至手機(jī)訪問。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請注明出處。