近期,科技領域迎來了一項重大進展。OpenAI公司宣布,在其最新推出的o4-mini推理模型上,成功融入了強化微調(diào)技術(shù)(RFT),這一創(chuàng)新為定制化基礎模型以適應多樣化任務提供了強有力的支持。
RFT技術(shù)將強化學習原理巧妙應用于語言模型的微調(diào)階段,這意味著開發(fā)者們不再完全依賴于標注數(shù)據(jù)。相反,他們可以通過設計特定任務的評分函數(shù)來評估模型的輸出。這些評分函數(shù)基于自定義標準,如準確性、格式或語氣,為模型的表現(xiàn)打分。模型則通過優(yōu)化獎勵信號,逐步學習并生成符合預期的行為。
RFT特別適用于那些難以設定標準答案的復雜任務。例如,在醫(yī)療領域,措辭的優(yōu)化往往至關重要。開發(fā)者可以利用程序評估醫(yī)療解釋的清晰度和完整性,從而指導模型不斷改進。這種方法為處理各種復雜、領域特定的任務提供了全新的視角和解決方案。
o4-mini是OpenAI于今年4月發(fā)布的一款緊湊型推理模型,它支持文本和圖像輸入,尤其擅長結(jié)構(gòu)化推理和鏈式思維提示。通過結(jié)合RFT技術(shù),o4-mini為開發(fā)者提供了一個既輕便又強大的基礎模型,非常適合處理高風險、領域特定的推理任務。其高計算效率和快速響應的特點,也使得它在實時應用場景中表現(xiàn)出色。
多家早期采用者已經(jīng)展示了RFT在o4-mini上的巨大潛力。例如,Accordance AI利用RFT開發(fā)的稅務分析模型,準確率提升了39%;Ambience Healthcare通過優(yōu)化醫(yī)療編碼,ICD-10分配性能提高了12個百分點;法律AI初創(chuàng)公司Harvey在法律文檔引文提取方面,F(xiàn)1分數(shù)提升了20%;Runloop在改進Stripe API代碼生成方面,性能也提升了12%。調(diào)度助手Milo和內(nèi)容審核工具SafetyKit也取得了顯著的進步。
要使用RFT技術(shù),開發(fā)者需要完成四個步驟:首先,設計符合需求的評分函數(shù);其次,準備高質(zhì)量的數(shù)據(jù)集;然后,通過OpenAI API啟動訓練任務;最后,持續(xù)評估和優(yōu)化模型表現(xiàn)。這一流程為開發(fā)者提供了清晰的指導和路徑。
目前,RFT技術(shù)向認證組織開放。訓練費用為每小時100美元,如果使用GPT-4o等模型作為評分工具,還將額外按標準推理費率計費。為了鼓勵更多組織參與研究和應用,OpenAI還推出了激勵措施:同意共享數(shù)據(jù)集用于研究的組織可以享受50%的訓練費用折扣。
隨著RFT技術(shù)的不斷推廣和應用,我們有理由相信,它將在更多領域發(fā)揮巨大的作用,推動人工智能技術(shù)的進一步發(fā)展和創(chuàng)新。