在 AI 輔助 Coding 技術快速發展的背景下,大語言模型(LLMs)雖顯著提升了軟件開發效率,但開源的 LLMs 生成的代碼依舊存在運行時錯誤,增加了開發者調試成本。
現有基于偏好優化的改進方法,多依賴「通過 / 失敗」二元信號構建訓練數據,難以知曉「錯在哪」,也忽視了模型能力在訓練時的動態變化特性。
針對此缺口,在騰訊 CodeBuddy 實習期間,我們提出自適應漸進式偏好優化方法(AP2O),并構建 AP2O-Coder 框架。該方法借鑒人類的「按題型高效刷題」經驗出發,通過「考試 - 分析 - 糾錯 - 小測」的系統性流程提升模型代碼糾錯能力,在多款主流開源模型上實現最高 3% 的 pass@k 性能提升,同時降低訓練數據需求量。
