1、負(fù)責(zé)大語言模型(LLM)的微調(diào)優(yōu)化,包括指令調(diào)優(yōu)(Instruction Tuning)、對齊訓(xùn)練(Alignment)等;
2、使用LlamaFactory 、MS-Swift 等工具鏈進行模型高效微調(diào)(如LoRA、Adapter、QLoRA等);
3、設(shè)計并實現(xiàn)模型壓縮方案(量化、剪枝、蒸餾),提升模型推理效率;
4、構(gòu)建數(shù)據(jù)預(yù)處理流程,優(yōu)化訓(xùn)練數(shù)據(jù)質(zhì)量及多樣性;
5、與算法、工程團隊協(xié)作,將微調(diào)后的模型部署到生產(chǎn)環(huán)境;
6、跟蹤大模型領(lǐng)域前沿技術(shù)(如MoE、長上下文訓(xùn)練),推動技術(shù)落地。
具備如下條件優(yōu)先:
1、在GitHub有開源項目(如基于LlamaFactory的微調(diào)案例);
2、發(fā)表過頂會論文(NeurIPS/ICML/ACL等)或技術(shù)博客;
3、熟悉多模態(tài)模型(如Qwen-VL)、垂直領(lǐng)域(通信/政企)微調(diào)經(jīng)驗;
4、了解大模型推理加速技術(shù)(vLLM、TensorRT-LLM)。