簡歷篩選關(guān)鍵詞:Transformer、LoRA、RLHF、DeepSpeed、ACL/EMNLP、LLaMA、ChatGPT;
1、編程能力:精通 Python,熟悉 C++ 更佳;具備良好的代碼規(guī)范與工程能力。
深度學(xué)習(xí)框架 熟練使用 PyTorch(優(yōu)先)、TensorFlow,了解 Hugging Face Transformers、DeepSpeed、Megatron-LM 等訓(xùn)練/推理加速工具。
2、算法與模型理解:深入理解 Transformer、BERT、GPT、LLaMA 等主流大模型架構(gòu),掌握預(yù)訓(xùn)練、微調(diào)(SFT、LoRA、RLHF)、對(duì)齊(alignment)等技術(shù)。
3、數(shù)據(jù)處理與建模:熟悉大規(guī)模語料清洗、去噪、去重、質(zhì)量評(píng)估、數(shù)據(jù)配比策略,具備構(gòu)建數(shù)據(jù)閉環(huán)的能力。
4、科研能力:能閱讀并復(fù)現(xiàn)頂會(huì)論文(如 ACL、EMNLP、NeurIPS、ICLR),具備問題建模、實(shí)驗(yàn)設(shè)計(jì)、結(jié)果分析能力。
5、系統(tǒng)與工程經(jīng)驗(yàn):熟悉 Linux 開發(fā)環(huán)境,了解分布式訓(xùn)練、GPU并行計(jì)算、模型壓縮與推理優(yōu)化(如 vLLM、TensorRT)