1.構(gòu)建供應(yīng)鏈 AI 系統(tǒng)安全架構(gòu),設(shè)計數(shù)據(jù)加密、模型隱私保護、訪問控制等安全策略; 2.主導(dǎo) AI 模型安全評估,開展對抗樣本檢測、模型可解釋性增強等安全測試; 3.制定 AI 系統(tǒng)合規(guī)方案,確保符合《數(shù)據(jù)安全法》《個人信息保護法》及行業(yè)監(jiān)管要求; 4.建立安全監(jiān)控與應(yīng)急響應(yīng)機制,實時監(jiān)測 AI 系統(tǒng)漏洞與攻擊行為; 5.指導(dǎo)團隊開展安全編碼規(guī)范培訓(xùn),推動安全開發(fā)流程(SDL)落地.