近日,第21届CCF全国容错计算学术会议(CFTC 2025)在杭州举行。我校信息工程学院曲豫宾副教授在会上作专题报告,聚焦代码大语言模型(LLM)面临的后门安全风险及其防御技术,展示了具有重要价值的最新研究成果。
随着ChatGPT等大模型在软件开发中广泛应用,其安全性挑战日益突出。曲豫宾在报告中深入剖析了代码大模型在预训练、微调和推理阶段可能遭受的后门攻击特征。他重点介绍的三项创新性成果,包括:创新性地利用代码抽象语法树(AST)结构特征,通过聚类分析挖掘隐蔽AST模式作为攻击触发器,显著提升了攻击的隐匿性;开发出基于AST最大深度特征的后门攻击方法,针对“代码意图摘要”任务实现高效精准的特征注入;并设计出基于提示工程的上下文关联攻击技术,通过精巧的提示模板实现对代码生成模型的精确操控。
面对这些新型攻击威胁,曲豫宾团队提出了攻防并重的应对策略,构建了一个多层次防御框架。该框架融合了静态代码分析、动态特征提取和模型输出验证等关键技术,旨在建立从输入到输出的全方位防护体系,为打造安全可靠的代码大模型提供系统性解决方案。
据了解,曲豫宾所在团队长期致力于代码大模型安全研究,近三年已发表高水平学术论文16篇,其中包括13篇SCI检索论文、1篇《软件学报》论文及2篇CCF C类会议论文。业内专家认为,该系列研究不仅推动了代码大模型安全理论发展,也为实际软件工程应用提供了重要技术支撑。在人工智能深度赋能软件开发的背景下,相关成果对于保障人工智能基础设施安全、促进产业高质量发展具有重要意义,彰显了我校在人工智能安全前沿领域的科研实力。(信息工程学院 曲豫宾/文图 解圣霞/推荐 朱建泉/审核)


