LLM 与安全代码
- 作者: 王滨
- 收录:
- 简介:
《LLM与代码安全》由北京大学博士生王滨撰写,聚焦大模型在代码生成中的安全挑战与防护实践。文章指出,尽管LLM极大提升了开发效率,但其生成的代码存在漏洞密度高、供应链投毒、武器化滥用等风险。作者团队提出A.S.E项目级评测基准、REFLEXGEN自修正框架、RA-Gen多智能体方案等实践路径,并开源AI-Infra-Guard平台,推动生成代码的安全性评估与加固,呼吁行业重视AI代码生成的第一战场
SCPGA:自认同CoT渐进式泛化攻击
- 作者: 何润培
- 收录:
- 简介:
《SCPGA:自认同CoT渐进式泛化攻击》由萨塞克斯大学何润培提出,揭示了一种新型大模型越狱技术。该方法利用模型间思维链(CoT)的兼容性,通过“种子诱导—强CoT生成—恶意嵌套”流程,实现跨模型、跨主题的自动化攻击。实验显示,SCPGA对Gemini 2.5 Pro、Qwen3等主流模型越狱成功率高达94%–97%,并可引发内容安全、工具滥用、系统泄露等多类风险。文章进一步提出基于微调审核模型的
ReCopilot:基于大模型的二进制逆向工程助手
- 作者: 陈国强
- 收录:
- 简介:
《ReCopilot:基于大模型的二进制逆向工程助手》由奇安信技术研究院陈国强提出,旨在构建专用于二进制代码分析的领域大模型。ReCopilot通过预训练、指令微调与偏好对齐,显著提升函数名恢复、变量识别、结构体推断等任务效果,在多项评测中超越通用大模型。其进一步发展的ReCopilot-Agent具备代码检索、路径分析与漏洞链重构能力,展示了在真实固件漏洞挖掘中的自动化潜力,推动二进制分析向智能