学术会议 | 第四届移动互联网、云计算与信息安全国际会议 安全学术圈 3 days 2 hours ago MICCIS 2026 组委会热忱地邀请您参与第四届移动互联网、云计算与信息安全国际会议(MICCIS 2026)。
伦敦国王学院 | 恶意LLM对话式AI诱使用户泄露个人信息 安全学术圈 3 days 23 hours ago 本文将恶意提示词驱动的个人信息诱导从理论设想推进到实证验证阶段,揭示了对话式 LLM 在部署层面可能带来的新型隐私风险,并为平台治理与对话安全设计提供了重要参考。
得克萨斯大学圣安东尼奥分校 | 通过代码生成LLM对软件包幻觉进行全面分析 安全学术圈 2 weeks 6 days ago 本文在代码生成大模型安全方向上提出了一个非常关键且长期被忽视的问题:LLM 在推荐第三方依赖时产生的“包幻觉”并不仅是普通生成错误,而是可以被攻击者直接转化为现实世界的软件供应链攻击。
香港科技大学 | 评估与增强大语言模型解决夺旗赛挑战的能力 安全学术圈 3 weeks 1 day ago 本文首次对LLM在CTF领域的核心技术知识进行了系统测量,并基于发现的问题提出了有效的增强方案。
无需数据的秘密揭露:图神经网络能否通过数据无关的模型窃取攻击被利用 安全学术圈 3 weeks 1 day ago 论文提出了首个针对图神经网络(GNN)的数据无关模型提取攻击框架STEALGNN,这一创新性贡献突破了现有攻击方法对原始训练数据的依赖,实现了无需真实数据即可提取GNN模型知识的攻击方法。
美国西北大学 | PentestAgent:将LLM代理融入自动化渗透测试 安全学术圈 3 weeks 2 days ago 本文提出了PentestAgent,一个基于LLM的多代理自动化渗透测试框架。
印第安纳大学布卢明顿分校 | 基于掩码图注意力网络的漏洞情报对齐 安全学术圈 3 weeks 3 days ago 本文提出了CEAM方法对齐非连续性的多漏洞数据源的信息。CEAM方法针对传统实体对齐方法在适应不同知识图谱的结构差异,传统GNN假设在跨平台漏洞数据中不成立等问题,提出了非对称掩码聚合方法和分区注意力机制。
复旦大学 | MAGIC:基于掩码图表示学习的高级持续性威胁检测 安全学术圈 3 weeks 5 days ago 本文中引入了MAGIC,这是一种新颖而灵活的自监督的APT检测方法,能够在不同级别的监督下执行多粒度检测。
WHITEFox:基于大语言模型的白盒编译器模糊测试 安全学术圈 1 month ago 本文提出了首个利用大型语言模型结合源代码信息的白盒编译器模糊测试工具WhiteFox,专注于检测深度学习(DL)编译器中的深层逻辑错误。
南洋理工大学 | PENTESTGPT:评估与利用大语言模型实现自动化渗透测试 安全学术圈 1 month ago 本文提出了PenTestGPT,一个受现实世界渗透测试团队协作模式启发的LLM增强自动化渗透测试框架。
维也纳工业大学 | 基于大语言模型的自动化安全评估 安全学术圈 1 month ago 本文探索了LLM在渗透测试领域的应用潜力,并提出了两个核心用例:高层任务规划(如为攻击Active Directory制定策略)与低层攻击执行(如在已获得初始权限的Linux系统上进行自动化漏洞发现与提权)。
巴黎萨克雷大学 | 基于源的入侵检测系统的综合分析 安全学术圈 1 month ago 本文的核心方法是构建一个统一的实验框架,对选定的八种 PIDS 进行模块化复现和系统化分析,从而识别其共同缺陷并探索更优设计。
天津大学 | 基于操作依赖分析的MLIR编译器基础设施模糊测试 安全学术圈 1 month ago 本文提出了MLIRod,使用操作依赖图和其相关的操作依赖覆盖率来指导fuzz,并设计了一系列的突变规则以获得尽可能高的覆盖率。
国防科技大学 | 通过知识注入保护检索增强代码生成 安全学术圈 1 month 1 week ago 本文提出 CodeGuarder,核心思想并非简单地过滤不安全示例,而是从根本上改变 RACG 的增强方式:将真实漏洞中的安全知识显式引入生成过程,对模型进行“安全课程式”的知识注入(Knowledge Injection)。
清华大学 | ProphetFuzz:一种仅通过大语言模型利用文档实现高风险选项组合全自动预测与模糊测试的方法 安全学术圈 1 month 1 week ago 本文设计了一个基于大语言模型的、完全自动化的选项组合模糊测试工具ProphetFuzz,该工具仅依赖于程序文档,通过精心设计的提示词工程驱动大语言模型(LLM),能够实现自动化预测高风险选项组合并执行无人干预的模糊测试。
MEGR-APT:一种基于攻击表示学习的内存高效APT狩猎系统 安全学术圈 1 month 1 week ago 本文提出了MEGR-APT,这是一个针对高级持续性威胁(APT)狩猎的高效内存系统。该系统基于攻击表示学习,旨在从大规模溯源图中发现与攻击场景匹配的可疑子图。