AI代码审计批量辅助工具 | 通过规则层与大模型复核生成HTML报告

工具介绍

代码审计批量辅助一个前端可访问的代码审计工作台,支持从 GitHub 发现候选开源 Web CMS,或直接导入本地仓库,再通过规则层与大模型复核生成可下载的 HTML 报告。

控制台首页

图片

审计报告详情

图片

适合做什么

  • 批量发现候选开源 CMS 项目,并手动筛选审计目标
  • 对选中目标生成本地审计镜像,减少直接在线分析带来的不稳定性
  • 结合规则层与 LLM 复核,输出更清晰的审计说明
  • 通过前端完成连接配置、任务发起、进度跟踪、结果查看和报告下载

核心能力

  • GitHub 候选发现 按 CMS 相关查询批量发现候选项目,支持分页选择要审计的目标。

  • 本地镜像审计 对选中目标先下载审计镜像,再执行规则层分析与大模型复核。

  • 审计 Skill 内置访问控制、初始化与配置、上传与存储、查询与注入、敏感信息等防御性审计能力。

  • HTML 报告导出 输出结构化、可下载、适合留档的 HTML 审计报告。

  • 环境自检 前端可配置主流 LLM API 与 GitHub Token,并在页面中直接测试连接。

  • 项目记忆 保存常用查询、阈值和团队规则,减少重复配置。

本地运行

node server.js

启动后访问:

http://127.0.0.1:3000

Windows 一键启动:

.launch.cmd

或:

.launch.ps1

使用说明

  • GitHub 模式不会在“候选发现”阶段直接调用大模型
  • 只有在你选中目标并开始审计后,系统才会下载本地审计镜像并进入 LLM 复核
  • 页面会实时展示镜像下载进度与 LLM 复核进度
  • 结果输出偏向防御性代码审计说明,不包含攻击载荷或利用链细节

工具下载

https://github.com/baianquanzu/Bai-codeagent


文章来源:李白你好


黑白之道发布、转载的文章中所涉及的技术、思路和工具仅供以安全为目的的学习交流使用,任何人不得将其用于非法用途及盈利等目的,否则后果自行承担!

如侵权请私聊我们删文


END


© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容