代审工具与AI大模型的融合

admin 2025年2月13日09:35:13评论64 views字数 2134阅读7分6秒阅读模式

最近deepseek的爆火使安全都上了一个台阶,下面是秋风师傅的一款AI代码审计工具,目前接受在线与本地调用api方式经ai两次验证最终输出审计结果。

 获取工具

https://wwcl.lanzn.com/iTjPE2nifd8f

一、代审工具功能介绍

1、工具亮点

结合了污点分析+ast分析+AI分析(两轮不同提示词校验)验证并输出payload拥有在线和离线两种模式 api调用和本地ollama调用支持php和java的审计以及看起来还不错的功能优化调教

目前已经更新到1.2版本,更新内容:

1.1beta版本基础上添加了进度条优化了回显和审计的准确度 解决已知bug
代审工具与AI大模型的融合

2、工具功能

代码查看、代审工具与AI大模型的融合

审计结果

代审工具与AI大模型的融合

配置key

代审工具与AI大模型的融合

二、在线or离线模式

1、在线模式

目前支持所以api,可通过硅基流动或通义中模型广场里面的模型即可,申请完一个模型后通过配置3项内容

1、Models Name模型名称2、API Key3、API URL

申请key代审工具与AI大模型的融合

那模型名称及url在哪里获取? 查看使用模型的api文档即可看到

代审工具与AI大模型的融合
代审工具与AI大模型的融合

由于目前deepseek的api暂时不能用,且免费的在线模型调用有限制导致使用效果可能不佳,除非使用付费的模型,那么可以尝试一下离线模式。

2、离线本地模式

(1)下载开源的大型语言模型服务工具

ollamahttps://ollama.com/download安装即可

(2)选择模型https://ollama.com/search

这里我们就选择deepseek-r1模型,不同大小模型效果不同,根据自己电脑配置选择即可(目前测试7b模型审计效果并不佳)

代审工具与AI大模型的融合
1. DeepSeek-R1-1.5B    CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)    内存: 8GB+    硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)    显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)    场景:     低资源设备部署(如树莓派、旧款笔记本)    实时文本生成(聊天机器人、简单问答)    嵌入式系统或物联网设备 2. DeepSeek-R1-7B    CPU: 8 核以上(推荐现代多核 CPU)    内存: 16GB+    硬盘: 8GB+(模型文件约 4-5GB)    显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)    场景:    本地开发测试(中小型企业)    中等复杂度 NLP 任务(文本摘要、翻译)    轻量级多轮对话系统3. DeepSeek-R1-8B    硬件需求: 与 7B 相近,略高 10-20%    场景:    需更高精度的轻量级任务(如代码生成、逻辑推理)4. DeepSeek-R1-14B    CPU: 12 核以上    内存: 32GB+    硬盘: 15GB+    显卡: 16GB+ 显存(如 RTX 4090 或 A5000)    场景:    企业级复杂任务(合同分析、报告生成)    长文本理解与生成(书籍/论文辅助写作)5. DeepSeek-R1-32B    CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)    内存: 64GB+    硬盘: 30GB+    显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)    场景:    高精度专业领域任务(医疗/法律咨询)    多模态任务预处理(需结合其他框架)6. DeepSeek-R1-70B    CPU: 32 核以上(服务器级 CPU)    内存: 128GB+    硬盘: 70GB+    显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)    场景:    科研机构/大型企业(金融预测、大规模数据分析)    高复杂度生成任务(创意写作、算法设计)7. DeepSeek-R1-671B    CPU: 64 核以上(服务器集群)    内存: 512GB+    硬盘: 300GB+    显卡: 多节点分布式训练(如 8x A100/H100)    场景:    国家级/超大规模 AI 研究(如气候建模、基因组分析)    通用人工智能(AGI)探索

上面已经下载完ollama,下面开始下载模型在powershell中直接执行命令ollama run deepseek-r1:8b(你选择的什么模型后面对应的不一样)代审工具与AI大模型的融合

当下载完后会出现下面内就可以直接输入问题就行了

代审工具与AI大模型的融合

(3)使用模型名称及url 通过ollama list即可知道模型名称

代审工具与AI大模型的融合

apiurl填入

http://localhost:11434/v1/chat/completions

api随便填,最后保存配置即可

代审工具与AI大模型的融合

(4)扫描代码文件

下面就可以愉快的扫了

代审工具与AI大模型的融合
代审工具与AI大模型的融合

三、本地搭建大模型后看命令行回复太麻烦?

在deepseek爆火的如今,在访问问问题时时常服务器繁忙,那么本地模型就能帮助到我们解决很多问题,但ollama拉取好模型后是命令行输入输出,看的很麻烦,下面两个解决方案就是最后的方式~

1、ChatBox客户端

(1)下载ChatBox

https://chatboxai.app/zh#download

(2)设置中配置api

代审工具与AI大模型的融合保存即可然后就能像网页一样使用了

代审工具与AI大模型的融合

2、Page Assist浏览器插件

如果连客户端都不想下这个插件就是最好的解决方案

(1)直接在拓展中搜索代审工具与AI大模型的融合

(2)选择自己的本地模型直接就能问问题,甚至不需要去做什么配置

代审工具与AI大模型的融合

 

原文始发于微信公众号(不秃头的安全):代审工具与AI大模型的融合

 

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月13日09:35:13
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   代审工具与AI大模型的融合https://cn-sec.com/archives/3734965.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息