BinaryNinja-Ollama是一款针对开源AI模型的本地化工具,该工具可以帮助广大研究人员提取开源的AI模型,并将其运行在本地设备上。
1、它是免费的并且易于本地设置; 2、它可以在没有互联网的任何地方运行; 3、您的数据仅保存在您和您的 ollama 服务器之间,不包含第三方中间件;
ollama networkx>=3.2.1
git clone https://github.com/ahaggard2013/binaryninja-ollama.git
cd binaryninja-ollama
pip install -r requirements.txt
运行下列命令安装ollama: pip3 install ollama
如果您将其作为独立插件安装,则可以将其放置(或符号链接)在 Binary Ninja 的插件路径中。 工具使用 重命名所有函数变量
重命名所有函数变量选项将解析函数内的所有变量并尝试根据以下提示重命名它们: prompt = (
f"In one word, what should the variable '{variable}' be named in the below Function? "
f"The name must meet the following criteria: all lowercase letters, usable in Python code"
)
重命名所有函数
重命名所有函数选项将循环遍历二进制视图中的所有函数(从最小到最大),并根据提示重命名它们: prompt = (
f"Given the following HLIL decompiled code snippet, provide a Python-style function name that describes what the code is doing. "
f"The name must meet the following criteria: all lowercase letters, usable in Python code, with underscores between words. "
f"Only return the function name and no other explanation or text data included."
)
重命名目标函数
重命名目标函数使用与重命名所有函数相同的提示,但在触发插件时将其限制为所选函数。 重命名目标函数变量
重命名目标变量使用与重命名所有变量相同的提示,但在触发插件时限制其所选的功能。 工具设置 在设置窗口中,我们可以设置ollama使用的IP、端口和模型: 许可证协议 本项目的开发与发布遵循MIT开源许可协议。 项目地址 BinaryNinja-Ollama: https://github.com/ahaggard2013/binaryninja-ollama 【 原文始发于微信公众号(FreeBuf):如何使用BinaryNinja-Ollama提取开源AI模型并在本地运行
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论