本次分享论文为:Large Language Models are Edge-Case Fuzzers: Testing Deep Learning Libraries via FuzzGPT基本信息...
技术分享:torch.compile在GammaGL上的实践
技术分享:torch.compile在GammaGL上的实践本次技术分享主要聚焦于 PyTorch 2.0 版本更新的内容在 GammaGL 上的应用,带领读者进一步了解 torch.compile ...
TorchServe 服务端请求伪造漏洞(CVE-2023-43654)安全风险通告
● 点击↑蓝字关注我们,获取更多安全风险通告漏洞概述漏洞名称TorchServe 服务端请求伪造漏洞漏洞编号QVD-2023-23201、CVE-2023-43654公开时间2023-09-28影响对...
【漏洞通告】TorchServe 服务器端请求伪造漏洞CVE-2023-43654
漏洞名称:TorchServe 服务器端请求伪造漏洞(CVE-2023-43654)组件名称:TorchServe影响范围:TorchServe < 0.8.2漏洞类型:服务器端请求伪造利用条件...
Hugging Face 任意大模型仓库劫持 - 无声的破坏
摘要在这篇博客中,我们展示了攻击者如何攻击Hugging Face的Safetensors转换空间及其相关的服务机器人。这些服务是一个在Hugging Face上广受欢迎的服务,专门用于将不安全的机器...
训练验证码-9、yolov8/孪生训练点选验证码
大家好,我是十一姐,b站时一十一姐啦,知识星球时光漫漫提示!本文章仅供学习交流,严禁用于非法用途,文章如有不当可联系本人删除!目录: 一、什么是孪生神经网络 二...
全球知名AI 平台Hugging Face 惊现上百个恶意ML模型
左右滑动查看更多近日,JFrog 的安全团队发现Hugging Face 平台上至少 100 个恶意人工智能 ML 模型实例,其中一些可以在受害者的机器上执行代码,为攻击者提供了一个持久的后门,构成了...
AI模型可被劫持,Hugging Face转换服务存在高风险漏洞
网络安全公司HiddenLayer上周三在一份报告中表示,他们发现Hugging Face Safetensors转换工具存在着漏洞,可能被利用来劫持AI模型并发动供应链攻击。 Hugging Fac...
ModelScan:一款大模型序列化安全扫描工具
ModelScan是由AI初创公司ProtectAI提供的一个开源项目,旨在扫描机器学习模型以确定它们是否包含不安全的代码。它是首个支持多种模型格式的扫描工具,目前支持H5、Pickle和SavedM...
基于pytorch使用MNIST数据集进行图像识别
图像识别是人工智能中的一个基础任务,它的目标是让计算机能够识别图像中的物体等内容,并将它们分配到预定义的类别中。例如,给定一张手写数字的图片,图像识别系统应该能够输出这个图片对应的值的类别。为了训练和...
训练验证码-3、深度学习环境安装
大家好,我是十一姐,b站时一十一姐啦,知识星球时光漫漫提示!本文章仅供学习交流,严禁用于非法用途,文章如有不当可联系本人删除!目录: 一、miniconda安装 二、con...
训练验证码-4、ddddocr训练字符验证码
大家好,我是十一姐,b站时一十一姐啦,知识星球时光漫漫提示!本文章仅供学习交流,严禁用于非法用途,文章如有不当可联系本人删除!目录: 一、ddddocr环境配置安装 二、字...