近年来,随着人工智能模型的快速发展,越来越多的研究者和开发者希望在本地运行大规模语言模型(LLM),以提高数据隐私性和响应速度。国外一位youtuber使用价格约 2000 美元的服务器运行 Deep...
DeepSeek到底强在哪?
今年春节基本就两个主题,一个是DeepSeek、另一个是《哪吒》,每当互联网某个东西爆火后,各种营销号就开启了大明白模式,管它技术懂不懂先写几篇“冲突文”蹭上流量再说,以讹传讹越传越多....大年初四...
Deepseek-R1的本地部署
最近很多人都在研究本地大模型的部署,我也来蹭个热度,其实部署方式很简单,本篇主要记录了本地部署和图形化UI工具的部署过程(我都懒得打原创标)首先访问https://ollama.com/downloa...
Hashcat vs John the Ripper:两大密码破解神器深度对比
Hashcat 和 John the Ripper(简称 JTR)是两款广受欢迎的密码破解工具。两者各有优缺点,适用于不同的使用场景。本文将从功能特点、优缺点以及实际使用体验等方面对它们进行对比和评测...
openEuler 24.03 操作系统上部署 DeepSeek-R1:671B 大模型训练使用GPU显卡NVIDIA A100
在 openEuler 24.03 操作系统上部署 DeepSeek-R1:671B 大模型训练(使用 20张NVIDIA A100 GPU)的完整技术指南,涵盖从系统配置、分布式训练到性能调优的全流...
开源模型DeepSeek R1本地离线部署完全指南
什么是DeepSeek R1 DeepSeek-R1是杭州深度求索人工智能基础技术研究有限公司发布的高性能AI推理模型,对标OpenAI的o1正式版。 模型通过大规模强化学习技术进行后训练,仅需极少量...
告别本地算力焦虑:使用腾讯云免费GPU部署DeepSeek-R1
什么是Cloud StudioCloud Studio(云端 IDE)是基于浏览器的集成式开发环境,为开发者提供了一个稳定的云端工作站。支持CPU与GPU的访问。用户在使用 Cloud Studio ...
安卓GPU漏洞攻防介绍
背景GPU是终端设备负责图形化渲染的硬件,和CPU相比,它能更高效地并行计算。传统的PC端GPU可以通过PCIe接口在主板上热插拔,而在移动端,GPU往往和CPU集成在一块芯片上,再搭配负责网络通信的...
大模型系列之LLaMA Factory微调学习
关于LLaMA Factory在人工智能技术迅速发展的今天,如何高效地微调和部署大型语言模型(LLM)成为了研究和应用的热点。Llama-Factory 作为一个开源的微调框架,正是在这一背景下应运而...
记一次GPU服务器挖矿事件应急响应
一、背景2024年12月26日,我司收到托管机房的网络安全通报,认为我司服务器有挖矿行为,需要当天完成整改。二、影响范围同一内网的10台GPU服务器,版本均为ubuntu 20.04。三、排查过程从通...
详解智能座舱芯片算力评估
本文约23,300字,建议收藏阅读作者:张慧敏荐言:慧敏兄的新书《智能座舱:架构、原理与车规级芯片》终于出版了!在实际的项目开发过程中,智能座舱系统架构师需要对系统需求进行技术可行性评估。来自传统汽车...
CAGE:基于GPU扩展实现ArmCCA
一. 论文背景为了更好的支持机密计算,Arm提出了机密计算架构(CCA,Confidential Compute Architecture),CCA通过创建多个互相隔离的地址空间(realm)来保证...
13