当前位置: 首页 > news >正文

一文了解:部署 Deepseek 各版本的硬件要求

很多朋友在咨询关于 DeepSeek 模型部署所需硬件资源的需求,最近自己实践了一部分,部分信息是通过各渠道收集整理,so 仅供参考。

Image

言归正转,大家都知道,DeepSeek 模型的性能在很大程度上取决于它运行的硬件。我们先看一下 DeepSeek 的部分通用版本(如下图),然后再介绍一下最近火热的R1推理版本的各规格的硬件要求。最后,会给出 R1 的各主流版本的资源参考列表(文末)。

模型名

参数大小

文件格式

标签

公司

deepseek-coder-1.3b-base

1.3B

GGUF GPTQ

DeepSeek

deepseek-coder-1.3b-instruct

1.3B

GGUF GPTQ

DeepSeek

deepseek-coder-33B-base

33B

GGUF GPTQ

DeepSeek

deepseek-coder-33B-instruct

33B

EXL2 GGUF GPTQ

functions

DeepSeek

deepseek-coder-5.7bmqa-base

7B

GGUF GPTQ

DeepSeek

deepseek-coder-6.7B-base

7B

GGUF GPTQ

DeepSeek

deepseek-coder-6.7B-instruct

7B

GGUF GPTQ

DeepSeek

deepseek-llm-67b-base

67B

GGUF GPTQ

DeepSeek

deepseek-llm-67b-chat

67B

EXL2 GGUF GPTQ

DeepSeek

deepseek-llm-7B-base

7B

GGUF GPTQ

DeepSeek

deepseek-llm-7B-chat

7B

GGUF GPTQ

DeepSeek

deepseek-coder-6.7b-instruct

7B

EXL2

DeepSeek

以下是 4 位量化 DeepSeek 模型的硬件要求:

7B 参数模型

如果您追求的是 7B 模型,那么您需要从两个方面考虑硬件。首先,对于 GPTQ 版本,您需要一块至少有 6GB 显存的不错显卡。GTX 1660 或 2060、AMD 5700 XT 或 RTX 3050 或 3060 都可以很好地工作。但对于 GGML/GGUF 格式,更多的是需要足够的内存。您需要大约 4GB 的空闲内存才能顺利运行。

格式

RAM需求

VRAM需求

GPTQ(GPU推理)

6GB(加载时交换*)

6GB

GGML / GGUF(CPU推理)

4GB

300MB

GPTQ和GGML / GGUF的组合(卸载)

2GB

2GB

*加载模型初始所需的内存。推理时不需要。如果您的系统没有足够的内存来在启动时完全加载模型,您可以创建一个 swap 交换文件通过磁盘做为缓存来帮助加载。

30B、33B 和 34B 参数模型

如果您正在进入更大模型的领域,硬件要求会发生明显变化。GPTQ 模型受益于 RTX 3080 20GB、A4500、A5000 等显卡,大约需要 20GB 的显存。相反,GGML 格式的模型将需要您系统内存的很大一部分,接近 20GB。

格式

内存需求

显存需求

GPTQ(GPU推理)

32GB(加载时交换*)

20GB

GGML / GGUF(CPU推理)

20GB

500MB

GPTQ和GGML / GGUF的组合(卸载)

10GB

4GB

*加载模型初始所需的内存。推理时不需要。如果您的系统没有足够的内存来在启动时完全加载模型,您可以创建一个交换文件来帮助加载。

内存速度

在运行 DeepSeek AI 模型时,您需要关注内存带宽和模型大小对推理速度的影响。这些大型语言模型每次生成一个新标记(一段文本)时都需要完全加载到内存或显存中。例如,一个 4 位 7B 参数的 DeepSeek 模型大约占用 4.0GB 的内存。

假设您有 Ryzen 5 5600X 处理器和 DDR4-3200 内存,理论最大带宽为 50 GBps。在这种情况下,您可以期望每秒生成大约 9 个标记。通常,由于推理软件、延迟、系统开销和工作负载特性等几个限制因素,这种性能大约是您理论最大速度的 70%,这些因素阻止了达到峰值速度。为了达到更高的推理速度,比如每秒 16 个标记,您需要更多的带宽。例如,一个具有 DDR5-5600 的系统,大约提供 90 GBps 的带宽,就足够了。

相比之下,高端显卡如 Nvidia RTX 3090 的显存带宽接近 930 GBps。DDR5-6400 内存可以提供高达 100 GB/s 的带宽。因此,理解和优化带宽对于高效运行 DeepSeek 等模型至关重要。

CPU 要求

为了获得最佳性能,建议使用现代多核 CPU。从第 8 代起的 Intel Core i7 或从第 3 代起的 AMD Ryzen 5 都可以很好地工作。具有 6 核或 8 核的 CPU 是理想的。更高的时钟速度还可以提高提示处理速度,因此目标是 3.6GHz 或更高。

如果可用,具有 AVX、AVX2、AVX-512 等 CPU 指令集可以进一步提高性能。关键是拥有一台相对现代的消费级 CPU,具有不错的核数和时钟速度,以及通过 AVX2 进行基本向量处理(使用 llama.cpp 进行 CPU 推理所需的)。有了这些规格,CPU 应该能够处理 DeepSeek 模型的大小。

DeepSeek R1 小型、中型和大型模型配置需求

如果你正考虑在本地家用电脑或笔记本上运行新的 DeepSeek R1 AI 推理模型,你可能会想了解运行小型、中型和大型 AI DeepSeek 模型所需的硬件需求。DeepSeek R1 是一个可扩展的 AI 模型,旨在满足从轻量级任务到企业级操作的广泛应用需求。

根据你打算部署的模型大小,其硬件需求差异显著,从小型 15 亿参数版本到庞大的 6710 亿参数模型,了解这些需求对于实现最佳性能和资源效率至关重要。

关键要点:

  • DeepSeek R1 提供可扩展的 AI 模型,硬件需求根据模型大小差异显著,从 15 亿到 6710 亿参数。

  • 较小的模型(15 亿)非常易于使用,仅需 CPU、8GB 内存,无需专用 GPU,而稍大一些的模型(70 亿-80 亿)从至少 8GB 显存的 GPU 中受益,性能更快。

  • 中型模型(140 亿-320 亿)需要 12GB-24GB 显存的 GPU,以实现最佳性能,平衡资源需求和计算效率。

  • 较大的模型(700 亿-6710 亿)需要高端硬件,包括 48GB 显存的 GPU 或多 GPU 配置(例如 20 张 Nvidia RTX 3090 或 10 张 Nvidia RTX A6000),用于企业级应用。

  • 高效部署取决于将模型大小与可用资源对齐,确保可扩展性,并为大型设置规划电源、散热和硬件兼容性。

DeepSeek R1 在设计时考虑了可扩展性,提供了从轻量级任务到企业级操作的各种选项。但随着模型大小的增长,硬件需求也随之增加,了解你的系统在其中的位置是关键。

小型模型:易于使用且轻量级

DeepSeek R1 的 15 亿参数版本设计得非常易于使用,硬件需求 minimal。这使其成为拥有标准计算设置的用户的绝佳选择。要有效运行此模型,你需要:

  • 不超过 10 年的 CPU

  • 至少 8GB 内存

  • 无需专用 GPU 或显存

这种配置非常适合那些优先考虑简单性和成本效率而非处理速度的用户。然而,如果你计划使用稍大一些的模型,如 70 亿或 80 亿版本,需求会适度增加。虽然这些模型仍然可以在仅 CPU 的系统上运行,但性能可能会较慢。为了提高速度和效率,考虑使用至少 8GB 显存的 GPU。这允许模型使用并行处理,显著提高计算时间。

中型模型:寻求平衡

对于中型模型,如 140 亿和 320 亿版本,硬件需求变得更加 substantial,反映了它们增加的计算复杂性。这些模型在性能和资源需求之间取得了平衡,使其适合拥有中等 advanced 硬件设置的用户。以下是你需要的:

  • 140 亿模型: 需要至少 12GB 显存的 GPU,虽然 16GB 更推荐,以实现更平稳的运行并容纳额外的进程。

  • 320 亿模型: 至少需要 24GB 显存才能实现最佳的 GPU 性能。显存较少的系统仍然可以运行模型,但工作负载将分布在 GPU、CPU 和内存之间,导致处理速度较慢。

这些中型模型非常适合需要计算能力与资源可用性之间平衡的用户。然而,与小型模型相比,它们需要更 robust 的硬件,特别是如果你旨在保持高效的处理时间。

大规模模型:高级应用的高端硬件

随着你扩展到更大的模型,如 700 亿和 6710 亿版本,硬件需求显著增加。这些模型专为 advanced 应用而设计,通常在企业或研究环境中,高端硬件是必需的。以下是这些大规模模型的需求:

  • 700 亿模型: 需要 48GB 显存的 GPU 才能实现无缝运行。显存较少的系统将体验到较慢的性能,因为计算将卸载到 CPU 和内存。

  • 6710 亿模型: 这个模型代表了 DeepSeek R1 可扩展性的上限,需要大约 480GB 显存。多 GPU 配置是必需的,例如:

    • 20 张 Nvidia RTX 3090 GPU(每张 24GB)

    • 10 张 Nvidia RTX A6000 GPU(每张 48GB)

这些配置通常保留给拥有 substantial 计算资源的企业级应用或研究机构。

部署这些大规模模型不仅需要高端 GPU,还需要仔细规划电源供应、散热系统和硬件兼容性。确保你的基础设施能够处理增加的负载对于保持操作效率至关重要。

高效 AI 部署的关键因素

为 DeepSeek R1 选择合适的硬件涉及将模型大小与可用资源和未来目标对齐。以下是一些关键考虑因素:

  • 小型模型: 这些模型只需要标准硬件,使其能够被拥有 basic 设置的大多数用户使用。

  • 中型模型: 这些模型从具有适度显存容量的 GPU 中显著受益,提高了性能并减少了处理时间。

  • 大型模型: 这些模型需要高端 GPU 或多 GPU 配置,以及 robust 的电源和散热系统,以确保平稳运行。

  • 可扩展性: 如果你预计将来会升级到更大的模型,确保你的硬件设置是可扩展的,并且能够容纳增加的需求。

对于多 GPU 配置,验证 GPU 之间的兼容性并确保你的系统能够处理增加的计算负载是 essential 的。此外,在规划硬件投资时,考虑与电源消耗和散热相关的长期成本。

有效部署 DeepSeek R1

DeepSeek R1 的硬件需求反映了其可扩展性和适应性,满足了 diverse 的用例需求。小型模型对于拥有标准硬件的用户来说是易于使用的,提供了简单性和成本效率。中型模型在性能和资源需求之间提供了平衡,而大型模型需要为 enterprise 或研究级应用设计的 advanced 设置。通过理解这些需求并将其与你的特定需求对齐,你可以有效地部署 DeepSeek R1,确保最佳性能和资源利用。如果只想CPU本地部署,请参考《本地使用CPU快速体验DeepSeek R1》。

下面给出各主要模型的的参考部署配置(由GPUStack社区提供):

模型名称

上下文大小

显存需求

推荐的GPU配置

R1-Distill-Qwen-1.5B (Q4_K_M)

32K

2.86 GiB

RTX 4060 8GB x 1

R1-Distill-Qwen-1.5B (Q8_0)

32K

3.47 GiB

RTX 4060 8GB x 1

R1-Distill-Qwen-1.5B (FP16)

32K

4.82 GiB

RTX 4060 8GB x 1

R1-Distill-Qwen-7B (Q4_K_M)

32K

7.90 GiB

RTX 4070 12GB x 1

R1-Distill-Qwen-7B (Q8_0)

32K

10.83 GiB

RTX 4080 16GB x 1

R1-Distill-Qwen-7B (FP16)

32K

17.01 GiB

RTX 4090 24GB x 1

R1-Distill-Llama-8B (Q4_K_M)

32K

10.64 GiB

RTX 4080 16GB x 1

R1-Distill-Llama-8B (Q8_0)

32K

13.77 GiB

RTX 4080 16GB x 1

R1-Distill-Llama-8B (FP16)

32K

20.32 GiB

RTX 4090 24GB x 1

R1-Distill-Qwen-14B (Q4_K_M)

32K

16.80 GiB

RTX 4090 24GB x 1

R1-Distill-Qwen-14B (Q8_0)

32K

22.69 GiB

RTX 4090 24GB x 1

R1-Distill-Qwen-14B (FP16)

32K

34.91 GiB

RTX 4090 24GB x 2

R1-Distill-Qwen-32B (Q4_K_M)

32K

28.92 GiB

RTX 4080 16GB x 2

R1-Distill-Qwen-32B (Q8_0)

32K

42.50 GiB

RTX 4090 24GB x 3

R1-Distill-Qwen-32B (FP16)

32K

70.43 GiB

RTX 4090 24GB x 4

R1-Distill-Llama-70B (Q4_K_M)

32K

53.41 GiB

RTX 4090 24GB x 5

R1-Distill-Llama-70B (Q8_0)

32K

83.15 GiB

A100 80GB x 1

R1-Distill-Llama-70B (FP16)

32K

143.83 GiB

A100 80GB x 2

R1-671B (UD-Q1_S)

32K

225.27 GiB

A100 80GB x 4

R1-671B (UD-Q1_M)

32K

251.99 GiB

A100 80GB x 4

R1-671B (UD-Q2_XXS)

32K

277.36 GiB

A100 80GB x 5

R1-671B (UD-Q2_K_XL)

32K

305.71 GiB

A100 80GB x 5

R1-671B (Q2_K_XS)

32K

300.73 GiB

A100 80GB x 5

R1-671B (Q2_K / Q2_K_L)

32K

322.14 GiB

A100 80GB x 6

R1-671B (Q3_K_M)

32K

392.06 GiB

A100 80GB x 7

R1-671B (Q4_K_M)

32K

471.33 GiB

A100 80GB x 8

R1-671B (Q5_K_M)

32K

537.31 GiB

A100 80GB x 9

R1-671B (Q6_K)

32K

607.42 GiB

A100 80GB x 11

R1-671B (Q8_0)

32K

758.54 GiB

A100 80GB x 13

R1-671B (FP8)

32K

805.2 GB

H200 141GB x 8

建议:

  1. 对于最佳性能: 选择一台配备高端显卡(如 NVIDIA 最新的 RTX 3090 或 RTX 4090)或双显卡配置的机器,以适应最大的模型(65B 和 70B)。具有足够内存(最低 16GB,但 64GB 最好)的系统将是最佳选择。

  2. 对于预算限制: 如果您的预算有限,专注于适合系统内存的 Deepseek GGML/GGUF 模型。记住,虽然您可以将一些权重卸载到系统内存中,但这会带来性能成本。

当然,实际性能将取决于几个因素,包括具体任务、模型实现和其他系统进程。

参考资料:

1.https://github.com/deepseek-ai/DeepSeek-R1 

2.https://www.geeky-gadgets.com/hardware-requirements-for-deepseek-r1-ai-models/ 

3.https://www.hardware-corner.net/llm-database/Deepseek/

相关文章:

一文了解:部署 Deepseek 各版本的硬件要求

很多朋友在咨询关于 DeepSeek 模型部署所需硬件资源的需求,最近自己实践了一部分,部分信息是通过各渠道收集整理,so 仅供参考。 言归正转,大家都知道,DeepSeek 模型的性能在很大程度上取决于它运行的硬件。我们先看一下…...

国内访问Github的四种方法(2025版)

声明:以下内容,仅供学习使用,不得他用。如有他用,与本文作者无关。 国内访问GitHub及下载文件的解决方案整理如下,结合最新技术方案和实测有效方法: 一、网络层解决方案 Hosts文件修改法 通过DNS查询工具…...

企业级AI办公落地实践:基于钉钉/飞书的标准产品解决方案

一、平台化AI的崛起:开箱即用的智能革命 2024年企业AI应用调研数据显示: 73%的中型企业选择平台标准产品而非自研头部SaaS平台AI功能渗透率达89%典型ROI周期从18个月缩短至3-6个月 核心优势对比: 维度自研方案平台标准产品部署周期6-12个…...

金融行业专题|某基金公司基于超融合信创平台支持人大金仓数据库的性能评测

随着“自主可控”在 IT 基础设施领域不断深化,数据库的国产化替代也被很多金融机构提上日程。为了保证性能,大部分国产数据库都基于信创架构的裸金属服务器部署。在国产虚拟化/超融合平台上,国产数据库性能表现如何?尤其是搭配信创…...

Python异常处理面试题及参考答案

目录 什么是 Python 中的异常?程序为什么需要异常处理机制? 解释 BaseException 和 Exception 的区别 Python 的异常处理与传统的错误代码返回机制相比有哪些优势? 列出至少 5 个 Python 内置异常类型并说明触发场景 语法错误 (SyntaxError) 与运行时异常 (Runtime Erro…...

Java 实现快速排序算法:一条快速通道,分而治之

大家好,今天我们来聊聊快速排序(QuickSort)算法,这个经典的排序算法被广泛应用于各种需要高效排序的场景。作为一种分治法(Divide and Conquer)算法,快速排序的效率在平均情况下非常高&#xff…...

【JavaSE-1】初识Java

1、Java 是什么? Java 是一种优秀的程序设计语言,人类和计算机之间的交流可以借助 Java 这种语言来进行交流,就像人与人之间可以用中文、英语,日语等进行交流一样。 Java 和 JavaScript 两者有关系吗? 一点都没有关系!!! 前端内容:HTML CSS JS,称为网页三剑客 2、JDK 下…...

JavaScript将:;隔开的字符串转换为json格式。使用正则表达式匹配键值对,并构建对象。多用于解析cssText为style Object对象

// 使用正则表达式匹配键值对,并构建对象 let string2Json(s)>{const r {};s.replace(/;/g, ;).replace(/\;/g, \n).replace(/:/g, :).replace(/\n/g, \n)//合并多个换行符.split(\n).forEach(item > {const [k, v] item.split(:);(k…...

lvgl运行机制分析

lv_timer_handler() 是 LVGL 的“心脏”:这个函数会依次做以下事情: 处理定时器(如动画、延迟回调)。 读取输入设备(如触摸屏、按键的状态)。 刷新脏区域(仅重绘屏幕上发生变化的区域&#xf…...

紧跟潮流,将 DeepSeek 集成到 VSCode

Visual Studio Code(简称 VSCode)是一款由微软开发的免费开源代码编辑器,自 2015 年发布以来,凭借其轻便、强大、且拥有丰富扩展生态的特点,迅速成为了全球开发者的首选工具。VSCode 支持多平台操作系统,包…...

Apache Tomcat RCE 稳定复现 保姆级!(CVE-2024-50379)附视频+POC

原文链接 Apache Tomcat 最新RCE 稳定复现分析 保姆级!!!附复现视频POC 前言 最近爆出 Apache Tomcat条件竞争导致的RCE,影响范围当然是巨大的,公司也及时收到了相关情报,于是老大让我复现,以…...

【文献阅读】A Survey on Model Compression for Large Language Models

大语言模型模型压缩综述 摘要 大语言模型(LLMs)已成功变革了自然语言处理任务。然而,其庞大的规模和高昂的计算需求给实际应用带来了挑战,尤其是在资源受限的环境中。模型压缩已成为应对这些挑战的关键研究领域。本文对大语言模…...

利用shardingsphere-proxy对mysql分片

本文介绍利用shardingsphere-proxy分库分表的配置过程。shardingsphere-proxy是一个中间件,启动后会模拟成一个实际的mysql服务,我们可以通过可视化工具或jdbc操作,实际执行的sql会通过shardingsphere-proxy转换,进而在具体的mysq…...

AI智能体与大语言模型:重塑SaaS系统的未来航向

在数字化转型的浪潮中,软件即服务(SaaS)系统一直是企业提升效率、优化业务流程的重要工具。随着AI智能体和大语言模型(LLMs)的迅速发展,SaaS系统正迎来前所未有的变革契机。本文将从AI智能体和大语言模型对…...

mapbox基础,使用geojson加载heatmap热力图层

👨‍⚕️ 主页: gis分享者 👨‍⚕️ 感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍⚕️ 收录于专栏:mapbox 从入门到精通 文章目录 一、🍀前言1.1 ☘️mapboxgl.Map 地图对象1.2 ☘️mapboxgl.Map style属性1.3 ☘️heatmap热力图层样式二、🍀使用geojs…...

python环境打包2 pytorch和cuda的安装逻辑

基本逻辑 理一理安装pytorch的一列逻辑,以及他的依赖。(看完这小节再实践) 配置pytorch,安装步骤为:显卡驱动-->python-->cuda--->pytorch。 pytorch是依赖conda的,conda是依赖python的。 &am…...

hot100-矩阵

240.搜索二维矩阵② 编写一个高效的算法来搜索 mxn 矩阵 matrix 中的一个目标值 target 。该矩阵具有以下特性: 每行的元素从左到右升序排列。 每列的元素从上到下升序排列。 思路: 输入矩阵: 从标准输入读取矩阵的行数 n 和列数 m。 按…...

扩散模型基本概念

1. 核心思想 从最原始的DDPM来讲,扩散模型是用变分估计训练的马尔可夫链,相当于VAE+流模型。与标准化流相比,扩散模型的正向过程为预先定义的加噪过程,负责将图像 x ∼ p ( x ) x\sim{p(x)} x∼...

【Python 入门基础】—— 人工智能“超级引擎”,AI界的“瑞士军刀”,

欢迎来到ZyyOvO的博客✨,一个关于探索技术的角落,记录学习的点滴📖,分享实用的技巧🛠️,偶尔还有一些奇思妙想💡 本文由ZyyOvO原创✍️,感谢支持❤️!请尊重原创&#x1…...

网络协议 HTTP、HTTPS、HTTP/1.1、HTTP/2 对比分析

1. 基本定义 HTTP(HyperText Transfer Protocol) 应用层协议,用于客户端与服务器之间的数据传输(默认端口 80)。 HTTP/1.0:早期版本,每个请求需单独建立 TCP 连接,效率低。HTTP/1.1&…...

Mysql COUNT() 函数详解

简介 COUNT()函数定义 COUNT()函数是SQL中常用的 聚合函数 ,用于统计满足特定条件的记录数。它可以灵活地应用于各种查询场景,帮助用户快速获取所需的数据统计信息。该函数不仅能够计算所有行的数量,还能针对特定列进行计数,并支…...

Redis缓存一致性难题:如何让数据库和缓存不“打架”?

标题:Redis缓存一致性难题:如何让数据库和缓存不“打架”?(附程序员脱发指南) 导言:当数据库和缓存成了“异地恋” 想象一下:你刚在美团下单了一份麻辣小龙虾,付款后刷新页面&#…...

WIn32 笔记:本专栏课件

专栏导航 上一篇:在VS2019里面,调整代码字体大小 回到目录 下一篇:计算机基础:二进制基础01,比特与字节 本节前言 在之前的讲解里面,我讲解了 Visual Studio 软件的一些个基础操作步骤。从本节开始&am…...

设置同一个局域网内远程桌面Ubuntu

1、安装xrdp: 打开终端,运行以下命令来安装xrdp: sudo apt update sudo apt install xrdp 2、启动 XRDP 并设置开机自启 sudo systemctl start xrdp sudo systemctl enable xrdp 3、验证 XRDP 运行状态 sudo systemctl status xrdp 如果显示 active (ru…...

Spring Boot 自定义 Starter 完整实战手册

Spring Boot 自定义 Starter 完整实战手册 一、核心概念与项目结构 1. 什么是 Starter? 本质:预配置模块 依赖集合 自动配置类 默认实现核心价值: 统一技术栈:团队快速复用标准组件简化配置:隐藏复杂实现细节&…...

C++ 红黑树万字详解(含模拟实现(两种版本))

目录 红黑树的概念 红黑树的性质 红黑树的删除 红黑树与AVL树的比较 红黑树的应用 红黑树的模拟实现 红黑树的概念 红黑树,是一种二叉搜索树,但在每个结点上增加一个存储位表示结点的颜色,可以是Red或Black。 通过对任何一条从根到叶…...

使用 Spring Boot 和 Keycloak 的 OAuth2 快速指南

1. 概述 本教程是关于使用 Spring Boot 和 Keycloak 通过 OAuth2 配置后端的。 我们将使用 Keycloak 作为 OpenID 提供程序。我们可以将其视为负责身份验证和用户数据(角色、配置文件、联系信息等)的用户服务。它是最完整的 OpenID Connect &#xff0…...

4个小时开发DeepSeek+baiduNaotu一键生成思维导图

一、引言 最近发现AI生成思维导图的解决方案普遍存在两个断层:用户需手动复制模型输出的JSON数据到脑图软件,且缺乏实时可视化反馈。基于日常使用的BaiduNaotu框架(其轻量级架构与简洁的UI设计已满足基础需求),我决定…...

DeepSeek 开源狂欢周(一)FlashMLA:高效推理加速新时代

上周末,DeepSeek在X平台(Twitter)宣布将开启连续一周的开源,整个开源社区为之沸腾,全球AI爱好者纷纷为关注。没错,这是一场由DeepSeek引领的开源盛宴,推翻了传统推理加速的种种限制。这周一&…...

视频批量分段工具

参考原文:视频批量分段工具 选择视频文件 当您启动这款视频批量分段工具程序后,有两种便捷的方式来选择要处理的视频文件。其一,您可以点击程序界面中的 “文件” 菜单,在下拉选项里找到 “选择视频文件” 按钮并点击&#xff1b…...

【OMCI实践】ONT上线过程的omci消息(五)

引言 在前四篇文章中,主要介绍了ONT上线过程的OMCI交互的第一、二、三个阶段omci消息,本篇介绍第四个阶段,OLT下发配置到ONT。前三个阶段,每个厂商OLT和ONT都遵循相同标准,OMCI的交换过程大同小异。但第四个阶段&…...

git从零学起

从事了多年java开发,一直在用svn进行版本控制,如今更换了公司,使用的是git进行版本控制,所以打算记录一下git学习的点滴,和大家一起分享。 百度百科: Git(读音为/gɪt/)是一个开源…...

服务器间迁移conda环境

注意:可使用迁移miniconda文件 or 迁移yaml文件两种方式,推荐前者,基本无bug! 一、迁移miniconda文件: 拷贝旧机器的miniconda文件文件到新机器: 内网拷贝:scp -r mazhf192.168.1.233:~/miniconda3 ~/ 外…...

计算机毕业设计SpringBoot+Vue.js精准扶贫管理系统(源码+文档+PPT+讲解)

温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 作者简介:Java领…...

[RH342]tcpdump

[RH342]tcpdump 1. 题目2. 解题 1. 题目 服务器serverc 和 servera 之间有进程定期发送一个明文密码,找出它2. 解题 找出通信端口 抓包分析 tcpdump -X -vv port 6644红框中就是密码,所以密码是root123...

LeetCode-Hot100-001两数之和

给出个人解答&#xff0c;不懂的可以在评论区问 代码 使用的手写的hash函数 class Hash{ public:static const int MAXN 10007;int num;struct Data{int key;int v; int nxt;};vector<Data> data;vector<int> head;Hash(): num(0), data(3*MAXN), head(3*MAXN)…...

(2.26 “详细分析示例“ 暴力+位运算 最长优雅子数组)leetcode 2401

a&b0说明a和b的每一位都是一个0和一个1 不存在两个均为1的位次 a|0a 0与任何数|都等于它本身 &#xff08;mask&#xff09;的作用&#xff1a; 担心两数的1在用一位导致mask覆盖了&#xff1f; 答&#xff1a;出现这种情况说明mask与nums j后就直接break 由&#xff1a;…...

【Go】十六、protobuf构建基础服务信息、grpc服务启动的基础信息

商品服务 服务结构 创建 goods 服务&#xff0c;将之前 user 服务的基本结构迁移到 goods 服务上&#xff0c;完整目录是&#xff1a; mxshop_srvs user_srv … tmp … goods_srv config config.go 配置的读取表 global global.go 数据库、日志初始化、全局变量定义 handler …...

ONNX转RKNN的环境搭建

将ONNX模型转换为RKNN模型的过程记录 工具准备 rknn-toolkit:https://github.com/rockchip-linux/rknn-toolkit rknn-toolkit2:https://github.com/airockchip/rknn-toolkit2 rknn_model_zoo:https://github.com/airockchip/rknn_model_zoo ultralytics_yolov8:https://github…...

解决npm run dev报错

解决&#xff1a;Node.js 版本更新后与 OpenSSL 不兼容导致的npm报错“Error: error:0308010C:digital envelope routines::unsupported” 方法一&#xff1a;更改系统环境变量方法二&#xff1a;更改项目环境变量方法三&#xff1a;更换 Node.js 版本方法四&#xff1a;升级依…...

【Kubernetes】对资源进行PATCH

文章目录 1 更新资源的方式2 PATCH的三种方式2.1 JSON Patch2.2 Merge Patch2.3 Strategic Merge Patch 3 kubectl中的patch命令4 PATCH的优势和问题5 参考文档 1 更新资源的方式 K8S的核心就是各种资源以及针对资源的控制器&#xff0c;为了能够操作资源对象&#xff0c;apis…...

打破关节动力桎梏!杭州宇树科技如何用“一体化设计”重塑四足机器人性能?

核心价值&#xff1a;通过集成电机与行星减速器、创新双联齿轮结构&#xff0c;实现机器人关节动力单元体积缩小50%&#xff0c;力矩控制精度提升30%。&#xff08;申请人&#xff1a;杭州宇树科技有限公司&#xff0c;申请号&#xff1a;201821267397.0&#xff09; 一、技术解…...

一劳永逸解决vsocde模块import引用问题

这里写目录标题 原因解决方案 原因解决方案 原因&#xff1a; VSCode中需要显式地声明PYTHONPATH&#xff0c;不然根本找不到本项目内的模块和包的路径。 解决方法&#xff0c;加入到setting。json里当前Project路径&#xff0c;以后运行就自动添加了&#xff1a; 打开设置 …...

在 Vue 组件中,如何确认父组件在 add 模式下传入 value 的情况及其对子组件 getProducts() 方法的触发影响?

文章目录 父组件中 <ave-form> 的使用add 模式下触发逻辑value 的传入情况是否触发 getProducts()&#xff1f; 验证 add 模式下 getProducts() 是否触发结论&#xff1a; 检查父组件传入 value 的完整情况如何明确知道父组件传入的 value最终回答 父组件 index.vue子组件…...

Unity XR-XR Interaction Toolkit开发使用方法(十)组件介绍(XR Interaction Group)

目录 一、插件介绍 二、主要组件 XR Interaction Manager XR Controller XR Interactor XR Direct Interactor XR Ray Interactor XR Socket Interactor XR Gaze Interactor 三、XR Interaction Group 1、组件介绍 2、核心功能与特点 优先级与冲突管理 动态交互切…...

docker简介-学习与参考

docker Docker 是一个开源的应用容器引擎&#xff0c;基于 Go 语言并遵从 Apache2.0 协议开源。 Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中&#xff0c;然后发布到任何流行的 Linux 机器上&#xff0c;也可以实现虚拟化。 容器是完全使用沙箱…...

3dtiles平移旋转工具制作

3dtiles平移旋转缩放原理及可视化工具实现 背景 平时工作中&#xff0c;通过cesium平台来搭建一个演示场景是很常见的事情。一般来说&#xff0c;演示场景不需要多完善的功能&#xff0c;但是需要一批三维模型搭建&#xff0c;如厂房、电力设备、园区等。在实际搭建过程中&…...

【第十节】C++设计模式(结构型模式)-Flyweight( 享元)模式

目录 一、问题背景 二、模式选择 三、代码实现 四、总结讨论 一、问题背景 享元模式&#xff08;Flyweight Pattern&#xff09;在对象存储优化中的应用 在面向对象系统的设计与实现中&#xff0c;创建对象是最常见的操作之一。然而&#xff0c;如果一个应用程序使用了过多…...

VScode在windows10上使用clang-format

用途&#xff1a;自动调整代码格式&#xff0c;如缩进等。 clang-format官方文档&#xff1a;ClangFormat — Clang 21.0.0git documentation 前提&#xff1a;有一个.clang-format文件 下载LLVM&#xff1a;https://github.com/llvm/llvm-project/releases&#xff0c;将可…...

青少年编程与数学 02-010 C++程序设计基础 11课题、程序结构

青少年编程与数学 02-010 C程序设计基础 11课题、程序结构 一、C程序结构二、main函数1. main 函数的基本形式1.1 无参数形式1.2 带参数形式 2. 参数解释3. 示例3.1 无参数形式3.2 带参数形式 4. 编译和运行4.1 编译4.2 运行 5. main 函数的返回值6. 总结 三、预处理指令1. #in…...