DeepSeek崛起:如何在云端快速部署你的专属AI助手
在2025年春节的科技盛宴上,DeepSeek因其在AI领域的卓越表现成为焦点,其开源的推理模型DeepSeek-R1擅长处理多种复杂任务,支持多语言处理,并通过搜索引擎获取实时信息。DeepSeek因其先进的自然语言处理技术、广泛的知识库和高性价比而广受欢迎。本文介绍了DeepSeek的功能、硬件和软件环境需求,并演示了如何在云服务器上快速部署DeepSeek,展示其在博客写作中的应用。未来,DeepSeek有望在AI智能体和AI应用方向取得更多突破。
DeepSeek崛起:如何在云端快速部署你的专属AI助手
- 1. DeepSeek及其应用场景
- 1.1 什么是DeepSeek?
- 1.2 DeepSeek能干什么?
- 1.3 DeepSeek为什么这么火?
- 2. 为什么要部署私有DeepSeek
- 2.1 DeepSeek所需的硬件和软件环境
- 2.2 本地部署还是云服务部署
- 3. 1分钟快速部署DeepSeek
- 3.1 应用市场找到DeepSeek
- 3.2 购买云服务器
- 3.3 启动应用
- 3.4 可以使用了
- 4. DeepSeek变身博客写作小助手
- 4.1 推荐博客选题
- 4.2 构思博客大纲
- 4.3 撰写博客内容
- 4.4 优化博客内容
- 5. 注意事项
- 6. 总结与展望
1. DeepSeek及其应用场景
在2025年春节的科技盛宴上,尽管宇树科技的机器人以灵动的机械舞姿惊艳了春晚舞台,DeepSeek却凭借其引发的科技浪潮成为了众人瞩目的焦点。DeepSeek在AI领域中光芒四射,彻底吸引了西方资本市场的目光。如今,提起DeepSeek,可谓是家喻户晓,声名远扬。那么,DeepSeek究竟是什么?它具备哪些强大的功能?又是什么让它如此炙手可热?让我们一同回顾一下。
1.1 什么是DeepSeek?
- DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应
用。 - DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且开源,开源开放,支持免费商用。
1.2 DeepSeek能干什么?
- 支持处理多种复杂任务,包括文本理解、数据分析、知识问答及内容创作等。
- 具备跨语言处理能力,能够理解和生成多种语言的文本。
- 能够通过搜索引擎进行联网查询,获取实时信息并整合到回答中。
1.3 DeepSeek为什么这么火?
- 采用了先进的自然语言处理技术,能够更准确地理解用户意图,提供更贴合需求的服务。
- 知识库经过大规模数据训练,涵盖广泛的主题,能够提供多领域的专业信息。
- 不断通过机器学习和用户反馈进行自我优化,以提升交互质量和响应速度。
- DeepSeek-R1性能与OpenAI-o1相当但成本降低90%,并且被多个云服务商(如蓝耘、华为云、腾讯云)接入,具有超高性价比和广泛兼容性。
2. 为什么要部署私有DeepSeek
DeepSeek的爆火,导致官方访问,频繁出现服务器繁忙的提示。主要原因包括用户流量过大、技术性能瓶颈以及可能的一些外部恶意攻击。
虽然我们可以借助第三方平台(如硅基流动、纳米AI搜索、秘塔AI搜索等)实现平替,但是从数据安全、用户隐私、费用等角度考虑,我还是建议部署自己的私有DeepSeek,打造一个稳定性高、隐私性强、灵活性强的超强AI服务。
2.1 DeepSeek所需的硬件和软件环境
以下是部署DeepSeek不同规模模型所需的硬件和软件环境详细表格:
模型规模 | CPU建议 | GPU建议(显存) | 内存建议 | 存储空间 | 软件环境 | 适用场景 | 备注 |
---|---|---|---|---|---|---|---|
1.5B | 4核以上 (i5/Ryzen5) | 可选:GTX 1650 (4GB+) 或 T4 (低功耗) | 8GB+ | 10GB+ SSD | Python 3.9+, CUDA 11.8+, PyTorch 2.1.0, Transformers 4.33.0 | 小型NLP任务、文本生成 | 低端GPU可运行,量化后显存需求更低 |
7B | 6核以上 (i7/Ryzen7) | RTX 3060 (12GB) / A100 (24GB+) | 16GB+ | 20GB+ SSD | 同1.5B,需加速库(如FlashAttention) | 中等NLP、对话系统 | 显存需求因量化差异大(16-32GB) |
14B | 8核以上 (i9/Ryzen9) | RTX 3090 (24GB) / A100 (40GB+) | 32GB+ | 50GB+ SSD | 需多GPU并行支持 | 复杂NLP、知识问答 | 单卡需高显存,多卡可降低单卡负载 |
32B | Xeon/EPYC (32核+) | 多卡A100/H100 (80GB+) | 128GB+ | 200GB+ NVMe | 分布式训练框架(如DeepSpeed) | 企业级复杂任务 | 需多卡并行或量化技术 |
67B | 服务器级CPU (64核+) | 4×A100-80G 或 H100集群 | 256GB+ | 300GB+ NVMe | CUDA 12+, 混合精度训练 | 科研级高复杂度生成 | 显存需求极高,需分布式推理 |
70B | 同67B | 同67B | 256GB+ | 300GB+ NVMe | 同67B | 超大规模AI研究 | 企业级部署需定制化优化 |
671B | 多节点服务器集群 | 8×A100-80G 或 H100 | 512GB+ | 1TB+ NVMe | 分布式框架(如Megatron-LM) | 超大规模训练/推理 | 仅适合专业机构 |
2.2 本地部署还是云服务部署
从表格中可以看出,当模型参数规模达到14B时,所需的硬件性能已经超出了普通个人电脑的能力范围。众所周知,大模型的参数规模越大,生成的内容通常越优质。因此,为了部署更聪明、更强大的AI大模型,我建议大家选择高性能云服务来进行部署。
3. 1分钟快速部署DeepSeek
接下来,给大家演示下如何在云服务器平台上部署DeepSeek。至于选择哪个云平台,大家可以根据自己的习惯自行选择。
本文中,我使用的蓝耘元生代智算云平台。为什么选择蓝耘呢,主要是下面几个点:
-
高性能与高性价比: 蓝耘GPU智算云平台基于Kubernetes,提供领先的基础设施和大规模GPU算力,速度比传统云服务快35倍,成本降低30%。
-
全流程支持: 平台支持AI客户在模型构建、训练和推理的全业务流程,并加速教科研客户的科研创新。
-
容器化与自动化管理: 通过将运行环境、模型和训练框架打包到容器中,并使用定制化Kubernetes工具进行管理,解决开发环境设置和运维管理问题。
-
开箱即用: 提供统一的环境模板,让算法工程师免除初期开发环境设置和新环境中管理算力资源的麻烦。应用市场已经内置了DeepSeek的1.5b、7b、8b、32b模型,支持快速部署。
-
自愈能力与高效利用: 针对大模型训练中的常见问题,平台提供自动化调度和自愈能力,提高开发和训练效率以及资源利用率。
3.1 应用市场找到DeepSeek
访问蓝耘官网完成账号注册,然后找到应用市场入口,就可以看到已经内置了DeepSeek模型并且置顶展示。为了更好的生成效果,我们选择第二个r1 32b版本。
3.2 购买云服务器
点击模型右侧的部署按钮,购买云服务器。为了更快的执行速度,我选择的是4090显卡配置。
3.3 启动应用
购买成功之后,会自动跳转到工作空间,并展示出新购买的云服务器,然后再次点击快速启动应用按钮就可以启动DeepSeek应用了。
在弹出的新页面中,使用默认账号:lanyunuser@lanyun.net 密码:lanyunuser即可登录。
3.4 可以使用了
登录成功之后,就可以进入AI对话页面了。左上角可以看到目前模型规模是32b。
4. DeepSeek变身博客写作小助手
4.1 推荐博客选题
我:
是一名人工智能行业的大模型开发者,最近在写博客过程中,没有思路了。给我推荐5个选择。直接给出选题即可,不要说别的。
DeepSeek:
- “多模态大模型:未来AI发展的核心方向”
- “大模型与硬件结合:如何优化性能与效率”
- “AI在垂直行业的突破:医疗、金融与制造中的新应用”
- “模型压缩与量化:让大模型走向轻量化落地”
- “隐私保护与伦理挑战:大模型时代的必然议题”
4.2 构思博客大纲
我:
好的。以“模型压缩与量化:让大模型走向轻量化落地 ”为选题,构思下这篇文章的大纲。
DeepSeek:
大纲:模型压缩与量化——让大模型走向轻量化落地
一、引言
- 为什么需要模型压缩与量化?
- 大模型的优势与资源消耗矛盾。
- 模型轻量化的实际需求:从云端到边缘设备的广泛部署。
二、模型压缩与量化的基础概念
- 什么是模型压缩?
- 剪枝(Pruning)、蒸馏(Distillation)等技术的核心思想。
- 量化的基本原理:
- 从 FP32 到 INT8,精度与计算效率的平衡。
- 量化 vs 压缩:区别与联系。
三、模型压缩与量化的关键技术路径
- 模型剪枝(Network Pruning)
- 结构化剪枝 vs 非结构化剪枝。
- 剪枝策略与效果评估。
- 知识蒸馏(Knowledge Distillation)
- 大模型到小模型的知识迁移。
- 蒸馏损失的设计与优化。
- 量化技术(Quantization)
- 定点量化(Post-Training Quantization)。
- 动态量化 vs 静态量化。
- 量化感知训练(QAT)。
- 混合精度训练(Mixed Precision Training)
- 结合 FP16 和 INT8,平衡精度与效率。
四、模型压缩与量化的实际应用场景
- 移动设备上的 AI 模型部署:
- 如何在手机端实现高性能推理。
- 嵌入式设备的轻量化需求:
- 低功耗、低成本硬件上的高效运行。
- 物联网(IoT)中的模型应用:
- 资源受限环境下的实时推理。
- 自动驾驶与实时系统:
- 高效推理的必要性与实现路径。
五、面临的挑战与未来方向
- 精度损失与计算效率的平衡:
- 如何在压缩过程中保持模型性能。
- 复杂网络结构的压缩难点:
- Transformer 等深度网络的剪枝与量化技术。
- 跨平台部署与硬件适配:
- 不同硬件架构(如 ARM、GPU)下的优化策略。
六、总结与展望
- 模型压缩与量化的重要性与未来趋势。
- 自动化工具与框架的潜力。
- 推动大模型在更广泛场景中的落地应用。
4.3 撰写博客内容
我:
嗯,构思的不错,可以按照这个大纲补全这篇博客的内容吗?
DeepSeek:
模型压缩与量化:让大模型走向轻量化落地一、引言
随着深度学习技术的快速发展,大型神经网络模型(如BERT、GPT-3等)在自然语言处理、计算机视觉等领域取得了令人瞩目的成就。然而,这些大模型通常需要大量的计算资源和存储空间,限制了它们在实际场景中的广泛应用。尤其是在移动设备、嵌入式系统等资源受限的环境中,直接部署大型模型变得异常困难。
为了克服这一问题,模型压缩与量化技术应运而生。通过模型压缩与量化,我们可以在保持模型性能的同时,显著降低模型的计算复杂度和存储需求,从而实现大模型在边缘设备上的高效部署。本文将详细介绍模型压缩与量化的基础概念、关键技术路径以及实际应用场景,并探讨这一领域的未来发展方向。
二、模型压缩与量化的基础知识
- 什么是模型压缩?
模型压缩的目标是通过减少模型的参数数量或优化模型结构,降低模型的复杂度和计算需求。常见的压缩技术包括:
- 剪枝(Pruning):移除对模型贡献较小的神经元或权重。
- 蒸馏(Distillation):将大模型的知识迁移到一个更小、更轻量化的模型中。
- 量化的基本原理
量化是通过降低数值精度来减少模型的存储和计算开销。例如,传统的浮点数运算使用32位浮点数(FP32),而量化技术可以将这些参数压缩到8位整数(INT8)或更低精度。
- 定点量化:将权重和激活值转换为低精度表示。
- 动态量化 vs 静态量化:动态量化在推理过程中实时调整缩放因子,静态量化则在训练后固定缩放因子。
- 量化感知训练(QAT):在训练阶段引入量化操作,提升量化模型的性能。
- 量化 vs 压缩:区别与联系
压缩技术主要关注减少参数数量,而量化技术则是通过降低精度来优化计算效率。两者可以结合使用,以实现更高效的模型部署。
三、模型压缩与量化的关键技术路径
- 模型剪枝(Network Pruning)
剪枝是一种直接减少模型参数数量的方法。根据剪枝策略的不同,可分为以下两类:
- 结构化剪枝:移除整个神经元或通道(如Channel Pruning),保证剪枝后的模型仍具有规则的网络结构。
- 非结构化剪肢:随机移除部分权重,可能会导致不规则的稀疏矩阵。
- 知识蒸馏(Knowledge Distillation)
知识蒸馏的核心思想是将大模型的知识迁移到一个更小的学生模型中。具体步骤如下:
使用大模型(教师模型)对数据进行训练。
将学生模型在教师模型的指导下进行微调,使其模仿教师模型的输出。
量化技术
- 定点量化:直接将权重和激活值转换为低精度表示。例如,Post-Training Quantization(PTQ)是后训练量化,适用于已经训练好的模型。
- 量化感知训练(QAT):在训练过程中引入量化操作,通过反向传播优化量化后的参数。
- 混合精度训练
混合精度训练结合了FP16和INT8等不同精度的计算,可以在保持模型性能的同时显著提升计算效率。这种方法需要硬件支持(如NVIDIA的Tensor Core)。
四、模型压缩与量化的实际应用场景
- 移动设备上的 AI 模型部署
在移动设备上运行大模型通常会面临计算资源和存储空间的限制。通过模型压缩与量化,可以在手机端实现高性能推理。例如,苹果的Core ML框架就集成了多种压缩与量化技术。
- 嵌入式设备的轻量化需求
嵌入式设备(如智能家居、自动驾驶系统)通常具有严格的功耗和成本限制。通过剪枝和量化,可以将模型优化到满足这些设备的要求。
- 物联网中的实时推理
在物联网场景中,设备通常需要进行实时推理,但计算资源有限。压缩与量化技术可以帮助模型在低功耗设备上快速运行。
- 自动驾驶系统
自动驾驶系统对模型的实时性和准确性要求极高。通过压缩与量化技术,可以在保证性能的同时降低硬件成本。
五、未来发展方向
尽管模型压缩与量化已经取得了显著进展,但仍有许多值得探索的方向:
- 自动化压缩工具:开发更加智能化的压缩工具,能够根据具体场景自动选择最优的压缩策略。
- 端到端量化训练:将量化过程集成到模型训练中,进一步提升量化模型的性能。
- 稀疏计算硬件支持:随着稀疏计算技术的发展,硬件厂商可以为剪枝后的模型提供更好的支持。
六、总结
模型压缩与量化是推动深度学习技术落地的重要手段。通过减少模型的参数数量和计算复杂度,这一技术使得大模型能够在资源受限的环境中高效运行。未来,随着算法和硬件的不断进步,模型压缩与量化将在更多领域发挥重要作用。
4.4 优化博客内容
我:
不错,比较全面。可以在必要的地方,增加一些示例代码,增强说服力吗
DeepSeek:
模型压缩与量化:从理论到实践引言
随着深度学习技术的快速发展,模型的规模越来越大,但实际应用中往往受限于计算资源和存储空间。为了使这些模型能够在移动设备、嵌入式系统或其他资源受限的环境中高效运行,模型压缩与量化技术变得尤为重要。本文将从基础知识到实践示例,全面讲解模型压缩与量化的核心方法,并提供代码实现。
一、知识蒸馏(Knowledge Distillation)
概念
知识蒸馏的核心思想是通过“教师模型”(通常是一个大的、复杂的模型)来指导“学生模型”(一个更小、更轻的模型),使其在保持较高性能的同时具备更好的部署能力。实现示例
以下是一个简单的知识蒸馏实现示例(使用PyTorch):
import torch import torch.nn as nn from torch.utils.data import DataLoader# 教师模型(复杂模型) class TeacherModel(nn.Module):def __init__(self):super(TeacherModel, self).__init__()self.layers = nn.Sequential(nn.Conv2d(3, 64, kernel_size=3),nn.ReLU(),nn.Conv2d(64, 128, kernel_size=3),nn.ReLU(),nn.Flatten(),nn.Linear(128 * 25 * 25, 10))def forward(self, x):return self.layers(x)# 学生模型(轻量化模型) class StudentModel(nn.Module):def __init__(self):super(StudentModel, self).__init__()self.layers = nn.Sequential(nn.Conv2d(3, 32, kernel_size=3),nn.ReLU(),nn.Conv2d(32, 64, kernel_size=3),nn.ReLU(),nn.Flatten(),nn.Linear(64 * 25 * 25, 10))def forward(self, x):return self.layers(x)# 损失函数(结合分类损失和蒸馏损失) def distillation_loss(student_logits, teacher_logits, labels, temperature=2.0):# 分类损失ce_loss = nn.CrossEntropyLoss()(student_logits, labels)# 蒸馏损失(软目标)student_softmax = nn.functional.softmax(student_logits / temperature, dim=1)teacher_softmax = nn.functional.softmax(teacher_logits / temperature, dim=1)kl_divergence = nn.KLDivLoss(reduction='batchmean')(student_softmax.log(), teacher_softmax)return ce_loss + (kl_divergence * temperature ** 2)# 数据加载器(假设已有数据集) train_loader = DataLoader(dataset, batch_size=32, shuffle=True)# 初始化模型和优化器 teacher_model = TeacherModel() student_model = StudentModel() optimizer = torch.optim.Adam(student_model.parameters(), lr=0.001)# 训练过程 for epoch in range(num_epochs):for images, labels in train_loader:# 前向传播teacher_outputs = teacher_model(images)student_outputs = student_model(images)# 计算损失loss = distillation_loss(student_outputs, teacher_outputs, labels)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()print(f"Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}")# 测试学生模型 student_model.eval() test_loader = DataLoader(test_dataset, batch_size=32) correct = 0 total = 0with torch.no_grad():for images, labels in test_loader:outputs = student_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of student model: {correct / total * 100:.2f}%")
二、模型剪枝(Model Pruning)
概念
剪枝是通过移除模型中不重要的参数或结构,来减少模型的复杂度和计算量。剪枝分为“结构化剪枝”(如通道剪枝)和“非结构化剪枝”。实现示例
以下是一个简单的通道剪枝实现示例(使用Keras):
import tensorflow as tf from tensorflow.keras import layers, models# 加载预训练模型 model = models.VGG16(weights='imagenet', include_top=False)# 添加全连接层 flatten_layer = layers.Flatten() dense_layer1 = layers.Dense(4096, activation='relu') dense_layer2 = layers.Dense(4096, activation='relu') predictions = layers.Dense(1000, activation='softmax')model = models.Sequential([model,flatten_layer,dense_layer1,dense_layer2,predictions ])# 剪枝函数(通道剪枝) def prune_channels(model):# 遍历层,找到卷积层并剪枝for layer in model.layers:if isinstance(layer, layers.Conv2D):# 获取权重和掩码weights = layer.get_weights()[0]mask = tf.abs(weights) < 1e-3 # 剪枝阈值# 更新权重pruned_weights = weights * (1 - mask)layer.set_weights([pruned_weights] + layer.get_weights()[1:])return model# 应用剪枝 pruned_model = prune_channels(model)# 重新编译模型并训练 pruned_model.compile(optimizer='adam',loss=tf.keras.losses.CategoricalCrossentropy(),metrics=['accuracy'] )pruned_model.fit(train_dataset, epochs=10)
三、量化(Quantization)
概念
量化是通过将模型的浮点数权重压缩为低精度表示(如8位整数),从而减少存储空间和计算资源。实现示例
以下是一个简单的定点量化实现示例(使用PyTorch):
import torch from torch.quantization import QuantWrapper, default_qconfig# 加载预训练模型 model = MobileNetV2(pretrained=True)# 定义量化配置 qconfig = default_qconfig quantized_model = QuantWrapper(model) quantized_model.qconfig = qconfig# 量化准备和转换 torch.utils.quantization.prepare(quantized_model, inplace=True) torch.utils.quantization.convert(quantized_model, inplace=True)# 测试量化后的模型 test_loader = DataLoader(test_dataset, batch_size=32) correct = 0 total = 0with torch.no_grad():for images, labels in test_loader:outputs = quantized_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of quantized model: {correct / total * 100:.2f}%")
四、量化感知训练(Quantization-Aware Training, QAT)
概念
QAT是在训练过程中模拟量化带来的精度损失,从而提高量化后模型的性能。实现示例
以下是一个简单的QAT实现示例(使用PyTorch):
import torch from torch.quantization import QuantWrapper, default_qat_qconfig# 加载预训练模型 model = MobileNetV2(pretrained=True)# 定义量化配置 qconfig = default_qat_qconfig quantized_model = QuantWrapper(model) quantized_model.qconfig = qconfig# 准备QAT torch.utils.quantization.prepare_qat(quantized_model, inplace=True)# 定义优化器和损失函数 optimizer = torch.optim.Adam(quantized_model.parameters(), lr=0.001) loss_fn = torch.nn.CrossEntropyLoss()# QAT训练过程 for epoch in range(num_epochs):for images, labels in train_loader:# 前向传播outputs = quantized_model(images)loss = loss_fn(outputs, labels)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()print(f"Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}")# 转换为量化模型 torch.utils.quantization.convert(quantized_model, inplace=True)# 测试最终模型 test_loader = DataLoader(test_dataset, batch_size=32) correct = 0 total = 0with torch.no_grad():for images, labels in test_loader:outputs = quantized_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of QAT model: {correct / total * 100:.2f}%")
总结
通过以上方法,可以有效降低模型的计算复杂度和存储需求,同时保持较高的性能。这些技术在移动设备部署、边缘计算等领域具有重要意义。
DeepSeek生成的这篇文章,我也已经发表出来了,邀请大家观摩:模型压缩与量化:让大模型走向轻量化落地。大家可以看下它的质量怎么样?是不是非常棒!?
5. 注意事项
购买成功就自动开机开机计时了,如果你购买的是按量计费,使用过程中要注意时长问题,不用的时候记得及时关机节省费用。
6. 总结与展望
本文主要为大家展示了如何基于蓝耘云快速部署DeepSeek的步骤,最后又结合一个实际场景,演示了DeepSeek的妙用。希望能给大家带来帮助。如果你也想体验一下这个奇妙的过程,按照我这篇文章的教程,访问https://cloud.lanyun.net//#/registerPage?promoterCode=0131
实践起来吧。
最近几年,人工智能领域生成式AI一直在高速发展。通用领域的AI已经逐渐趋于饱和,包括DeepSeek在内。其实单从效果来说,DeepSeek也并没有取得革命性的突破,它的创新更多的体现在降本上面。
关于DeepSeek的未来发展,从个人角度而言,希望可以参考Coze的路线,往AI智能体和AI应用的方向去发展,将DeepSeek的优势最大化。
相关文章:
DeepSeek崛起:如何在云端快速部署你的专属AI助手
在2025年春节的科技盛宴上,DeepSeek因其在AI领域的卓越表现成为焦点,其开源的推理模型DeepSeek-R1擅长处理多种复杂任务,支持多语言处理,并通过搜索引擎获取实时信息。DeepSeek因其先进的自然语言处理技术、广泛的知识库和高性价比…...
高频 SQL 50 题(基础版)_1141. 查询近30天活跃用户数
1141. 查询近30天活跃用户数 select activity_date day,count(distinct user_id) active_users from Activity where (activity_date<2019-07-27 and activity_date>DATE_sub(2019-07-27,INTERVAL 30 DAY)) group by(activity_date)...
DRMPlaneType里有VIG, DMA,和RGB三种类型,这是不是说明DRMPlane就是代表DPU里的Pipeline
DRMPlane 代表了 DPU(Display Processing Unit) 里的 Pipeline(数据通路),不同的 DRMPlaneType 对应 DPU 内部的不同 渲染/合成管线。 📌 DRMPlaneType 与 DPU Pipeline 的关系 在 高通(Qualco…...
not support ClassForName
com.alibaba.fastjson2.JSONException: not support ClassForName : java.lang.String, you can config JSONReader.Feature.SupportClassForName 官方说明中提到默认关闭, 可通过配置开启 JSON.config(JSONReader.Feature.SupportClassForName);...
为什么要学习数据结构与算法
今天,我向大家介绍一门非常重要的课程——《数据结构与算法》。这门课不仅是计算机学科的核心,更是每一位开发者从“小白”迈向“高手”的必经之路。 1、为什么要学习数据结构与算法 总的来说,数据结构与算法是: 求职的“敲门砖”…...
从浏览器输入网址,到页面展示都发生了什么?
查询缓存 其实从填写上url按下回车后,我们就进入了第一步就是 DNS 解析过程,首先需要找到这个 url 域名的服务器 ip,为了寻找这个 ip,浏览器首先会寻找缓存,查看缓存中是否有记录缓存的查找记录为:浏览器缓存>系统…...
Octave3D 关卡设计插件
课程参考链接 这位大佬有在视频合集中有详细的讲解,个人体验过,感觉功能很强大 https://www.bilibili.com/video/BV1Kq4y1C72P/?share_sourcecopy_web&vd_source0a41d8122353e3e841ae0a39908c2181 Prefab资源管理 第一步 在场景中创建一个空物体…...
JavaWeb后端基础(4)
这一篇就开始是做一个项目了,在项目里学习,我主要记录在学习过程中遇到的问题,以及一些知识点 Restful风格 一种软件架构风格 在REST风格的URL中,通过四种请求方式,来操作数据的增删改查。 GET : 查询 …...
【计算机网络】IP协议
目录 1. 协议头格式 2. 网段划分 3. 特殊的IP 4. 公网IP && 内网IP 总结 网络层的IP协议主要解决的是什么问题?——将数据包从B主机发送给C主机;传输层协议tcp提供可靠的策略;网络层IP协议提供数据数据传输的能力; 发…...
Libgdx游戏开发系列教程(2)——接水滴游戏实现
目录 游戏玩法 步骤 1.创建项目 2.添加资源文件 3.设置游戏配置 4.加载资源文件 5.播放背景音乐 6.绘制图形 7.雨滴下落实现 8.判断雨滴是否掉落在桶里 9.键盘控制改变桶位置 10.随机雨滴 打包 本文使用Kotlin语言开发 通过本文的学习可以初步了解以下基础知识的…...
【2025rust笔记】超详细,小白,rust基本语法
一、常见cargo命令 查看cargo版本 cargo --version创建cargo项目 create new demo_name构建编译项目 cargo build运行项目 cargo run检查项目代码 cargo check (比cargobuild快)发布构建项目 cargo build --release 电子markdown/pdf格式 二、小demo-----猜数游戏 1、print…...
将 SSH 密钥添加到 macOS 的钥匙串中
git提交代码时,如果SSH密码并未免密,每次拉取,上传操作时都需要密码输入, 可将SSH密钥添加到钥匙串中 git config --global credential.helper store报错: WARNING: The -K and -A flags are deprecated and have bee…...
Gpt翻译完整版
上一篇文章收到了很多小伙伴的反馈,总结了一下主要以下几点: 1. 说不知道怎么调api 2. 目前只是把所有的中文变成了英文,如果想要做多语言还需要把这些关键字提炼出来成放到message_zh.properties和message_en.properties文件中,…...
CC++的内存管理
目录 1、C/C内存划分 C语言的动态内存管理 malloc calloc realloc free C的动态内存管理 new和delete operator new函数和operator delete函数 new和delete的原理 new T[N]原理 delete[]的原理 1、C/C内存划分 1、栈:存有非静态局部变量、函数参数、返回…...
HTTP 状态代码 501 502 问题
问题 单个客户端有时会出现 报错 501 或 502 如下: System.Net.Http.HttpRequestException: Response status code does not indicate success: 501 (Not Implemented) 分析 可以排除 服务器无法处理的问题(测试发现 一个客户端报错,不会影响…...
virtio_video virtio_snd
在 Qualcomm 平台的 虚拟机(VM) 环境中,qcom,virtio_snd 是 VirtIO 机制下的 音频 DMA 共享 设备节点,它用于 虚拟机和宿主机(Hypervisor)之间共享音频数据,类似于标准的 VirtIO 声音设备。 1️…...
【大模型安全】大模型安全概述
【大模型安全】大模型安全概述 1.大模型安全目前的关键挑战技术安全合规安全 2.大语言模型的安全隐患与主要风险点3.大语言模型与国家安全风险4.大语言模型的信息安全原则 1.大模型安全目前的关键挑战 技术安全 1、数据的安全与合理利用 大语言模型通常需要处理大量敏感数据…...
基于 vLLM 部署 LSTM 时序预测模型的“下饭”(智能告警预测与根因分析部署)指南
Alright,各位看官老爷们,准备好迎接史上最爆笑、最通俗易懂的 “基于 vLLM 部署 LSTM 时序预测模型的智能告警预测与根因分析部署指南” 吗? 保证让你笑出猪叫,看完直接变身技术大咖!🚀😂 咱们今天的主题,就像是要打造一个“智能运维小管家”! 这个小管家,不仅能提…...
深入理解三色标记、CMS、G1垃圾回收器
三色标记算法 简介 三色标记算法是一种常见的垃圾收集的标记算法,属于根可达算法的一个分支,垃圾收集器CMS,G1在标记垃圾过程中就使用该算法 三色标记法(Tri-color Marking)是垃圾回收中用于并发标记存活对象的核心算…...
【车规芯片】如何引导时钟树生长方向
12nm车规DFTAPR项目中,我们可以看到,绝大部分的sink都受控于xxxx_tessent_occ_clk_cpu_inst/tessent_persistent_cell_clock_out_mux/C10_ctmi_1这个mux,这是我们DFT设计结果: 这里我们重新打开place的数据 Anchor,也就…...
基于Spring Boot的企业车辆管理系统设计与实现(LW+源码+讲解)
专注于大学生项目实战开发,讲解,毕业答疑辅导,欢迎高校老师/同行前辈交流合作✌。 技术范围:SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容:…...
Spring Boot 中短时间连续请求时出现Cookie获取异常问题
Spring Boot 中短时间连续请求时出现Cookie获取异常问题 一、问题描述:异步线程操作导致请求复用时 Cookie 解析失败1. 场景背景2. 问题根源 二、问题详细分析1. 场景重现2. 问题分析 三、如何避免影响下一次请求?✅方式 1:在主线程提前复制 …...
轮播图案例
(1)、搭建轮播图的结构 <!DOCTYPE html> <html lang"en"><head><meta charset"UTF-8" /><title>轮播图结构</title><!-- <script src"../js/tools.js"></script> --…...
通俗版解释:分布式和微服务就像开餐厅
一、分布式系统:把大厨房拆成多个小厨房 想象你开了一家超火爆的餐厅,但原来的厨房太小了: 问题:一个厨师要同时切菜、炒菜、烤面包,手忙脚乱还容易出错。 解决方案: 拆分成多个小厨房(分布式…...
【开源-常用C/C++命令行解析库对比】
以下是几种常用的C/C命令行解析库的对比表格,以及它们的GitHub开源库地址: 库名称语言特点是否支持子命令是否支持配置文件是否支持自动生成帮助信息GitHub地址ClaraC11及以上单一头文件,轻量级,非异常错误处理,自动类…...
JavaEE_多线程(一)
目录 1. 为啥要有线程1.1 线程是什么1.2 进程和线程的区别1.3 Java如何进行多线程编程 2 使用线程2.1 创建线程2.2 Thread类的几个常见方法和属性2.2.1 Thread常见构造方法2.2.2 Thread常见属性2.2.3 常见其他方法 2.3 终止一个线程2.3.1 通过共享的标记位来进行沟通2.3.2 调用…...
table 拖拽移动
表格拖拽 Sortable.js中文网|配置 <!-- 教务处 --><template><div class"but"><el-button click"mergeAndPrintArrays()" type"primary">保存数据</el-button><el-button click"restoration()" t…...
【QGIS二次开发】地图显示与交互-01
1. 系统界面设计 设计的系统界面如下,很好还原了QGIS、ArcGIS等软件的系统界面,充分利用了QT中顶部工具栏、菜单栏、底部状态栏,实现了图层管理器、鹰眼图、工具箱三个工具面板。 菜单栏、工具栏、工具箱集成了系统中实现的全部功能&#x…...
Microsoft.Office.Interop.Excel 的简单操作
Microsoft.Office.Interop.Excel 的简单操作 1、安装 Microsoft.Office.Interop.Excel2、声明引用 Microsoft.Office.Interop.Excel3、简单的新建 EXCEL 操作代码4、将 DataGridView 表数据写到 EXCEL 操作代码5、将 EXCEL 表数据读取到 C# 数据表 DataTable 操作代码 1、安装 …...
Debezium日常分享系列之:Debezium 3.0.8.Final发布
Debezium日常分享系列之:Debezium 3.0.8.Final发布 稀疏向量逻辑类型重命名架构历史配置默认值的更改潜在的 Vitess 数据丢失Oracle 的 Reselect 列后处理器行为更改MariaDB 的 SSL 连接 稀疏向量逻辑类型重命名 PostgreSQL 扩展 vector(也称为 pgvecto…...
论传输层的TCP协议和UDP协议scoket通讯
TCP传输前需要三次握手---断开需要四次挥手 谁先发出请求、谁是客户端(client)另一个就是服务器(server)---简称CS架构 现在更多的是BS架构 什么是BS架构? blower server 浏览器服务器---也就是浏览器代替了客户端…...
《鸢尾花数学大系:从加减乘除到机器学习》开源资源
《鸢尾花数学大系:从加减乘除到机器学习》开源资源 Gitee:https://gitee.com/higkoo/ bilibili:https://space.bilibili.com/513194466 GitHub:https://github.com/Visualize-ML...
DeepSeek 助力 Vue3 开发:打造丝滑的表格(Table)示例2: 分页和排序
前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏+关注哦 💕 目录 DeepSeek 助力 Vue3 开发:打造丝滑的表格(Table)示例2: 分页和排序📚页面效果📚指令输入定义…...
MySQL——DQL、多表设计
目录 一、DQL 1.基本查询 2.条件查询 3.分组查询 4.排序查询 5.分页查询 二、多表设计 1.一对多 2.一对一 3.多对多 一、DQL 1.基本查询 注意: *号代表查询所有字段,在实际开发中尽量少用(不直观、影响效率) 2.条件查询…...
【文献阅读】The Efficiency Spectrum of Large Language Models: An Algorithmic Survey
这篇文章发表于2024年4月 摘要 大语言模型(LLMs)的快速发展推动了多个领域的变革,重塑了通用人工智能的格局。然而,这些模型不断增长的计算和内存需求带来了巨大挑战,阻碍了学术研究和实际应用。为解决这些问题&…...
玩转大模型——Trae AI IDE国内版使用教程
文章目录 Trae AI IDE完备的 IDE 功能强大的 AI 助手 安装 Trae 并完成初始设置管理项目什么是 “工作空间”?创建项目 管理插件安装插件从 Trae 的插件市场安装从 VS Code 的插件市场安装 禁用插件卸载插件插件常见问题暂不支持安装 VS Code 插件市场中某个版本的插…...
【实战 ES】实战 Elasticsearch:快速上手与深度实践-2.3.1 避免频繁更新(Update by Query的代价)
👉 点击关注不迷路 👉 点击关注不迷路 👉 点击关注不迷路 文章大纲 Elasticsearch数据更新与删除深度解析:2.3.1 避免频繁更新(Update by Query的代价)案例背景1. Update by Query的内部机制解析1.1 文档更…...
stable-diffusion-webui 加载模型文件
背景 stable-diffusion-webui 安装完毕后,默认的模型生成的效果图并不理想,可以根据具体需求加载指定的模型文件。国内 modelscope 下载速度较快,以该站为例进行介绍 操作步骤 找到指定的模型文件 在 https://modelscope.cn/models 中查找…...
BKA-CNN基于黑翅鸢算法优化卷积神经网络的数据多特征分类预测Matlab
BKA-CNN基于黑翅鸢算法优化卷积神经网络的数据多特征分类预测Matlab 目录 BKA-CNN基于黑翅鸢算法优化卷积神经网络的数据多特征分类预测Matlab分类效果基本介绍BKA-CNN基于黑翅鸢算法优化卷积神经网络的数据多特征分类预测一、引言1.1、研究背景和意义1.2、研究现状1.3、研究目…...
SparkStreaming之04:调优
SparkStreaming调优 一 、要点 4.1 SparkStreaming运行原理 深入理解 4.2 调优策略 4.2.1 调整BlockReceiver的数量 案例演示: object MultiReceiverNetworkWordCount {def main(args: Array[String]) {val sparkConf new SparkConf().setAppName("Networ…...
maven高级-05.私服
一.私服...
FFmpeg-chapter2-C++中的线程
1 常规的线程 一般常规的线程如下所示 // CMakeProject1.cpp: 定义应用程序的入口点。 //#include "CMakeProject1.h" #include <thread> using namespace std;void threadFunction(int index) {for (int i 0; i < 1000; i){std::cout << "Th…...
【前端】简单原生实例合集html,css,js
长期补充,建议关注收藏点赞。 目录 a标签设置不一样的花样(图片但不用img)侧边固定box分栏input各种类型iframe表单拖拽 a标签设置不一样的花样(图片但不用img) a标签里面不用嵌套img,直接设置为其bg-img即可 <!DOCTYPE html…...
Linux下的shell指令(一)
作业 1> 在终端提示输入一个成绩,通过shell判断该成绩的等级 [90,100] : A [80, 90) : B [70, 80) : C [60, 70) : D [0, 60) : 不及格 #!/bin/bash read -p "请输入学生成绩:" score if [ "$score" -ge 90 ] && [ "$scor…...
AJAX介绍
XMLHttpRequest get请求使用 const xhr new XMLHttpRequest(); xhr.open("GET", "/data/test.json", true); xhr.onreadystatechange function () {if (xhr.readyState 4) {if (xhr.status 200) {alert(xhr.responseText);} else {console.log("…...
Serilog: 强大的 .NET 日志库
Serilog 是一个功能强大的日志记录库,专为 .NET 平台设计。它提供了丰富的 API 和可插拔的输出器及格式化器,使得开发者能够轻松定制和扩展日志记录功能。在本文中,我们将探索 Serilog 的基础知识、API 使用、配置和一些常见的示例。 1. 日志…...
串口通讯基础
第1章 串口的发送和接收过程 1.1 串口接收过程 当上位机给串口发送(0x55)数据时,MCU的RX引脚接受到(0x55)数据,数据(0x55)首先进入移位寄存器。数据全部进入移位寄存器后,一次将(0x55)全部搬运…...
SSL证书和HTTPS:全面解析它们的功能与重要性
每当我们在互联网上输入个人信息、进行在线交易时,背后是否有一个安全的保障?这时,SSL证书和HTTPS便扮演了至关重要的角色。本文将全面分析SSL证书和HTTPS的含义、功能、重要性以及它们在网络安全中的作用。 一、SSL证书的定义与基本概念 S…...
全国青少年航天创新大赛各项目对比分析
全国青少年航天创新大赛各项目对比分析 一、比赛场地对比 项目名称场地尺寸场地特点组别差异筑梦天宫虚拟三维场景动态布局,小学组3停泊处,初高中组6停泊处;涉及传送带、机械臂、传感器等虚拟设备。初中/高中组任务复杂度更高,运…...
低空监视-无人机专用ADS-B应答机
产品简介 ping200XR是经过TSO适航认证的无人机专用ADS-B应答机,用于中大型无人机的低空监视。将经过认证的航空级航电设备引入无人机系统。该应答机支持航管二次雷达A,C/S模式和ADS-B OUT。重量仅52克满足无人机所面临的尺寸、重量、功耗的挑战…...