当前位置: 首页 > news >正文

Transformer架构笔记

Attention is All You Need.


3.Model Architecture

3.1 整体架构如图

在这里插入图片描述

3.2 Encoder与Decoder

  • Encoder:由 N = 6 N=6 N=6个相同的Block/Layer堆叠而成。每个Block有两个子层sub-layer:多头注意力和MLP(FFN,前馈神经网络),每个子层被一个残差链接包围,且后接一个LayerNorm。由于残差链接要求被包围的Block输入输出shape一致(比如Resnet中利用PWConv达到降维、尺寸缩减,来保证输入输出的shape一致)。多头注意力层和FFN层就要满足此条件,因此作者选择固定网络中的Embedding dimension为512。每个子层的输出可以用公式表示为 LayerNorm ( x + SubLayer ( x ) ) \text{LayerNorm}(x + \text{SubLayer}(x)) LayerNorm(x+SubLayer(x)) x x x为输入。

Q: SliceGPT如何解决各层hidden dimension一致的问题?

  • Decoder:同样为6个Block。有两个多头注意力子层,一个FNN子层。且使用自回归的方式:t时刻Decoder的输入,为t时刻以前所有Decoder的输出的总和

    • masked self multi-head attention: mask样本t时刻以后的输入,保证t时刻无法看到未来的输入,避免模型“作弊”。理解起来很简单,因为预测第i个位置的输出时只能依靠第i个位置以前的所有输出单词的语义信息
  • 为什么用LN而不是BN?
    BN针对特征做归一化,LN则针对样本。LN在机器翻译中会用的更多,主要是因为输入序列的长度通常不一致。(在训练中,使用zero padding来解决输入长度不一致的问题)。如果一个batch中输入序列的长度差异很大,则得到的mean,square也会产生震荡。并且在预测时,由于使用全局的mean square,如果输入序列很长,比train set的序列都要长,则预测效果也会变差(因为之前没有统计过)。

3.3 Attention

概括来说,Attention就是一个将query,key,value映射为output的函数。output,k,v,q均为矩阵/向量。output为value的加权平均,权重由key和query的相似度函数计算得到,不同的attention实现会有不同的计算相似度的方法。

  • 注:这里的query,key,value都是指attention的输入。当然有些文章也会指Attention中q, k, v对应的权重矩阵。这里需要指出,输入的shape一般都是一样的: x ∈ R N × d model x \in R^{N \times d_{\text{model}}} xRN×dmodel。其中 N N N为序列长度, d model d_{\text{model}} dmodel为embedding长度。如果是权重矩阵,比如key的 w k ∈ R d model × d k w_k \in R^{d_{\text{model}}\times d_{\text{k}}} wkRdmodel×dk,相当于把输入 x x x投影到另一个维度 d m o d e l → d k d_{model} \to d_k dmodeldk

3.3.1 Scaled Dot-Product Attention

最基本的Attention。 Q Q Q K K K的hidden dimension维度 d k d_k dk V V V d v d_v dv,计算 K K K Q Q Q的内积作为 V V V的权重。具体公式如下:

Attention ( Q , K , V ) = softmax ( Q K T d k ) V (1) \text{Attention}(Q,K,V)=\text{softmax}(\frac{QK^T}{\sqrt{d_k}})V \tag1 Attention(Q,K,V)=softmax(dk QKT)V(1)

Q , K , V Q, K, V QKV 在这里就是输入乘以权重矩阵后的结果: Q ∈ R N × d k , K ∈ R d k × m , V ∈ R m × d v Q \in R^{N \times d_k}, K \in R^{d_k \times m}, V \in R^{m \times d_v} QRN×dkKRdk×mVRm×dv。比如 Q = x w k Q = xw_k Q=xwk

Scaled:除以了 d k \sqrt{d_k} dk 。当 d k d_k dk很大时,维度数过多,各个值可能差别很大,softmax后大的值很大,小的值很小,softmax函数的梯度,会变得很小,train不动。(这个具体是根据softmax函数的一次函数来看)。

  • Mask:mask掉的是key-value,即对t时刻以后的key-query weight设为0(即进入softmax前设一个很大的负数)。

3.3.2 多头注意力

将高维的 Q , V , K Q,V,K QVK(输入)投影到低维,投影h次分别得到h个低维的 Q , V , K Q,V,K QVK,再分别做attention(相当于h个头),把h个头的attention输出并在一起,然后投影回原维度。多头注意力能让模型学习更多参数,相当于学习不同角度的信息。

示意图如Figure 2右图所示:h个头的attention。原特征维度 d model d_\text{model} dmodel,则投影后的维度为 d model / h = d k = d v d_\text{model} / h = d_k = d_v dmodel/h=dk=dv K , Q , V K,Q,V KQV经投影矩阵(权重矩阵),也就是Linear层降维后送入Attention,将h个头的Attention拼接,再经过最后的Linear升维度,得到输出。原文中 h = 8 , d model = 512 , d k = d v = 64 h=8, \ d_\text{model}=512, \ d_k = d_v = 64 h=8, dmodel=512, dk=dv=64为每个头的hidden dimension长度。

在这里插入图片描述

Attention的参数量。https://blog.csdn.net/qq_46009046/article/details/134417286

具体Multi-Head实现如以下公式:
M u l t i H e a d ( Q , K , V ) = C o n c a t ( h e a d 1 , . . . , h e a d h ) W O w h e r e h e a d i = A t t e n t i o n ( Q W i Q , K W i K , V W i V ) \begin{aligned} \mathrm{MultiHead}(Q,K,V)& =\mathrm{Concat}(\mathrm{head}_1,...,\mathrm{head}_\mathrm{h})W^O \\ \mathrm{where~head_i}& =\mathrm{Attention}(QW_{i}^{Q},KW_{i}^{K},VW_{i}^{V}) \end{aligned} MultiHead(Q,K,V)where headi=Concat(head1,...,headh)WO=Attention(QWiQ,KWiK,VWiV)

W i Q ∈ R d m o d e l × d k , W i K ∈ R d m o d e l × d k , W i V ∈ R d m o d e l × d v W_i^Q\in\mathbb{R}^{d_{\mathrm{model}}\times d_k},W_i^K\in\mathbb{R}^{d_{\mathrm{model}}\times d_k},W_i^V\in\mathbb{R}^{d_{\mathrm{model}}\times d_v} WiQRdmodel×dk,WiKRdmodel×dk,WiVRdmodel×dv W O ∈ R h d v × d m o d e l W^O\in\mathbb{R}^{hd_v\times d_{\mathrm{model}}} WORhdv×dmodel均为权重矩阵(投影矩阵)。 Q , K , V ∈ R N × d m o d e l Q ,\ K,\ V \in \mathbb{R}^{N \times d_{model}} Q, K, VRN×dmodel

3.3.3 Attention的不同应用

假设输入序列长为 N N N

  1. Encoder:输入shape为 R ∈ N × d model R \in {N \times d_\text{model}} RN×dmodel。输出shape与输入相同。

  2. Decoder中的Masked-MHSA:与Encoder中的attention类似,不过用了mask保证自回归性。

  3. Cross-Attention:Encoder的输出作为key-value,之前的Decoder输出信息的总和得到的embedding作为query,相当于考虑decoder与encoder的embedding之间的相关性。具体到机器翻译中,如英译中,就是中文某个字与英文某个句子(多个字)的关系。

3.4 Point-Wise FFN

简而言之就是两个全连接层。Point指的是每个word embedding,即针对每个word做处理。与PWConv类似但参数量不同。
PWFFN为: in_embedding × out_embedding \text{in\_embedding} \times \text{out\_embedding} in_embedding×out_embedding,而PWConv为: in_channel × out_channel \text{in\_channel} \times \text{out\_channel} in_channel×out_channel
为什么能用Point-Wise FFN,也就是对每个word做投影?因为Attention部分已经汇聚了语义信息(词与词之间的相关度),MLP相当于只是做维度的变换。

3.5 Embeddings and Softmax

embedding层中权重乘以 d model \sqrt{d_\text{model}} dmodel ,因为L2Norm把权重惩罚得很小。

3.6 Positional Encoding

Attention中没有考虑单词的位置信息,所以理论上来说,如果不加入位置信息,把输入word顺序打乱之后,attention输出应该一致。所以要加入位置编码信息。

预测过程:

Encoder:直接获得整个句子的输入的Embedding,经过6个block,然后得到Encoder的输出,比较直接。
Decoder:先输入起始符(S),经过n层decoder,每一层decoder都要通过masked自注意力机制,以及交互注意力机制(和encoder输出的k,v进行计算,这里就说明decoder在交互注意力不需要再算k,v),在最后一层输出预测结果。然后把最新的预测结果以及历史预测结果综合起来,再放到decoder中,做下一个word的预测,直到得到终止符(E)。

训练过程

Encoder:与预测过程类似。

Decoder:与预测过程不同的是,采用Teacher Forcing的方式,即直接告诉Decoder整个目标序列(也就是正确的输出结果),但是由于预测阶段中,不可能直接告诉你答案是上面,因此会加一些随机mask,比如对15%的单词加入mask,以保证训练效果。


文献标注

Attention的参数数量: https://blog.csdn.net/qq_46009046/article/details/134417286

Attention的训练,推理过程: https://blog.csdn.net/AIcar_lrm/article/details/138577652


问题

  1. auto regressive 是什么意思?

    自回归模型:自变量和因变量应当属于同一个分布。比如根据前n天的股票价格,预测下一天的股票价格。(过去时候的输入作为当前时刻的输入)

  2. 为什么要除以 d k \sqrt {d_k} dk ?
    • 在数值过大/过小的情况下,softmax的偏导数值过小,造成学习困难。除以$\sqrt {d_k} $相当于将输入控制在均值为0,方差为1,控制了数量级。还起到了归一化的作用
  3. BN和LN是什么。Transformer中用的是什么?

    LN:对每个Batch中,所有样本基于所有维度进行归一化,均值和方差数量根据batch_size决定()。
    BN:对各个Batch中的样本,在各个维度进行归一化,均值和方差数量根据batch中的word数量决定(图片的话是维度)。
    使用的实际上是InstanceNorm,对每个instance的所有维度做归一化,但是pytorch中可以用nn.LayerNorm函数实现

实现细节:

  • d m o d e l = 512 d_{model}=512 dmodel=512,模型中的embedding dimension和output的维度固定为512,以保证训练效率
  • h = 8 h = 8 h=8代表使用8个头的注意力
    d k = d v = d m o d e l / h = 64 d_k = d_v = d_{model} / h=64 dk=dv=dmodel/h=64 为每个矩阵得到的向量维度。
    ding dimension和output的维度固定为512,以保证训练效率
  • h = 8 h = 8 h=8代表使用8个头的注意力
    d k = d v = d m o d e l / h = 64 d_k = d_v = d_{model} / h=64 dk=dv=dmodel/h=64 为每个矩阵得到的向量维度。

相关文章:

Transformer架构笔记

Attention is All You Need. 3.Model Architecture 3.1 整体架构如图 3.2 Encoder与Decoder Encoder:由 N 6 N6 N6个相同的Block/Layer堆叠而成。每个Block有两个子层sub-layer:多头注意力和MLP(FFN,前馈神经网络)&…...

初学 flutter 环境变量配置

一、jdk(jdk11) 1)配置环境变量 新增:JAVA_HOMEC:\Program Files\Java\jdk-11 //你的jdk目录 在path新增:%JAVA_HOME%\bin2)验证是否配置成功(cmd运行命令) java java -version …...

【大数据技术基础】 课程 第8章 数据仓库Hive的安装和使用 大数据基础编程、实验和案例教程(第2版)

第8章 数据仓库Hive的安装和使用 8.1 Hive的安装 8.1.1 下载安装文件 访问Hive官网(http://www.apache.org/dyn/closer.cgi/hive/)下载安装文件apache-hive-3.1.2-bin.tar.gz 下载完安装文件以后,需要对文件进行解压。按照Linux系统使用的…...

Postman之newman

系列文章目录 1.Postman之安装及汉化基本使用介绍 2.Postman之变量操作 3.Postman之数据提取 4.Postman之pm.test断言操作 5.Postman之newman Postman之newman 1.基础环境node安装1.1.配置环境变量1.2.安装newman和html报告组件 2.newman运行 newman可以理解为,没有…...

Lua 实现继承的一种方式

以下代码来自Loxodon Framework,截取自其中的一段 function class(classname, super)local cls {}cls.__classname classnamecls.__class clscls.base function (self)return cls.superendcls.__type 0cls.super supercls.__index clsif super thensetmetat…...

相机网卡开启巨型帧和关闭节能模式方法

2022 年 8 月 2 日 Tank 阅读次数(ip/1年): 26,796 win10为例子 首先在开始菜单搜索:网络连接 对想要设置的网络右键:属性 点 配置 高级里面找到这三个选项,参考下图设置,螃蟹网卡建议关掉所有节能有关的…...

如何在 Ubuntu 22.04 上安装带有 Nginx 的 ELK Stack

今天我们来聊聊如何在 Ubuntu 22.04 服务器上安装 ELK Stack,并集成 Nginx 作为 Web 服务器,同时使用 Let’s Encrypt Certbot 进行 SSL 认证。ELK Stack,包括 Elasticsearch、Logstash 和 Kibana,是一套强大的工具,用…...

Android中的依赖注入(DI)框架Hilt

Hilt 是 Android 提供的一种依赖注入(DI)框架,它基于 Dagger,目的是简化依赖注入的使用,提供更易用的接口和与 Android 生命周期组件的紧密集成。下面是 Hilt 的详细介绍。 为什么选择 Hilt? 依赖注入的优势&#xf…...

笔记记录 k8s操作

docker下载arm架构的镜像 docker pull centos --platform arm64 其中华为鲲鹏、飞腾CPU采用的是ARM架构,龙芯采用的是MIPS架构,而兆芯、海光CPU采用的是X86架构,申威采用的是Alpha架构 docker查看容器的日志文件目录 docker inspect --format={{.LogPath}} containername…...

掌握Go语言中的异常控制:panic、recover和defer的深度解析

掌握Go语言中的异常控制:panic、recover和defer的深度解析 在Go语言的编程世界中,异常处理是一个不可忽视的话题。Go语言提供了panic、recover和defer三个关键字来处理程序中的异常情况。本文将深入探讨这三个关键字的工作原理、使用场景和最佳实践,帮助读者在实际编程中更…...

SpringBoot项目部署到云服务器全流程

文章目录 一、前期准备(一)云服务器选择(二)本地环境准备(三)数据库准备(若项目需要) 二、服务器配置(一)获取服务器信息(二)重置实例…...

对传统加密算法降维打击?!——量子计算

量子计算 声明! 学习视频来自B站up主 泷羽sec 有兴趣的师傅可以关注一下,如涉及侵权马上删除文章,笔记只是方便各位师傅的学习和探讨,文章所提到的网站以及内容,只做学习交流,其他均与本人以及泷羽sec团队无…...

什么是Lodash,有什么特点

什么是 Lodash? Lodash 是一个 JavaScript 工具库,提供了一系列实用的函数来处理常见的编程任务,如数组操作、对象操作、字符串处理等。Lodash 由 John-David Dalton 创建,旨在提供一个更全面、更高效的替代方案,以弥…...

Simulink中Model模块的模型保护功能

在开发工作过程中,用户为想要知道供应商的开发能力,想要供应商的模型进行测试。面对如此要求,为了能够尽快拿到定点项目,供应商会选择一小块算法或是模型以黑盒的形式供客户测试。Simulink的Model模块除了具有模块引用的功能之外&…...

【电子通识】LED的一些基础知识

什么是LED LED是被称为"发光二极管"的半导体,名称取至 "Light Emitting Diode" 的首字母。 从爱迪生1879年发明白炽灯后,白炽灯统治了照明一百多年,为世界带来光明。而在21世纪,白炽灯却早已被取代&#xff0…...

React Native 基础

React 的核心概念 定义函数式组件 import组件 要定义一个Cat组件,第一步要使用 import 语句来引入React以及React Native的 Text 组件: import React from react; import { Text } from react-native; 定义函数作为组件 const CatApp = () => {}; 渲染Text组件...

C语言 蓝桥杯某例题解决方案(查找完数)

蓝桥杯原题: 一个数如果恰好等于它的因子之和,这个数就称为“完数”。例如6 1 2 3.编程找出1000以内的所有完数。 这个题没有很大的难点,与我们上一个解决的问题“质因数分解”不同,它不需要判断因数是否是质数,因此…...

【shodan】(三)vnc漏洞利用

shodan基础(三) 声明:该笔记为up主 泷羽的课程笔记,本节链接指路。 警告:本教程仅作学习用途,若有用于非法行为的,概不负责。 count count命令起到一个统计计数的作用。 用上节的漏洞指纹来试…...

蚁群算法(Ant Colony Optimization, ACO)

简介 蚁群算法(Ant Colony Optimization, ACO)是一种基于自然启发的优化算法,由意大利学者马可多里戈(Marco Dorigo)在1992年首次提出。它受自然界中蚂蚁觅食行为的启发,用于解决离散优化问题。 在自然界…...

python可视化将多张图整合到一起(画布)

这周有点事忙着,没时间重温刚结束的Mathurcup数学建模,这两天也是再看了下,论文还是赶紧挺烂的,但比国赛又有进步(说起国赛又不得不抱怨了,基本其余省份都发了,但江西......哎)。哎&…...

计算机网络socket编程(5)_TCP网络编程实现echo_server

个人主页:C忠实粉丝 欢迎 点赞👍 收藏✨ 留言✉ 加关注💓本文由 C忠实粉丝 原创 计算机网络socket编程(5)_TCP网络编程实现echo_server 收录于专栏【计算机网络】 本专栏旨在分享学习计算机网络的一点学习笔记,欢迎大家在评论区交…...

w055基于web的服装生产管理的设计与实现

🙊作者简介:多年一线开发工作经验,原创团队,分享技术代码帮助学生学习,独立完成自己的网站项目。 代码可以查看文章末尾⬇️联系方式获取,记得注明来意哦~🌹赠送计算机毕业设计600个选题excel文…...

hadoop集群搭建

一、环境准备⼯作: 确保已经按照以下文档安装完毕:虚拟机和远程工具的安装(hadoop集群安装01)-CSDN博客 Linux设置以及软件的安装(hadoop集群安装02)-CSDN博客 虚拟机的克隆和免密(hadoop集群03)-CSDN博…...

JVM中TLAB(线程本地分配缓存区)是什么

JVM中TLAB(线程本地分配缓存区)是什么 简单来说 TLAB,线程本地分配缓存区,是在 Java 堆内存中的一块线程专属的内存区域,每个线程在创建对象时,首先会尝试在自己的 TLAB 区域内分配内存,这样多…...

如何使用 MMPreTrain 框架

如何使用 MMPreTrain 框架进行预训练模型的微调和推理 MMPreTrain 是一个基于 PyTorch 的开源框架,专注于图像分类和其他视觉任务的预训练模型。它提供了丰富的预训练模型和便捷的接口,使得研究人员和开发者可以轻松地进行模型微调和推理。本文将详细介…...

Python的tkinter如何把日志弄进文本框(Text)

当我们用python的Tkinter包给程序设计界面时,在有些时候,我们是希望程序的日志显示在界面上的,因为用户也需要知道程序目前运行到哪一步了,以及程序当前的运行状态是否良好。python的通过print函数打印出来的日志通常显示在后台&a…...

bash笔记

0 $0 是脚本的名称,$# 是传入的参数数量,$1 是第一个参数,$BOOK_ID 是变量BOOK_ID的内容 1 -echo用于在命令窗口输出信息 -$():是命令替换的语法。$(...) 会执行括号内的命令,并将其输出捕获为一个字符串&#xff…...

嵌入式工程师面试题 - 2024/11/19

欢迎找我进行职业规划,超值的自我投资 -> 嵌入式软件工程师一对一指导 转载请注明来源 1.以下叙述中正确的是() A 程序必须包含所有三种基本结构才能成为一种算法 B 我们所写的每条C语句,经过编译最终都将转换成二进制的机器…...

springboot配置https,并使用wss

学习链接 springboot如何将http转https SpringBoot配置HTTPS及开发调试 可借鉴的参考: springboot如何配置ssl支持httpsSpringBoot配置HTTPS及开发调试的操作方法springboot实现的https单向认证和双向认证(java生成证书)SpringBoot配置Https访问的详细步骤Sprin…...

【C语言】连接陷阱探秘(3):形参、实参与返回值

目录 一、形参的 “迷障” 1.1. 定义与功能 1.2. 类型不匹配 1.3. 数量不一致 1.4. 顺序不一致 1.5. 数组形参退化 二、实参的 “暗礁” 2.1. 定义与功能 2.2. 求值顺序 “谜题” 2.3. 悬空指针 “深渊” 三、返回值的 “陷阱” 3.1. 定义与功能 3.2. 陷阱与缺陷 …...

学习笔记030——若依框架中定时任务的使用

定时任务是软件开发中经常使用一个功能。 Java定时任务广泛应用于各种需要定时执行或周期性执行任务的场景,如: 数据备份:定期备份数据库中的数据,确保数据的安全性和可靠性。数据同步:如果有多个数据源需要同步数据…...

基于SpringBoot的数据结构系统设计与实现(源码+定制+开发)

博主介绍: ✌我是阿龙,一名专注于Java技术领域的程序员,全网拥有10W粉丝。作为CSDN特邀作者、博客专家、新星计划导师,我在计算机毕业设计开发方面积累了丰富的经验。同时,我也是掘金、华为云、阿里云、InfoQ等平台…...

利用 Python 和 Selenium 高效启动和管理 Chrome 浏览器

在自动化测试和网页抓取的过程中,Selenium 是最常用的工具之一。其强大的功能可以与浏览器无缝集成,实现复杂的操作。然而,为了提高效率和扩展性,尤其在处理大量任务时,我们可以通过定制化的方法启动 Chrome 浏览器并与…...

外卖系统开发实战:从架构设计到代码实现

开发一套外卖系统,需要在架构设计、技术选型以及核心功能开发等方面下功夫。这篇文章将通过代码实例,展示如何构建一个基础的外卖系统,从需求梳理到核心模块的实现,帮助你快速掌握开发要点。 一、系统架构设计 一个完整的外卖系…...

类和对象(上)--类、类的实例化(对象)、this指针

1.类 1.1定位: 和namespace一样,类也有类域。同样起到既保护又限制的功能。别人不能随意访问类里的东西,得通过特定的方式来访问(访问方法和命名空间域一样,三种方法)。 1.2作用 在C语言中,…...

使用ENSP实现浮动静态路由

一、项目拓扑 二、项目实现 1.路由器AR1配置 进入系统试图 sys将路由器命名为R1 sysname R1关闭信息中心 undo info-center enable 进入g0/0/0接口 int g0/0/0将g0/0/0接口IP地址配置为1.1.1.1/24 ip address 1.1.1.1 24进入g0/0/1接口 int g0/0/1将g0/0/1接口IP地址配置为2.…...

JavaEE 【知识改变命运】02 多线程(1)

文章目录 线程是什么?1.1概念1.1.1 线程是什么?1.1.2 为什么要有线程1.1.3 进程和线程的区别1.1.4 思考:执行一个任务,是不是创建的线程或者越多是不是越好?(比如吃包子比赛)1.1.5 ) Java 的线程…...

pytorch官方FasterRCNN代码详解

本博文转自捋一捋pytorch官方FasterRCNN代码 - 知乎 (zhihu.com),增加了其中代码的更详细的解读,以帮助自己理解该代码。 代码理解的参考Faster-RCNN全面解读(手把手带你分析代码实现)---前向传播部分_手把手faster rcnn-CSDN博客 1. 代码结构 作为 to…...

【线程】Java多线程编程

【线程】Java多线程编程 一、前言一个最简单的多线程编程示例可以使用的工具 二、创建线程的方式三、Thread类中重要的属性和方法3.1 构造方法3.2 常见属性 一、前言 当有多个线程的时候,这些线程的执行顺序是不确定的。这一点,是我们之前提到的操作系统…...

4.2 MySQL存储过程

存储过程是MySQL中用于封装一组 SQL 语句的数据库对象,便于简化重复任务、增强性能和逻辑复用。本文将从多个角度详细解析存储过程的功能、语法和应用场景。 1. 存储过程概述 1.1 什么是存储过程 存储过程(Stored Procedure)是一段在数据库…...

archlinux安装waydroid

目录 参考资料 注意 第一步切换wayland 第二步安装binder核心模组 注意 开始安装 AUR安裝Waydroid 启动waydroid 设置网络(正常的可以不看) 注册谷歌设备 安装Arm转译器 重启即可 其他 参考资料 https://ivonblog.com/posts/archlinux-way…...

C语言数学函数库<math.h>的常用函数讲解

math函数 一. 基础数学函数1. fabs(double x) — 绝对值2. fmod(double x, double y) — 余数3. pow(double x, double y) — 幂运算4. sqrt(double x) — 平方根5. cbrt(double x) — 立方根6. hypot(double x, double y) — 计算斜边 二. 对数和指数函数1. exp(double x) — …...

Swift 实现判断链表是否存在环:快慢指针法

文章目录 前言摘要描述题解答案题解代码题解代码分析示例测试及结果时间复杂度空间复杂度总结关于我们 前言 本题由于没有合适答案为以往遗留问题,最近有时间将以往遗留问题一一完善。 LeetCode - #141 环形链表 不积跬步,无以至千里;不积小流…...

借助算力云跑模型

算力平台:FunHPC | 算力简单易用 AI乐趣丛生 该文章只讲述了最基本的使用步骤(因为我也不熟练)。 【注】:进入平台,注册登录账号后,才能租用。学生认证+实名认证会有免费的算力资源&#xff0…...

Python 版本的 2024详细代码

2048游戏的Python实现 概述: 2048是一款流行的单人益智游戏,玩家通过滑动数字瓷砖来合并相同的数字,目标是合成2048这个数字。本文将介绍如何使用Python和Pygame库实现2048游戏的基本功能,包括游戏逻辑、界面绘制和用户交互。 主…...

Homebrew切换成国内源

将 Homebrew 切换成国内的源可以显著提高软件包的下载速度。以下是详细步骤,帮助你将 Homebrew 的主仓库和核心仓库切换到国内镜像源。这里以中国科学技术大学(USTC)的镜像源为例,其他镜像源的切换方法类似。 切换 Homebrew 主仓…...

《Shader 入门精要》学习笔记 茵蒂克丝

渲染流水线 《UnityShader入门精要》学习1_cpu设置渲染状态是什么-CSDN博客 UnityShader 基础 《UnityShader入门精要》学习2_unityshader入门精要2-CSDN博客 学习Shader需要的数学基础 《UnityShader入门精要》学习3_透视投影到-1到1空间-CSDN博客 实现一个简单的顶点/…...

小苯吃糖果

一、题目 二、代码——解析 1、3种情况,第一种:他们都相等;第二种:前大后;第三种:后大前 2、转换成列表,使用列表方法进行升序 x,y,z map(int,input().split()) a [x,y,z] a.sort() if a[0…...

Docker+Nginx | Docker(Nginx) + Docker(fastapi)反向代理

在DockerHub搜 nginx,第一个就是官方镜像库,这里使用1.27.2版本演示 1.下载镜像 docker pull nginx:1.27.2 2.测试运行 docker run --name nginx -p 9090:80 -d nginx:1.27.2 这里绑定了宿主机的9090端口,只要访问宿主机的9090端口&#…...

开发工具 - VSCode 快捷键

以下是一些常用的 VS Code 快捷键(Windows、macOS 和 Linux 均适用,略有不同): 常用快捷键 功能Windows/LinuxmacOS打开命令面板Ctrl Shift P 或 F1Cmd Shift P打开文件Ctrl OCmd O保存文件Ctrl SCmd S全部保存Ctrl K,…...