当前位置: 首页 > news >正文

【NLP】23.小结:选择60题

Question 1:
What does the fixed lookup table in traditional NLP represent?
A. A table of one‐hot vectors
B. A table of pre‐trained dense word embeddings
C. A dictionary of word definitions
D. A table of n-gram counts

Answer (中文): 答案选 B。传统NLP中“查表”是指利用预先训练好的、固定维度的词向量表,来表示每个词的语义特征。


Question 2:
Which method uses context words to predict a target word in its training procedure?
A. Skip-Gram
B. GloVe
C. Continuous Bag-of-Words (CBOW)
D. FastText

Answer (中文): 答案选 C。CBOW模型利用上下文中的多个词来预测中心词。


Question 3:
What is the main idea behind the Skip-Gram model?
A. Predicting surrounding context words using the center word
B. Averaging word vectors to form a sentence vector
C. Using subword information only
D. Decomposing words into character n-grams

Answer (中文): 答案选 A。Skip-Gram模型的核心思想是利用当前中心词来预测其左右上下文词语。


Question 4:
Which method combines both global corpus statistics and local context information for word vector training?
A. Word2vec
B. FastText
C. GloVe
D. CBOW

Answer (中文): 答案选 C。GloVe模型通过利用全局共现统计与局部上下文共同生成词向量。


Question 5:
What is the main advantage of using FastText over traditional word2vec?
A. It uses a larger lookup table
B. It represents words as a sum of their character n-grams
C. It employs RNNs for context modeling
D. It uses only one-hot encoding

Answer (中文): 答案选 B。FastText将词表示成多个字符n-gram向量的和,从而更好处理未登录词和形态变化问题。


Question 6:
When the training data distribution differs from the pre-training data, which process is generally applied?
A. Data augmentation
B. Pre-computation of embeddings
C. Fine-tuning
D. Tokenization

Answer (中文): 答案选 C。微调(Fine-tuning)是在任务特定数据上进一步训练预训练模型以适应数据分布的差异。


Question 7:
How does WordNet assist in handling word senses?
A. It provides pre-trained vectors
B. It supplies prior knowledge of semantic relationships
C. It improves model parallelization
D. It replaces the lookup table entirely

Answer (中文): 答案选 B。WordNet作为一个词典数据库,提供同义词、反义词等语义关系信息,有助于词义消歧。


Question 8:
What is a key limitation of traditional word embeddings like word2vec for polysemous words?
A. They are too high-dimensional
B. They use complex recurrent structures
C. They assign a single vector regardless of context
D. They are computed using SVD

Answer (中文): 答案选 C。传统词嵌入为每个词只生成一个固定向量,无法区分多义词在不同语境下的含义。


Question 9:
Which model introduced deep contextualized word representations in 2018?
A. GloVe
B. FastText
C. ELMo
D. Word2vec

Answer (中文): 答案选 C。ELMo在2018年推出,通过双向RNN生成上下文相关的词表示。


Question 10:
What is the purpose of using a bidirectional RNN in Encoder architectures?
A. To reduce computation time
B. To capture context from both past and future
C. To implement teacher forcing
D. To initialize word embeddings

Answer (中文): 答案选 B。双向RNN可以同时捕捉左侧(过去)和右侧(未来)的上下文信息,丰富输入表示。


Question 11:
In a sequence-to-sequence model, what role does the Decoder perform?
A. It compresses the input sequence into a fixed vector
B. It generates a target sequence based on encoder outputs
C. It performs tokenization
D. It computes global word frequencies

Answer (中文): 答案选 B。解码器利用编码器输出的信息生成目标序列,例如翻译或摘要。


Question 12:
What is “teacher forcing” in the context of training decoders?
A. Using the predicted token as the next input
B. Replacing the entire decoder with a lookup table
C. Feeding ground truth tokens as input during training
D. Forcing the model to converge to a fixed learning rate

Answer (中文): 答案选 C。教师强制在训练时将真实的目标词作为下一步的输入,以提高模型收敛速度和稳定性。


Question 13:
Which decoding strategy retains multiple candidate sequences for higher quality output?
A. Greedy decoding
B. Beam Search
C. Token sampling
D. Backpropagation

Answer (中文): 答案选 B。Beam Search通过保留多个候选序列,能避免局部最优,提高生成质量。


Question 14:
What is a major bottleneck in traditional Encoder-Decoder models?
A. The need for excessive training data
B. The fixed-size vector that must carry all information
C. The use of subword tokenization
D. Inaccurate teacher forcing

Answer (中文): 答案选 B。传统模型存在瓶颈问题,即所有信息必须压缩进一个固定维度的向量中,导致信息丢失。


Question 15:
How does attention mechanism help with the encoder-decoder bottleneck?
A. It increases the size of the fixed context vector
B. It allows dynamic focus on different parts of the input
C. It eliminates the need for training data
D. It converts dense vectors to sparse ones

Answer (中文): 答案选 B。注意力机制允许解码器在生成每个输出时动态关注输入的不同部分,有效缓解瓶颈问题。


Question 16:
In the attention calculation process, what is typically computed first between the decoder state and encoder hidden states?
A. The weighted average
B. The feedforward network output
C. The attention scores
D. The subword embeddings

Answer (中文): 答案选 C。首先计算的是注意力分数(attention scores),用以衡量各输入部分的重要性。


Question 17:
Which attention mechanism uses a dot product between the decoder query and encoder keys?
A. Additive attention
B. Dot-Product Attention
C. Multiplicative Attention
D. Reduced-Rank Attention

Answer (中文): 答案选 B。点积注意力机制直接将解码器的查询向量与编码器的键向量做点积运算。


Question 18:
Why is the scaled dot-product attention used instead of the plain dot product in some models?
A. To increase numerical stability for high dimensions
B. To simplify the model architecture
C. To incorporate position encoding
D. To avoid using softmax

Answer (中文): 答案选 A。缩放点积注意力通过除以键向量维数的平方根,减小高维情况下数值过大带来的不稳定性。


Question 19:
What does “multiplicative attention” (also known as bilinear attention) allow?
A. Allowing query and key to be in different vector spaces via a learnable matrix
B. Eliminating non-linearities
C. Combining multiple attention heads automatically
D. Enforcing the same dimension for query and key

Answer (中文): 答案选 A。乘性(双线性)注意力通过引入可学习矩阵,使查询和键可以在不同向量空间中做匹配。


Question 20:
In additive attention, what is the purpose of using a feedforward network after combining the query and key?
A. To improve computational efficiency
B. To add non-linearity and flexibility in score computation
C. To enforce sparsity in representations
D. To perform tokenization

Answer (中文): 答案选 B。加性注意力中使用前馈层可以引入非线性,使得注意力评分更灵活和精准。


Question 21:
What do the keys and values in the attention mechanism usually derive from in a translation task?
A. The decoder hidden states
B. Randomly initialized embeddings
C. The encoder’s output hidden states
D. The subword segmentation results

Answer (中文): 答案选 C。在机器翻译中,Attention中的键和值一般来源于编码器的隐藏状态。


Question 22:
What is self-attention?
A. Attention between different sequences
B. An attention mechanism where the query, key, and value come from the same sequence
C. A method to pre-compute embeddings
D. A way to enforce teacher forcing

Answer (中文): 答案选 B。自注意力是指在同一个序列中进行查询、键和值之间的注意力计算。


Question 23:
Which benefit does self-attention provide compared to recurrent networks?
A. It requires sequential processing
B. It introduces dependency on previous time steps
C. It allows parallel computation over sequence positions
D. It reduces model complexity by avoiding feedforward layers

Answer (中文): 答案选 C。自注意力机制允许并行计算各个位置的表示,显著提高了训练和推理效率。


Question 24:
What is the primary purpose of positional encoding in Transformer models?
A. To represent syntactic dependency
B. To inject sequence order information
C. To generate subword tokens
D. To perform beam search

Answer (中文): 答案选 B。位置编码的主要作用是为Transformer提供位置信息,弥补自注意力中无序列顺序信息的问题。


Question 25:
Which of the following is a common method to compute fixed positional encodings?
A. One-hot encoding
B. Learnable embedding vectors
C. Sine and cosine functions
D. Word2vec representations

Answer (中文): 答案选 C。常用的固定位置编码方法是通过正弦和余弦函数计算得到的。


Question 26:
What is one limitation of using learned positional embeddings?
A. 不能捕捉位置信息
B. 训练过程过于简单
C. 难以泛化到训练中未出现的序列长度
D. 只能用于短文本

Answer (中文): 答案选 C。学习的位置编码在处理训练中未见过的更长序列时,泛化能力较弱。


Question 27:
What is the primary advantage of using subword segmentation techniques like BPE?
A. 它能解决高频词带来的下采样问题
B. 它能显著减少模型参数量
C. 它可以处理未登录词和形态变化问题
D. 它提高了模型的并行计算效率

Answer (中文): 答案选 C。BPE等子词分割方法通过将词拆分成更小单元,有效处理拼写变体、未登录词和形态变化问题。


Question 28:
In Byte-Pair Encoding (BPE), what is the basic algorithmic step?
A. Replacing whole words with synonyms
B. Merging the most frequent adjacent symbol pairs iteratively
C. Splitting sentences into individual characters
D. Averaging character embeddings

Answer (中文): 答案选 B。BPE的基本原理是在语料中反复统计并合并频率最高的相邻字符对,直到词汇表达到预定大小。


Question 29:
Which method uses a more complex criterion—such as decreasing perplexity—for merging tokens?
A. Simple BPE
B. WordPiece
C. One-hot encoding
D. CBOW

Answer (中文): 答案选 B。WordPiece在合并token时考虑语言模型困惑度,以便选择最优合并方式。


Question 30:
What distinguishes the Unigram model (SentencePiece) from BPE and WordPiece?
A. 它仅使用字符级别的信息
B. 它从一个大词表中逐步删除不常用的单元
C. 它基于统计共现矩阵计算
D. 它用固定的合并规则,不进行概率计算

Answer (中文): 答案选 B。Unigram模型从一个包含大单元和小单元的词表出发,通过概率模型逐步删除贡献小的单元以达到目标词表大小。


Question 31:
Which evaluation metric compares word n-grams and applies a brevity penalty?
A. chrF
B. BLEU
C. ROUGE
D. METEOR

Answer (中文): 答案选 B。BLEU指标通过计算各级n-gram精确率,并对输出过短的结果加上惩罚项来综合评价翻译质量。


Question 32:
What is the main advantage of the chrF metric?
A. 它对单词形态变化更为宽容
B. 它只关注句子长度
C. 它专门用于对话生成
D. 它忽略了标点符号

Answer (中文): 答案选 A。chrF指标基于字符n-gram匹配,对词形变化、拼写错误等具有较高的鲁棒性。


Question 33:
Which of the following is NOT a typical problem with simple space-based tokenization?
A. 处理缩写时可能出错
B. 难以分辨标点符号
C. 能够有效捕捉语义关系
D. 对罕见词及新词存在局限

Answer (中文): 答案选 C。简单的空格分词无法有效捕捉语义关系,而缩写、标点、罕见词等问题正是其缺点。


Question 34:
What do subword tokenization methods help with?
A. 完全取代词嵌入
B. 捕捉词汇的细粒度信息
C. 降低计算成本到最低
D. 自动生成句法树

Answer (中文): 答案选 B。子词分割方法能捕捉词汇的细粒度特征,有助于处理词形变化和未知词问题。


Question 35:
In the context of neural machine translation, what does the brevity penalty in BLEU aim to correct?
A. 生成过长句子的问题
B. 生成无意义的词汇
C. 生成过短句子导致得分虚高的问题
D. 语法错误

Answer (中文): 答案选 C。Brevity penalty惩罚那些过短的输出,防止由于句子短而使n-gram精确率虚高的问题。


Question 36:
What is the main function of the encoder in an Encoder-Decoder architecture?
A. To generate the output sequence
B. To compress the input sequence into a representation
C. To decode the target language
D. To compute the loss function

Answer (中文): 答案选 B。编码器的主要功能是将输入序列压缩成一个(或一组)表示,供解码器使用。


Question 37:
How does beam search improve over greedy decoding in sequence generation?
A. 提供更高的生成速度
B. 通过保留多个候选序列避免局部最优
C. 完全避免教师强制
D. 强制使用固定词汇表

Answer (中文): 答案选 B。Beam Search通过保留多个候选序列,能有效避免单步贪婪选择导致的局部最优问题。


Question 38:
In teacher forcing, what is used as the input at each decoder step during training?
A. The model’s previous predicted token
B. The ground truth target token
C. A randomly selected token
D. The encoder’s final state

Answer (中文): 答案选 B。教师强制训练时,在每个解码步骤中使用真实目标token作为输入,以引导模型学习。


Question 39:
What issue does the “bottleneck” in an Encoder-Decoder model refer to?
A. 训练数据不足
B. 所有输入信息需要压缩进一个固定维度的向量
C. 解码速度太快
D. 无法进行子词分割

Answer (中文): 答案选 B。瓶颈问题指的是将所有信息压缩到一个固定向量中可能导致信息丢失,尤其对于长序列而言。


Question 40:
Which of the following best describes “Cross-Attention”?
A. Attention where query, key, and value all come from the same sequence
B. Attention between encoder and decoder where query comes from decoder and key/value from encoder
C. A method to generate subword tokens
D. A special case of recurrent neural networks

Answer (中文): 答案选 B。Cross-Attention描述了在编码器—解码器模型中,解码器查询向量与编码器输出(键和值)之间的注意力计算。


Question 41:
What is the function of the feedforward layer after the attention mechanism in Transformer models?
A. 简化注意力计算
B. 引入非线性转换,进一步处理加权表示
C. 将输出转化为one-hot向量
D. 直接进行词汇预测

Answer (中文): 答案选 B。前馈层在注意力层后添加非线性激活,有助于捕捉更复杂的特征和模式。


Question 42:
What is Rotary Positional Embedding designed to do?
A. 固定序列的词汇表大小
B. 通过旋转操作保持词间余弦相似度,同时编码位置信息
C. 替代注意力机制
D. 对抗梯度消失问题

Answer (中文): 答案选 B。Rotary Positional Embeddings利用旋转变换在保持词间相似度的同时注入位置信息。


Question 43:
Which subword segmentation method is known for starting with all characters as vocabulary and then merging pairs iteratively?
A. WordPiece
B. Unigram
C. Byte-Pair Encoding (BPE)
D. Transformer

Answer (中文): 答案选 C。BPE从所有字符开始,通过迭代地合并最频繁的字符对生成子词。


Question 44:
What distinguishes WordPiece’s merging criterion from that of BPE?
A. WordPiece只关注字符频率
B. WordPiece使用语言模型概率来衡量合并收益
C. BPE使用固定的词表
D. WordPiece不进行合并

Answer (中文): 答案选 B。WordPiece在合并时考虑对降低困惑度的影响,而BPE主要基于频率。


Question 45:
Which of the following is an advantage of the Unigram model (SentencePiece) over BPE?
A. 总能得到唯一的分词结果
B. 更灵活,能够同时考虑大单元和小单元
C. 完全基于贪心算法
D. 不需要任何概率计算

Answer (中文): 答案选 B。Unigram模型允许同时考虑大单元和小单元,通过概率模型选出最优分词结果,具有较大的灵活性。


Question 46:
What are the typical components generated from an input word in the self-attention mechanism of Transformers?
A. Only the key and value vectors
B. Query, key, and value vectors
C. Only the query vector
D. Only positional encoding

Answer (中文): 答案选 B。自注意力机制中,每个输入会生成查询、键和值三个向量,用于计算注意力分数。


Question 47:
In the scaled dot-product attention, what does the denominator (√dk) help with?
A. 加快计算速度
B. 缓解高维点积数值过大导致的不稳定性
C. 提高词汇覆盖率
D. 生成更稀疏的向量

Answer (中文): 答案选 B。除以键维度的平方根可以减小高维点积值,防止数值过大带来的不稳定问题。


Question 48:
What does “length normalization” in beam search address?
A. 调整输出序列中单词的长短
B. 防止较短序列因总得分较高而被过度选择
C. 将所有序列标准化为相同长度
D. 降低计算复杂度

Answer (中文): 答案选 B。长度归一化是为了平衡生成短序列可能因对数和较高而不合理的问题。


Question 49:
What aspect of the attention mechanism allows it to be highly parallelizable?
A. 依赖于先前的输出
B. 每个单元之间相互独立,不需要序列化处理
C. 必须逐步生成结果
D. 只能处理固定长度的向量

Answer (中文): 答案选 B。注意力机制中所有位置的计算可以同时进行,不依赖序列前后顺序,从而实现高度并行化。


Question 50:
What is the significance of using a softmax function in attention computation?
A. 用于增加非线性
B. 将未归一化的注意力得分转换为概率分布
C. 降低模型的复杂度
D. 防止overfitting

Answer (中文): 答案选 B。softmax函数将注意力得分转换为概率分布,使得权重能够归一化并进行加权求和。


Question 51:
In a self-attention layer, why is masking sometimes applied during training?
A. 为了防止未来信息泄露给当前生成步骤
B. 为了加快计算速度
C. 避免使用位置编码
D. 强制生成固定长度输出

Answer (中文): 答案选 A。遮罩(masking)确保在自回归生成时,模型只能使用已生成的过去信息,防止提前利用未来信息。


Question 52:
What is one key advantage of replacing RNNs with self-attention based models in sequence processing?
A. 增加了依赖关系
B. 避免了循环依赖,实现更高的并行性
C. 需要更长的序列才能训练
D. 简化了词汇表

Answer (中文): 答案选 B。自注意力机制摆脱了RNN的循环依赖,使得各位置计算可以并行进行,从而大大加速训练和推理。


Question 53:
Which of the following is a common challenge with using RNNs in long-sequence processing?
A. 梯度消失或爆炸
B. 太高的并行性
C. 过度依赖子词分割
D. 固定词向量的问题

Answer (中文): 答案选 A。RNN在长序列处理中常出现梯度消失或爆炸问题,导致远距离依赖捕捉不佳。


Question 54:
What role do feedforward layers play in Transformer architectures following self-attention?
A. 将词向量进行降维
B. 提供非线性变换以增加模型表达能力
C. 直接输出最终预测
D. 替代位置编码

Answer (中文): 答案选 B。前馈层提供了非线性变换,帮助模型捕捉复杂特征,增强表达能力。


Question 55:
Which metric is especially robust to morphological variations in words?
A. BLEU
B. ROUGE
C. chrF
D. METEOR

Answer (中文): 答案选 C。chrF指标基于字符n-gram,更能容忍拼写和词形变化所带来的差异。


Question 56:
What is a typical input to an encoder in sequence-to-sequence models?
A. The translated target sentence
B. The original input sequence
C. Random noise vectors
D. The final output token

Answer (中文): 答案选 B。编码器的输入通常是原始的输入序列(例如一句英文句子)。


Question 57:
In the context of attention, what is the “query”?
A. The tokenized output sequence
B. The vector from the decoder or current position used to query the encoder outputs
C. The positional encoding vector
D. The softmax output

Answer (中文): 答案选 B。查询向量通常来自解码器当前状态,用于与编码器的键进行匹配,决定关注哪些信息。


Question 58:
What problem does the use of subword segmentation (like BPE) directly address in NLP?
A. 模型欠拟合
B. 词汇表爆炸问题
C. 梯度消失
D. 数据并行性不足

Answer (中文): 答案选 B。子词分割方法能减少词汇表的大小,解决由于词形多样性引起的词汇爆炸问题。


Question 59:
How do additive attention mechanisms compute the alignment score?
A. 通过两个向量的点积直接得分
B. 通过前馈神经网络对查询和键进行非线性转换后计算
C. 通过简单相加
D. 通过直接比较单词长度

Answer (中文): 答案选 B。加性注意力利用前馈网络对查询和键组合后计算得分,能引入非线性因素。


Question 60:
Which of the following best summarizes the overall benefit of attention mechanisms in NLP models?
A. 它们消除了使用词嵌入的必要性
B. 使模型能够动态聚焦输入中最相关的信息,提高生成质量
C. 完全替代了所有传统NLP方法
D. 降低了模型的训练数据需求

Answer (中文): 答案选 B。注意力机制使模型在每个输出步骤动态关注最相关的信息,有效提升了生成文本的质量和准确性。

相关文章:

【NLP】23.小结:选择60题

Question 1: What does the fixed lookup table in traditional NLP represent? A. A table of one‐hot vectors B. A table of pre‐trained dense word embeddings C. A dictionary of word definitions D. A table of n-gram counts Answer (中文): 答案选 B。传统NLP中“…...

C++核心机制-this 指针传递与内存布局分析

示例代码 #include<iostream> using namespace std;class A { public:int a;A() {printf("A:A()的this指针&#xff1a;%p!\n", this);}void funcA() {printf("A:funcA()的this指针&#xff1a;%p!\n", this);} };class B { public:int b;B() {prin…...

python asyncio 的基本使用

1、引言 asyncio 是 Python 标准库中的一个库&#xff0c;提供了对异步 I/O 、事件循环、协程和任务等异步编程模型的支持。 asyncio 文档 2、进程、线程、协程 线程 线程是操作系统调度的基本单位&#xff0c;同一个进程中的多个线程共享相同的内存空间。线程之间的切换由操…...

大模型中提到的分词器是什么

分词器在大模型中的核心解析 1. 分词器的定义与基本作用 分词器(Tokenizer)是自然语言处理(NLP)中的核心组件,负责将原始文本拆分为模型可处理的离散单元(称为Token)。其核心功能包括: 文本离散化:将连续字符序列转化为数字序列,作为模型的输入。语义单元提取:通过…...

Android中使用BuildConfig.DEBUG无法找到的解决方法

BuildConfig是Android构建工具自动生成的一个类&#xff0c;通常位于应用的包名下&#xff0c;包含一些构建相关的常量&#xff0c;比如DEBUG标志、应用ID、版本信息等。 遇到的问题可能有几种情况。首先&#xff0c;可能项目没有正确构建&#xff0c;导致BuildConfig没有被生…...

Python(14)Python内置函数完全指南:从基础使用到高阶技巧

目录 背景介绍一、内置函数全景分类1. 数据类型转换&#xff08;15个&#xff09;2. 数学运算&#xff08;12个&#xff09;3. 迭代处理&#xff08;9个&#xff09;4. 对象操作&#xff08;11个&#xff09;5. 输入输出&#xff08;4个&#xff09; 二、高阶函数应用场景1. en…...

echo命令,tail命令,反引号,重定向符

echo命令&#xff1a; 作用&#xff1a;在命令行中输出指定的内容&#xff0c;相当于print语句 语法&#xff1a;echo 指定的内容&#xff08;当内容包含空格和特殊字符的时候&#xff0c;语句很复杂的时候&#xff0c;最好用双引号括起来&#xff09; tail命令&#xff1a;…...

集成学习介绍

集成学习&#xff08;Ensemble Learning&#xff09;是一种机器学习范式&#xff0c;它通过组合多个模型的预测来提高整体模型的性能。单一模型可能在某些方面表现不佳或具有较高的偏差或方差&#xff0c;而集成方法能够通过结合多个模型的优点来克服这些问题&#xff0c;从而提…...

【CUDA】ubuntu环境下安装cuda

写在前面 软硬件匹配问题 &#xff1a;如老显卡安装ubuntu24, 会发现适合显卡的cuda不适合ubuntu24, 适合ubuntu24的cuda不适合显卡&#xff0c;因此安装ubuntu系统前&#xff0c;务必查明 &#xff1a;当前设备的显卡支持的cuda&#xff0c;支持哪些ubuntu版本 下面的三个问题…...

进程间通信-信号量

消息队列&#xff08;Message Queue&#xff09;是一种在不同组件或进程间进行异步通信的机制&#xff0c;它允许应用程序以松耦合的方式交换消息。消息队列就像一个缓冲区&#xff0c;发送者将消息放入队列&#xff0c;接收者从队列中取出消息进行处理。以下为你详细介绍消息队…...

Ubuntu 22.04安装MySQL : Qwen2.5 模型对话数据收集与微调教程

在Ubuntu 22.04安装MySQL的教程请点击下方链接进行参考: 点击这里获取MySQL安装教程 今天将为大家带来如何微调Qwen2.5模型并连接数据库进行对话的教程。快跟着小编一起试试吧~ ​ 1 大模型 Qwen2.5 微调步骤 1.1 从 github 仓库 克隆项目 克隆存储库:#拉取代码 git clo…...

L1-8 新年烟花

单位 杭州百腾教育科技有限公司 新年来临&#xff0c;许多地方会举行烟花庆典庆祝。小 C 也想参加庆典&#xff0c;但不幸的是跟他一个想法的人实在太多&#xff0c;活动场地全是人人人人人人人人人…… 活动场地可视作一个 NM 的矩阵&#xff0c;其中有一些格子是空的&#…...

OpenCV中的轮廓检测方法详解

文章目录 引言一、什么是轮廓&#xff1f;二、OpenCV中的轮廓检测基础1. 基本步骤2. findContours函数详解 三、轮廓检索模式四、轮廓近似方法五、轮廓特征分析1. 轮廓面积2. 轮廓周长/弧长3. 轮廓近似&#xff08;多边形拟合&#xff09;4. 凸包5. 边界矩形6. 最小闭合圆7. 拟…...

AIP-231 批量方法:Get

编号231原文链接AIP-231: Batch methods: Get状态批准创建日期2019-06-18更新日期2019-06-18 一些API允许用户获取一组特定资源在一个时间点&#xff08;例如使用读事务&#xff09;的状态。批量获取方法提供了这个功能。 指南 API 可以 按照以下模式支持批量获取&#xff1…...

人工智能基础-matplotlib基础

绘制图形 import numpy as np x np.linspace(0, 10, 100) y np.sin(x) import matplotlib as mpl import matplotlib.pyplot as plt plt.plot(x, y) plt.show()绘制多条曲线 siny y.copy() cosy np.cos(x) plt.plot(x, siny) plt.plot(x, cosy) plt.show()设置线条颜色 …...

qt运行时报段错误

标题&#xff1a; qt运行时报段错误&#xff0c;查看stack&#xff0c;显示&#xff1a; 原因 报错的cpp文件新包含一个头文件&#xff0c;这个头文件里的pack指令有问题&#xff0c;如下: 解决办法 修改为正确的pack指令。...

【Qt】Qt Creator开发基础:项目创建、界面解析与核心概念入门

&#x1f351;个人主页&#xff1a;Jupiter. &#x1f680; 所属专栏&#xff1a;QT 欢迎大家点赞收藏评论&#x1f60a; 目录 Qt Creator 新建项⽬认识 Qt Creator 界⾯项⽬⽂件解析Qt 编程注意事项认识对象模型&#xff08;对象树&#xff09;Qt 窗⼝坐标体系 Qt Creator 新…...

CAP应用

1.工作原理 CAP&#xff08;Consistent&#xff0c;Available&#xff0c;Partition - tolerant&#xff09;框架在.NET 中的工作原理。CAP 是一个用于.NET 的分布式事务解决方案&#xff0c;主要用于实现微服务架构中的数据一致性&#xff08;实现分布式事务的最终一致性&…...

典型操作系统内核架构

在典型操作系统架构&#xff08;如下图所示&#xff09;中&#xff0c;内核负责以安全、公平的方式为多个应用程序管理和共享硬件资源。 内核通过一组 API&#xff08;即系统调用&#xff09;向应用程序提供服务。这些 API 不同于常规库函数&#xff0c;因其是用户模式到内核模…...

AWS Redshift的使用场景及一些常见问题

Redshift 不是关系型数据库, 提供了Amazon Redshift Serverless 和 Amazon Redshift 都是构建于 Redshift 数仓引擎之上的&#xff0c;但它们适用的场景不同。Redshift和Dynamodb都可以存储数据, 分别怎么选择? 这里记录一些常见的问题和场景。 1. 如何选择用Amazon Redshift…...

**searchProperties 是什么,python中**是什么:解包字典的操作符

searchProperties 是什么,python中是什么:解包字典的操作符 在 Python 中,** 是用于解包字典的操作符,**searchProperties 是一个可变关键字参数。它允许函数接受任意数量的关键字参数,这些参数会被收集到一个字典中,字典的键是参数名,值是参数对应的值。 在 ButtonCon…...

.NET MCP 文档

MCP 概述 MCP&#xff08;Model Context Protocol&#xff09;是由 Anthropic 推出的一种开放协议&#xff0c;类似 AI 的 USB-C 扩展坞&#xff0c;用于在大模型和数据源之间建立安全的通信&#xff08;授权&#xff09;&#xff0c;让 AI 应用能够安全地访问和操作本地或远程…...

07软件测试需求分析案例-修改用户信息

修改用户信息是后台管理菜单的一个功能模块&#xff0c;只有admin才有修改权限。包括查询用户名进行显示用户相关信息&#xff0c;并且修改用户相关信息的功能。 1.1 通读文档 通读需求规格说明书是提取信息&#xff0c;提出问题&#xff0c;输出具有逻辑、规则、流程的业务…...

第九届“创客中国”中小企业创新创业大赛总决赛企业组三等奖项目—基于AI智能代码疫苗技术的数字供应链安全解决方案

项目名称&#xff1a;基于AI智能代码疫苗技术的数字供应链安全解决方案 企业名称&#xff1a;北京安普诺信息技术有限公司(悬镜安全&#xff09; 项目简介&#xff1a; ‍‍‍‍‍ 基于AI智能代码疫苗技术的数字供应链安全解决方案&#xff0c;悬镜安全在全球范围内首创…...

企业级RAG行业应用落地方案——阿里云百炼

行业痛点分析 这张图主要围绕“行业痛点锚定”展开&#xff0c;通过雷达图和表格结合的方式&#xff0c;分析电商选品在不同维度下的情况&#xff1a; 分析对象&#xff1a;聚焦电商选品。维度展示&#xff1a;从可结构化程度、重复性、数据可得性、人机互动性、AI带来的价值这…...

Mac切换node版本

Mac切换node版本 1.首先安装n模块&#xff1a; sudo npm install -g n 2.升级node.js到最新稳定版 sudo n stable 3.升级到最新版 sudo n latest 4.n后面也可以跟随版本号,升级到任意版本 sudo n v0.10.26或sudo n 0.10.26 5.切换使用版本 sudo n 7.10.0 6.删除制定版本…...

从零开始学A2A一:A2A 协议概述与核心概念

A2A 协议概述与核心概念 学习目标 基础理解 掌握A2A协议的基本概念和背景理解协议的设计原则和核心思想了解协议在AI领域的重要性 技术掌握 熟悉A2A协议的核心功能组件掌握能力发现和任务管理机制理解多模态交互和安全通信原则 实践应用 能够设计基于A2A的智能体系统掌握协议…...

科普:如何通过ROC曲线,确定二分类的“理论阈值”

在二分类问题中&#xff0c;已知预测概率&#xff08;如逻辑回归、神经网络输出的概率值&#xff09;时&#xff0c;阈值的选择直接影响分类结果&#xff08;正/负样本判定&#xff09;。 一、实践中的阈值选择方法 1. 基于业务目标的调整 最大化准确率&#xff1a;适用于样…...

Cherry Studio + MCP,从0到1保姆教程,3个场景体验

&#x1f4fa; 详细操作以视频方式呈现&#xff0c;视频地址周五会更新出来 &#x1f4af; 鉴于很多观众网络环境受限&#xff0c;文末提供所需安装文件网盘分享 &#x1f4ac; 什么是 MCP &#xff1f; MCP&#xff08;Model Context Protocol&#xff0c;MCP&#xff09;模型…...

Docker学习笔记-docker安装、删除

一、在centOS 7中docker的默认安装目录 # Docker 主配置文件目录 ls /etc/docker# Docker 数据目录&#xff08;镜像、容器、卷等&#xff09; ls /var/lib/docker# Docker 可执行文件路径 which docker # 输出类似 /usr/bin/docker 二、docker文件目录说明 目录/文件用途/…...

visual studio 常用的快捷键(已经熟悉的就不记录了)

以下是 Visual Studio 中最常用的快捷键分类整理&#xff0c;涵盖代码编辑、调试、导航等核心场景&#xff1a; 一、生成与编译 ​生成解决方案 Ctrl Shift B 一键编译整个解决方案&#xff0c;检查编译错误&#xff08;最核心的生成操作&#xff09;​编译当前文件 Ctrl F…...

使用人工智能大模型腾讯元宝,如何做课题研究?

今天我们学习使用人工智能大模型腾讯元宝&#xff0c;如何做课题研究&#xff1f; 手把手学习视频地址&#xff1a;https://edu.csdn.net/learn/40402/666424 在腾讯元宝对话框中输入如何协助老师做课题&#xff08;申报书、开题报告、中期报告、结题报告&#xff09;&#x…...

开源模型应用落地-模型上下文协议(MCP)-第三方MCP Server实战指南(五)

一、前言 在AI技术高速发展的2025年,如何让大语言模型(LLM)更灵活地调用外部工具与数据,成为开发者关注的焦点。​模型上下文协议(MCP)​作为AI与外部资源的“万能接口”,通过标准化交互框架解决了传统集成中的碎片化问题。而第三方MCP Server的引入,进一步降低了开发门…...

python每日一练

题目一 输入10个整数,输出其中不同的数,即如果一个数出现了多次,只输出一次(要求按照每一个不同的数第一次出现的顺序输出)。 解题 错误题解 a list(map(int,input().split())) b [] b.append(a[i]) for i in range(2,11):if a[i] not in b:b.append(a[i]) print(b)但是会…...

跨境贸易之常见的贸易术语

外贸出口中经常会听到FOB、CIF、DDP各种术语&#xff0c;这些都是什么意思呢&#xff1f; 今天我们来介绍一下他们的确切含义。一般来说你听到的这些话语都是表示交货的方式。 如果普通的贸易过程大家一听就明白的&#xff0c;就是货到付款&#xff0c;款到发货&#xff0c;支…...

KingbaseES之KDts迁移SQLServer

项目适配迁移SQLServer至金仓,今天写写KDts-WEB版迁移工具迁移SQLServer至KingbaseES的步骤,以及迁移注意事项. SQLServer版本:SQLServer2012 KingbaseES版本:V009R004C011(SQLServer兼容版) --1.进入数据库客户端工具KDTS工具目录&#xff0c;启动KDts服务&#xff1a; [king…...

Rust编程学习(一): 变量与数据类型

我们先从Rust基本的变量声明定义与数据类型开始学习&#xff0c;了解这门语言基本特性。 1 变量与可变性 变量声明 变量声明以let关键字开头&#xff0c;x为变量名&#xff0c;变量名后紧跟冒号和数据类型,但是rust编译器有自动推导变量类型的功能&#xff0c;可以省略显式的声…...

Java 在人工智能领域的突围:从企业级架构到边缘计算的技术革新

一、Java AI 的底层逻辑&#xff1a;从语言特性到生态重构 在 Python 占据 AI 开发主导地位的当下&#xff0c;Java 正通过技术重构实现突围。作为拥有 30 年企业级开发经验的编程语言&#xff0c;Java 的核心优势在于强类型安全、内存管理能力和分布式系统支持&#xff0c;这…...

[极客大挑战 2019]HardSQL1

打开网页&#xff0c;貌似存在SLQ注入&#xff0c;尝试闭合单引号 才生报错信息&#xff0c;但是尝试联合注入 不出意外应该是被过滤了&#xff0c;没法使用&#xff0c;可以考虑一下报错注入 这里可以使用字典爆破一下&#xff0c;利用页面返回情况&#xff0c;看看哪些关键词…...

深入剖析C++中 String 类的模拟实现

目录 引言 一、基础框架搭建 成员变量与基本构造函数 析构函数 二、拷贝与赋值操作 深拷贝的拷贝构造函数 赋值运算符重载 三、字符串操作功能实现 获取字符串长度 字符串拼接 字符串比较 字符访问 四、迭代器相关实现&#xff08;简单模拟&#xff09; 迭代器类型…...

KWDB创作者计划— KWDB技术范式革命:从数据存储到认知进化的架构跃迁

引言&#xff1a;数据库的认知觉醒 在AIoT设备数量突破万亿、边缘计算节点算力总和超越云端的2025年&#xff0c;传统数据库的"存储-计算"二元结构正面临认知维度缺失的困境。当工业数字孪生需要实时推演百万设备状态&#xff0c;城市大脑需处理多模态时空数据时&…...

【后端开发】Spring配置文件

文章目录 配置文件properties配置文件基本语法读取配置文件 yml配置文件基本语法读取配置文件配置空字符串及null单双引号配置对象配置集合配置Map 优缺点优点缺点 配置文件 硬编码是将数据直接嵌入到程序或其他可执行对象的源代码中&#xff0c;也就是常说的"代码写死&q…...

探讨HMI(人机界面)设计原则,如何通过优秀的设计提升操作效率和用户体验

在物联网与人工智能深度渗透的今天&#xff0c;人机界面&#xff08;Human-Machine Interface, HMI&#xff09;已成为连接数字世界与物理世界的神经末梢。优秀的HMI设计不仅关乎视觉美感&#xff0c;更是认知工程、信息架构与交互范式的协同创新。本文从神经认知科学原理出发&…...

网络7 配置网卡 路由表

我配置了两张网卡&#xff0c;一个是仅主机模式&#xff0c;一个是NAT模式。刚才NAT模式动态配置下&#xff0c;ping百度ping的通&#xff0c;路由表中只显示NAT的网关。我把NAT模式修改为静态IP,路由表中显示仅主机模式的网关和NAT模式的网关&#xff0c;ping百度ping不通了 …...

InnoDB的MVCC实现原理?MVCC如何实现不同事务隔离级别?MVCC优缺点?

概念 InnoDB的MVCC&#xff08;Multi-Version Concurrency Control&#xff09;即多版本并发控制&#xff0c;是一种用于处理并发事务的机制。它通过保存数据在不同时间点的多个版本&#xff0c;让不同事务在同一时刻可以看到不同版本的数据&#xff0c;以此来减少锁竞争&…...

同构应用开发

以下是关于 同构应用(Isomorphic/Universal Application)开发 的系统知识梳理,涵盖核心概念、技术实现、性能优化及工程实践,帮助我们全面掌握这一现代Web开发范式: 一、同构应用核心概念 1. 定义与价值 定义:同一套代码在服务端(Node.js)和客户端(浏览器)运行,实现…...

如何制定有效的风险应对计划

制定有效的风险应对计划的核心在于&#xff1a; 识别潜在风险、评估风险的影响与概率、选择合适的应对策略、建立动态监控和反馈机制。 其中&#xff0c;识别潜在风险是最为关键的第一步。只有准确识别出可能的风险&#xff0c;才能在后续的评估、应对、监控等环节中做到有的放…...

使用wpa_cli和wpa_supplicant配置Liunx开发板的wlan0无线网

目录 1 简单介绍下wpa_cli和wpa_supplicant 1.1 wpa_supplicant 简介 1.2 wpa_cli 简介 1.3 它们之间的关系 2 启动wpa_supplicant 3 使用rz工具把wpa_cli命令上传到开发板 4 用wpa_cli配置网络 参考文献&#xff1a; 1 简单介绍下wpa_cli和wpa_supplicant 1.1 wpa_su…...

深度学习模型的概述与应用

&#x1f4cc; 友情提示&#xff1a; 本文内容由银河易创AI&#xff08;https://ai.eaigx.com&#xff09;创作平台的gpt-4-turbo模型生成&#xff0c;旨在提供技术参考与灵感启发。文中观点或代码示例需结合实际情况验证&#xff0c;建议读者通过官方文档或实践进一步确认其准…...

基于Ubuntu系统搭建51单片机开发环境的详细教程

一、环境搭建 1. 安装SDCC编译器 SDCC&#xff08;Small Device C Compiler&#xff09;是Linux下常用的开源51单片机编译器&#xff0c;支持多种芯片架构。 安装命令&#xff1a; sudo apt update sudo apt install sdcc 验证安装&#xff1a;输入 sdcc -v&#xff0c;若显…...