当前位置: 首页 > news >正文

模型I/O功能之模型包装器

文章目录

    • 模型包装器分类
    • LLM模型包装器、
    • 聊天模型包装器

    截至2023年7月,LangChain支持的大语言模型已经超过了50种,这其中包括了来自OpenAI、Meta、Google等顶尖科技公司的大语言模型,以及各类优秀的开源大语言模型。对于这些大语言模型,LangChain都提供了模型包装器以实现交互。

    随着大语言模型的发展,LangChain的模型包装器组件也在不断升级,以适应各个大模型平台的API变化。2023年,OpenAI发布了GPT-3.5-Turbo模型,并且在他们的平台上增加了一个全新类型的API,即Chat类型API。这种API更适合用于聊天场景和复杂的应用场景,例如多轮对话。截至2023年8月,最新的GPT-4模型和Anthropic的Claude2模型都采用了Chat类型API。这种API也正在成为模型平台API的发展趋势。如果不使用这种API,将无法利用最强大的GPT-4模型,也无法生成接近“人类标准”的自然语言对话文本。因此,选择适合自己应用需求的API,以及配套的LangChain模型包装器组件,是在使用大语言模型进行开发时必须考虑的重要因素。

模型包装器分类

    LangChain的模型包装器组件是基于各个模型平台的API协议进行开发的,主要提供了两种类型的包装器。一种是通用的LLM模型包装器,另一种是专门针对Chat类型API的Chat Model(聊天模型包装器)。

    如下图所示,以OpenAI平台的两种类型API为例,如果使用text-davinci-003模型,则导人的是OpenAI的LLM模型包装器(图第①步),而使用GPT-4模型则需要导人ChatOpenAI的聊天模型包装器(图第②步)。选择的模型包装器不同,获得的模型响应也不同。选择LLM模型包装器获得的响应是字符串(图第③步),选择聊天模型包装器,它接收一系列的消息作为输人,并返回一个消息类型作为输出,获得的响应是AIMessage消息数据(图第④步)。

    LangChain的模型包装器组件提供了一种方便的方式来使用各种类型的大语言模型,无论是通用的LLM模型包装器,还是专门针对聊天场景的聊天模型包装器,都能让开发者更高效地利用大语言模型的能力。

图片名称

    LLM模型包装器是一种专门用于与大语言模型文本补全类型API交互的组件。这种类型的大语言模型主要用于接收一个字符串作为输人,然后返回一个补全的字符串作为输出。比如,你可以输人一个英文句子的一部分,然后让模型生成句子的剩余部分。这种类型的模型非常适合用于自动写作、编写代码、生成创意内容等任务。

    例如你想使用OpenAI的text-davinci-O03模型,你可以选择使用OpenAI模型包装器,示例如下:

from langchain.llms import OpenAI
openai =OpenAI (model name="text-davinci-003")

    代码中的openai是OpenAI类的一个实例,它继承了OpenAI类的所有属性和方法,你可以使用这个openai对象来调用OpenAI的text-davinci–O03模型,导人的OpenAI类即LangChain的模型包装器,专门用于处理OpenAI公司的Completion类型API。2023年,LangChain已经实现了50种不同大语言模型的Completion类型API的包装器,包括OpenAI、Llama.cpp、Cohere、Anthropic等。也就是说,开发者无须关注这50个模型平台的底层API是如何调用的,LangChain已经包装好了调用方式,开发者可以“即插即用”。

    通过LangChain.llms获取的所有对象都是大语言模型的包装器,这些对象称为LLM模型包装器。所有的LLM模型包装器都是BaseLLM的子类,它们继承了BaseLLM的所有属性和方法,并根据需要添加或覆盖一些自己的方法。这些包装器封装了各平台上的大语言模型的功能,使得开发者可以以面向对象的方式使用这些大语言模型的功能,而无须与各个模型平台的底层API进行交互。

    需要注意的是,OpenAI的Text Completion类型API在2023年7月进行了最后一次更新,该API现在只能用于访问较旧的历史遗留模型,如2020一2022年的模型text-davinci-O03、text-davinci-O02、Davinci、Curie、Babbage、Ada等。OpenAI的Text Completion类型API与新的Chat Completion类型API(以下简称Chat类型API”)不同。Text Completion类型API使得开发者可以直接提供一段具有特定上下文的文本,然后让模型在这个上下文的基础上生成相应的输出。尽管这种方式在某些场景下可能会更方便,比如翻译和写文案的场景,但在需要模拟对话或者复杂交互的情况下,OpenAI平台建议使用Chat类型API。

    相比之下,如果要使用OpenAI的最新模型,如2023年以后的模型GPT-4和GPT-3.5-Tubo,那么你需要通过Chat类型API进行访问。这意味着,如果你想充分利用OpenAI最新的技术,就需要将应用程序或服务从使用Text Completion类型API迁移到使用Chat类型API上。LangChain创建了聊天模型包装器组件,适配了模型平台的Chat类型API。

    通过LangChain.chat models获取的所有对象都是聊天模型包装器。聊天模型包装器是一种专门用于与大语言模型的Chat类型API交互的包装器组件。设计这类包装器主要是为了适配GPT-4等先进的聊天模型,这类模型非常适合用于构建能与人进行自然语言交流的多轮对话应用,比如客服机器人、语音助手等。它接收一系列的消息作为输人,并返回一个消息作为输出。

    2023年7月,LangChain已经实现了6个针对不同模型平台的聊天模型包装器:

  1. ChatOpenAI:用于包装OpenAI Chat大语言模型(如GPT-4和GPT-3.5-Turbo);
  2. AzureChatOpenAI:用于包装Azure平台上的OpenAI模型;
  3. PromptLayerChatOpenAI:用于包装PromptLayer平台上的OpenAI模型;
  4. ChatAnthropic:用于包装Anthropic平台上的大语言模型;
  5. ChatGooglePalm:用于包装Google Palm平台上的大语言模型;
  6. Chat VertexAI:用于包装Vertex AI平台上的大语言模型,Vertex AI的PaLM API中包含了Google的Pathways Language Model2(PaLM2)的发布端点。

    聊天模型包装器都是BaseChatModel的子类,继承了BaseChatModel的所有属性和方法,并根据需要添加或覆盖一些自己的方法。例如,如果你想使用最先进的GPT-4模型,那么可以选择使用ChatOpenAI模型包装器,示例如下:from langchain.chat models import ChatOpenAI11m ChatopenAI(temperature=0,model name=“gpt-4”)在上述代码中,llm是ChatOpenAI类的一个实例,你可以使用这个llm对象来调用GPT-4模型的功能。LLM模型包装器和聊天模型包装器,都是LangChain对各个大语言模型底层API的封装,开发者无须关注各个模型平台底层API的实现方式,只需要关注模型输人什么,以及输出什么。

    在LangChain的官网文档中,凡是涉及模型输人、输出的链Chain)和代理(Agent)的示例代码,都会提供两份。一份是使用LLM模型包装器的,一份是使用聊天模型包装器的,这是因为两者之间存在着细微但是很重要的区别。

  1. 输入的区别对于LLM模型包装器,其输入通常是单一的字符串提示词(prompt)。例如,你可以输人"Translate the following English text to French:‘{text}",然后模型会生成对应的法文翻译。另外,LLM模型包装器主要用于文本任务,例如给定一个提示“今天的天气如何?”模型会生成一个相应的答案“今天的天气很好。”聊天模型包装器,其输人则是一系列的聊天消息。通常这些消息都带有发言人的标签(比如系统、AI和人类)。每条消息都有一个role(角色)和content(内容)。例如,你可以输人[{“role”:“user”,"content’“:Translate the following English text toFrench::”{text"}】,模型会返回对应的法文翻译,但是返回内容包含在AIMessage(…)内。
  2. 输出的区别对于LLM模型包装器,其输出是一个字符串,这个字符串是模型对提示词的补全。而聊天模型包装器的输出是一则聊天消息,是模型对输入消息的响应。虽然LLM模型包装器和聊天模型包装器在处理输人和输出的方式上有所不同,但是为了使它们可以混合使用,它们都实现了基础模型接口。这个接口公开了两个常见的方法:predict(接收一个字符串并返回一个字符串)和predict messages(接收一则消息并返回一则消息)。这样,无论你是使用特定的模型,还是创建一个应该匹配其他类型模型的应用,都可以通过这个共享接口来进行操作。

    之所以要区分这两种类型,主要是因为它们处理输人和输出的方式不同,且各自适用的场景不同。通过这种方式,开发者可以更好地利用不同类型的大语言模型,提高模型的适用性和灵活性。在LangChain的发展迭代过程中,每个模块调用模型I/O功能都提供了LLM模型包装器和聊天模型包装器两种代码编写方式。因为OpenAI平台的底层API发生了迭代,LangChain为了不增加开发者的代码修改量,更好地适配新的大语言模型发展要求,做了类型划分。这种划分已经形成了技术趋势,同时也为学习LangChain提供了线索。

    如果你使用的是LangChain的Ilms模块导出的对象,则这些对象是LLM模型包装器,主要用于处理自由形式的文本。输人的是一段或多段自由形式文本,输出的则是模型生成的新文本。这些输出文本可能是对输人文本的回答、延续或其他形式的响应。相比之下,如果你使用的是LangChain的chat models模块导出的对象,则这些对象是专门用来处理对话消息的。输人的是一个对话消息列表,每条消息都由角色和内容组成。这样的输入给了大语言模型一定的上下文环境,可以提高输出的质量。输出的也是一个消息类型,这些消息是对连续对话内容的响应。

    当看到一个类的名字内包含“Chat”时,比如ChatAgent,那么就表示要给模型输入的是消,息类型的信息,也可以预测ChatAgent输出的是消息类型。

LLM模型包装器、

    LLM模型包装器是LangChain的核心组件之一。LangChain不提供自己的大语言模型,而是提供与许多不同的模型平台进行交互的标准接口。下面通过示例演示如何使用LLM模型包装器。示例代码使用的LLM模型包装器是OpenAI提供的模型包装器,封装了OpenAI平台的接口,导人方式和实例化方法对于所有LLM模型包装器都是通用的。

    首先,安装OpenAI Python包:pip install openai LangChain然后导人OpenAI模型包装器并设置好密钥:

from langchain.11ms import OpenAI
OpenAI.openai_api_key="填人你的密钥"

    使用LLM模型包装器最简单的方法是,输人一个字符串,输出一个字符串:
    #运行一个最基本的LLM模型包装器,由模型平台OpenAI提供文本生成能力

llm =OpenAI()
llm("Tell me a joke")

    运行结果如下:'Why did the chicken cross the road?\n\nTo get to the other side.'说明:这里的运行结果是随机的,不是固定的。

聊天模型包装器

    当前最大的应用场景便是“Chat”(聊天),比如模型平台OpenAI最热门的应用是ChatGPT。为了紧跟用户需求,LangChain推出了专门用于聊天场景的聊天模型包装器(Chat Model),以便能与各种模型平台的Chat类型API进行交互。聊天模型包装器以聊天消息作为输人和输出的接口,输入不是单个字符串,而是聊天消息列表。下面通过示例演示输人聊天消息列表的聊天模型包装器如何运行,以及与3.2.2节介绍的LLM模型包装器在使用上有什么区别。

    首先安装OpenAI Python包:pip install openai LangChain然后设置密钥:

import os
os.environ['OPENAI API KEY'='填人你的密钥'

    为了使用聊天模型包装器,这里将导人3个数据模式(schema):一个由AI生成的消息数据模式(AIMessage)、一个人类用户输人的消息数据模式(HumanMessage)、一个系统消息数据模式(SystemMessage)。这些数据模式通常用于设置聊天环境或提供上下文信息。然后导入聊天模型包装器ChatOpenAI,这个模型包装器封装了OpenAI平台Chat类型的API,无须关注OpenAI平台的接口如何调用,只需要关注向这个ChatOpenAI中输人的内容:

from langchain.schema import(AIMessage,HumanMessage,SystemMessage)
from langchain.chat models import ChatopenAI

    向ChatOpenAI聊天模型包装器输入的内容必须是一个消息列表。消息列表的数据模式需要符合AIMessage、HumanMessage和SystemMessage这3种数据模式的要求。这样设计的目的是提供一种标准和一致的方式来表示和序列化输入消息。序列化是将数据结构转换为可以存储或传输的数据模式的过程。在ChatOpenAI中,序列化是指将消息对象转换为可以通过API发送的数据。这样,接收消息的一方(OpenAI平台的服务器)就能知道如何正确地解析和处理每则消息了。

    在本示例中,SystemMessage是指在使用大语言模型时用于配置系统的系统消息,HumanMessage是指用户消息。下面将SystemMessage和HumanMessage组合成一个聊天消息列表,输入模型。这里使用的模型是GPT-3.5-Tubo。如果你有GPT-4,也可以使用GPT-4。

chat ChatopenAI (model name="gpt-3.5-turbo",temperature=0.3)
messages =[SystemMessage(content="你是个取名大师,你擅长为创业公司取名字")HumanMessage(content="帮我给新公司取个名字,要包含AI")]
response=chat(messages)
print (response.content,end='\n')

    创建一个消息列表messages,这个列表中包含了一系列SystemMessage和HumanMessage对象。每个消息对象都有一个content属性,用于存储实际的消息内容。例如,在上面的示例代码中,系统消息的内容是“你是个取名大师,你擅长为创业公司取名字”,用户消息的内容是“帮我给新公司取个名字,要包含A”。

    当你调用chat(messages)时,ChatOpenAI对象会接收这个消息列表,然后按照AIMessage、HumanMessage和SystemMessage这3种数据模式将其序列化并发送到OpenAI平台的服务器上。服务器会处理这些消息,生成AI的回应,然后将这个回应发送回ChatOpenAI聊天模型包装器。聊天模型包装器接收回应,回应是一个AIMessage对象,你可以通过response.content方法获取它的内容。
    包含“AI”的创业公司名称的建议:

  1. AIgenius
  2. AItech
  3. AIvision
  4. AIpros
  5. AIlink
  6. AIsense
  7. AIsolutions
  8. AIwave
  9. AInova
  10. AIboost

    希望这些名称能够给你一些启发!

    相比于LLM模型包装器,聊天模型包装器在使用过程中确实更显复杂一些。主要是因为,聊天模型包装器需要先导人3种数据模式,并且需要组合一个消息列表messages,最后从响应对象中解析出需要的结果。而LLM模型包装器则简单许多,只需要输人一个字符串就能直接得到一个字符串结果。

    为什么聊天模型包装器会设计得如此复杂呢?这其实是因为各个模型平台的Chat类型API接收的数据模式不统一。为了能够正确地与这些API进行交互,必须定义各种消息的数据模式,满足各个模型平台Chat类型API的所需,以获取期望的聊天消息结果。如果不使用统一的数据模式,每次向不同的模型平台提交输入时,都需要对输入进行单独的处理,这无疑会增加开发工作量。而且,如果不进行类型检查,那么一旦出现类型错误,可能会在代码运行时才发现,进而导致程序崩溃,或者产生不符合预期的结果。

    尽管聊天模型包装器在使用过程中的复杂性较高,但这种复杂性是有价值的。通过前置对数据模式的处理,可以简化和统一数据处理流程,减小出错的可能性。这样,开发者在使用大语言模型时,可以将更多的注意力放在业务逻辑的开发上,而不必被各种复杂的数据处理和错误处理所困扰。这种设计理念也可以让开发者不必为各模型平台的API调用方式不同而烦恼,可以更快速地集成和使用这些强大的大语言模型。

    聊天模型包装器的设计目标是处理复杂的对话场景,它需要处理的输人是一个聊天消息列表,支持多轮对话。这个列表中的每一则消息都包含了消息角色(AI或用户)和消息内容,它们合在一起构成了一个完整的对话上下文。这种输人方式非常适合处理那些需要引入历史对话内容以便生成带有对话上下文的响应的任务。LLM模型包装器的设计目标是处理那些只需要单一输入就可以完成的任务,如文本翻泽、文本分类等。因此,它只需要一个字符串作为输入,不需要复杂的消息列表和对话上下文。这种简洁的输入方式使得LLM模型包装器在处理一些简单的任务时更加便捷。

相关文章:

模型I/O功能之模型包装器

文章目录 模型包装器分类LLM模型包装器、聊天模型包装器 截至2023年7月,LangChain支持的大语言模型已经超过了50种,这其中包括了来自OpenAI、Meta、Google等顶尖科技公司的大语言模型,以及各类优秀的开源大语言模型。对于这些大语言模型&…...

免杀国内主流杀软的恶意样本分析

目录下存在愤怒的小鸟.exe和fun.dll文件,最新版火绒,windows defender,腾讯电脑管家,360静态扫描都未发现恶意程序 动态执行,杀软也未拦截 上传到virustotal网站分析恶意程序,只有三个引擎检测出来 die分析…...

Cloudreve:Star22.3k,免费开源的网盘,支持多种存储方式,它允许用户快速搭建个人或团队的私有云存储服务。

嗨,大家好,我是小华同学,关注我们获得“最新、最全、最优质”开源项目和高效工作学习方法 Cloudreve是一个基于Web的文件管理和分享系统,它允许用户快速搭建个人或团队的私有云存储服务。该项目以其高度的可定制性和灵活性&#x…...

【高内聚】设计模式是如何让软件更好做到高内聚的?

高内聚(High Cohesion)是指模块内部的元素紧密协作,共同完成一个明确且相对独立的功能。就像高效的小团队,成员们目标一致,相互配合默契。 低耦合(Loose Coupling)是指模块之间的依赖较少&#…...

第一个3D程序!

运行效果 CPP #include <iostream> #include <fstream> #include <string> #include <cmath>#include <GL/glew.h> #include <GLFW/glfw3.h> #include <glm/glm.hpp> #include <glm/gtc/type_ptr.hpp> #include <glm/gtc/…...

基础项目实战——学生管理系统(c++)

目录 前言一、功能菜单界面二、类与结构体的实现三、录入学生信息四、删除学生信息五、更改学生信息六、查找学生信息七、统计学生人数八、保存学生信息九、读取学生信息十、打印所有学生信息十一、退出系统十二、文件拆分结语 前言 这一期我们来一起学习我们在大学做过的课程…...

【PyTorch】6.张量形状操作:在深度学习的 “魔方” 里,玩转张量形状

目录 1. reshape 函数的用法 2. transpose 和 permute 函数的使用 4. squeeze 和 unsqueeze 函数的用法 5. 小节 个人主页&#xff1a;Icomi 专栏地址&#xff1a;PyTorch入门 在深度学习蓬勃发展的当下&#xff0c;PyTorch 是不可或缺的工具。它作为强大的深度学习框架&am…...

OpenEuler学习笔记(十六):搭建postgresql高可用数据库环境

以下是在OpenEuler系统上搭建PostgreSQL高可用数据环境的一般步骤&#xff0c;通常可以使用流复制&#xff08;Streaming Replication&#xff09;或基于Patroni等工具来实现高可用&#xff0c;以下以流复制为例&#xff1a; 安装PostgreSQL 配置软件源&#xff1a;可以使用O…...

记录一次Sqoop从MySQL导入数据到Hive问题的排查经过

个人博客地址:记录一次Sqoop从MySQL导入数据到Hive问题的排查经过 | 一张假钞的真实世界 问题描述 MySQL中原始数据有790W+的记录数,在Sqoop抽取作业成功的情况下在Hive中只有500W左右的记录数。 排查过程 数据导入脚本Log 通过Log可以发现以下信息: 该Sqoop任务被分解…...

什么是集成学习

什么是集成学习 集成学习是一种分布式机器学习框架&#xff0c;通过构建多个学习器并将其结合起来完成学习任务。由于在实际应用中单一的学习器往往不能达到理想的学习效果&#xff0c;且有时单一学习器会导致过拟合&#xff0c;因此使用多个学习器进行集成学习往往能够达到更好…...

VSCode+Continue实现AI辅助编程

Continue是一款功能强大的AI辅助编程插件&#xff0c;可连接多种大模型&#xff0c;支持代码设计优化、错误修正、自动补全、注释编写等功能&#xff0c;助力开发人员提高工作效率与代码质量。以下是其安装和使用方法&#xff1a; 一、安装VSCode 参见&#xff1a; vscode安…...

Springboot如何使用面向切面编程AOP?

Springboot如何使用面向切面编程AOP? 在 Spring Boot 中使用面向切面编程&#xff08;AOP&#xff09;非常简单&#xff0c;Spring Boot 提供了对 AOP 的自动配置支持。以下是详细的步骤和示例&#xff0c;帮助你快速上手 Spring Boot 中的 AOP。 1. 添加依赖 首先&#xff…...

ThreadLocal源码解析

文章目录 一、概述二、get()方法三、set()方法四、可能导致的内存泄漏问题五、remove六、思考&#xff1a;为什么要将ThreadLocalMap的value设置为强引用&#xff1f; 一、概述 ThreadLocal是线程私有的&#xff0c;独立初始化的变量副本。存放在和线程进行绑定的ThreadLocalMa…...

Maven的单元测试

1. 单元测试的基本概念 单元测试&#xff08;Unit Testing&#xff09; 是一种软件测试方法&#xff0c;专注于测试程序中的最小可测试单元——通常是单个类或方法。通过单元测试&#xff0c;可以确保每个模块按预期工作&#xff0c;从而提高代码的质量和可靠性。 2.安装和配…...

深度学习 Pytorch 深层神经网络

在之前已经学习了三种单层神经网络&#xff0c;分别为实现线性方程的回归网络&#xff0c;实现二分类的逻辑回归&#xff08;二分类网络&#xff09;&#xff0c;以及实现多分类的softmax回归&#xff08;多分类网络&#xff09;。从本节开始&#xff0c;我们将从单层神经网络展…...

【python】三帧差法实现运动目标检测

三帧差法是一种常用的运动目标检测方法&#xff0c;它通过比较连续三帧图像之间的差异来检测运动物体。这种方法尤其适用于背景变化较小的场景。 目录 1 方案 2 实践 ① 代码 ② 效果图 1 方案 具体步骤如下&#xff1a; ① 读取视频流&#xff1a;使用cv2.VideoCapture()…...

机器人抓取与操作经典规划算法(深蓝)——2

1 经典规划算法 位姿估计&#xff1a;&#xff08;1&#xff09;相机系位姿 &#xff08;2&#xff09;机器人系位姿 抓取位姿&#xff1a;&#xff08;1&#xff09;抓取位姿计算 &#xff08;2&#xff09;抓取评估和优化 路径规划&#xff1a;&#xff08;1&#xff09;笛卡…...

WGCLOUD服务器资源监控软件使用笔记 - Token is error是什么错误

[wgcloud-agent]2025/01/30 10:41:30 WgcloudAgent.go:90: 主机监控信息上报server开始 [wgcloud-agent]2025/01/30 10:41:30 WgcloudAgent.go:99: 主机监控信息上报server返回信息: {"result":"Token is error"} 这个错误是因为agent配置的wgToken和serv…...

在排序数组中查找元素的第一个和最后一个位置(力扣)

一.题目介绍 二.题目解析 使用二分进行查找 2.1处理边界情况 如果数组为空&#xff0c;直接返回 [-1, -1]&#xff0c;因为无法找到目标值。 int[] ret new int[2]; ret[0] ret[1] -1; if (nums.length 0) return ret; 2.2查找左端点&#xff08;目标值开始位置&#…...

Kafka的消息协议

引言 在学习MQTT消息协议的时候我常常思考kafka的消息协议是什么&#xff0c;怎么保证消息的可靠性和高性能传输的&#xff0c;接下来我们一同探究一下 Kafka 在不同的使用场景和组件交互中用到了多种协议&#xff0c;以下为你详细介绍&#xff1a; 内部通信协议 Kafka 使用…...

Vue 3 30天精进之旅:Day 09 - 组合式API

在Vue 3中&#xff0c;组合式API&#xff08;Composition API&#xff09;是一个引入的新特性&#xff0c;它为开发者提供了一种更灵活的方式来构建和组织组件。与传统的选项API相比&#xff0c;组合式API更注重逻辑的复用和逻辑的组合&#xff0c;让我们更容易处理大型应用中的…...

Day28(补)-【AI思考】-AI会不会考虑自己的需求?

文章目录 AI会不会考虑自己的需求&#xff1f;一、**技术本质&#xff1a;深度≠理解**二、**传播机制&#xff1a;热搜如何制造幻觉**三、**伦理考量&#xff1a;为何必须"撇清"**关键结论 AI会不会考虑自己的需求&#xff1f; 让思想碎片重焕生机的灵魂&#xff1a…...

JavaScript 进阶(下)

原型 what 首先&#xff0c;构造函数通过原型分配的函数是所有对象所 共享的。 然后&#xff0c;JavaScript 规定&#xff0c;每一个构造函数都有一个 prototype 属性&#xff0c;指向另一个对象&#xff0c;所以我们也称为原型对象 这个对象可以挂载函数&#xff0c;对象实…...

selenium自动化测试框架——面试题整理

目录 1. 什么是 Selenium&#xff1f;它的工作原理是什么&#xff1f; 2. Selenium 主要组件 3. 常见 WebDriver 驱动 4. Selenium 如何驱动浏览器&#xff1f; 5. WebDriver 协议是什么&#xff1f; 6. Page Object 模式与 Page Factory 7. 如何判断元素是否可见&#x…...

CF1098F Ж-function

【题意】 给你一个字符串 s s s&#xff0c;每次询问给你 l , r l, r l,r&#xff0c;让你输出 s s s l , r sss_{l,r} sssl,r​中 ∑ i 1 r − l 1 L C P ( s s i , s s 1 ) \sum_{i1}^{r-l1}LCP(ss_i,ss_1) ∑i1r−l1​LCP(ssi​,ss1​)。 【思路】 和前一道题一样&#…...

数据库备份、主从、集群等配置

数据库备份、主从、集群等配置 1 MySQL1.1 docker安装MySQL1.2 主从复制1.2.1 主节点配置1.2.2 从节点配置1.2.3 创建用于主从同步的用户1.2.4 开启主从同步1.2.4 主从同步验证 1.3 主从切换1.3.1 主节点设置只读&#xff08;在192.168.1.151上操作&#xff09;1.3.2 检查主从数…...

电脑要使用cuda需要进行什么配置

在电脑上使用CUDA&#xff08;NVIDIA的并行计算平台和API&#xff09;&#xff0c;需要进行以下配置和准备&#xff1a; 1. 检查NVIDIA显卡支持 确保你的电脑拥有支持CUDA的NVIDIA显卡。 可以在NVIDIA官方CUDA支持显卡列表中查看显卡型号是否支持CUDA。 2. 安装NVIDIA显卡驱动…...

【Unity3D】实现横版2D游戏——攀爬绳索(简易版)

目录 GeneRope.cs 场景绳索生成类 HeroColliderController.cs 控制角色与单向平台是否忽略碰撞 HeroClampController.cs 控制角色攀爬 OnTriggerEnter2D方法 OnTriggerStay2D方法 OnTriggerExit2D方法 Update方法 开始攀爬 结束攀爬 Sensor_HeroKnight.cs 角色触发器…...

JS 时间格式大全(含大量示例)

在 JS 中&#xff0c;处理时间和日期是常见的需求。无论是展示当前时间、格式化日期字符串&#xff0c;还是进行时间计算&#xff0c;JavaScript 都提供了丰富的 API 来满足这些需求。本文将详细介绍如何使用 JavaScript 生成各种时间格式&#xff0c;从基础到高级&#xff0c;…...

opencv裁剪视频区域

import cv2 # 打开视频文件 video_path input.mp4 cap cv2.VideoCapture(video_path) # 获取视频的帧率、宽度和高度 fps int(cap.get(cv2.CAP_PROP_FPS)) width int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 定义裁剪区…...

C++ deque(1)

1.deque介绍 deque的扩容不像vector那样麻烦 直接新开一个buffer 不用重新开空间再把数据全部移过去 deque本质上是一个指针数组和vector<vector>不一样&#xff0c;vector<vector>本质上是一个vector对象数组&#xff01;并且vector<vector>的buffer是不一…...

MapReduce概述

目录 1. MapReduce概述2. MapReduce的功能2.1 数据划分和计算任务调度2.2 数据/代码互定位2.3 系统优化2.4 出错检测和恢复 3. MapReduce处理流程4. MapReduce编程基础参考 1. MapReduce概述 MapReduce是面向大数据并行处理的计算模型、框架和平台:   1. 基于集群的高性能并行…...

DOM操作中childNodes与children的差异及封装方案

引言 在JavaScript的DOM操作中&#xff0c;childNodes和children是开发者常用的属性&#xff0c;但它们在浏览器中的行为差异可能导致兼容性问题。尤其是在处理空白符&#xff08;如换行符\n&#xff09;时&#xff0c;某些浏览器&#xff08;如Chrome和Edge&#xff09;会将空…...

在线课堂小程序设计与实现(LW+源码+讲解)

专注于大学生项目实战开发,讲解,毕业答疑辅导&#xff0c;欢迎高校老师/同行前辈交流合作✌。 技术范围&#xff1a;SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容&#xff1a;…...

分布式系统架构怎么搭建?

分布式系统架构 互联网企业的业务飞速发展&#xff0c;促使系统架构不断变化。总体来说&#xff0c;系统架构大致经历了单体应用架构—垂直应用架构—分布式架构—SOA架构—微服务架构的演变&#xff0c;很多互联网企业的系统架构已经向服务化网格&#xff08;Service Mesh&am…...

大模型知识蒸馏技术(2)——蒸馏技术发展简史

版权声明 本文原创作者:谷哥的小弟作者博客地址:http://blog.csdn.net/lfdfhl2006年模型压缩研究 知识蒸馏的早期思想可以追溯到2006年,当时Geoffrey Hinton等人在模型压缩领域进行了开创性研究。尽管当时深度学习尚未像今天这样广泛普及,但Hinton的研究已经为知识迁移和模…...

C++初阶 -- 泛型编程(函数模板、类模板)入门

目录 一、泛型编程 1.1 介绍 二、函数模板 2.1 函数模板的概念 2.2 函数模板的格式 2.3 函数模板的原理 2.4 函数模板的实例化 2.4.1 隐式实例化 2.4.2 显式实例化 2.5 模板参数的匹配原则 三、类模板 3.1 类模板的使用格式 3.2 类模板的实例化 一、泛型编程 在有…...

[EAI-027] RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation

Paper Card 论文标题&#xff1a;RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation 论文作者&#xff1a;Songming Liu, Lingxuan Wu, Bangguo Li, Hengkai Tan, Huayu Chen, Zhengyi Wang, Ke Xu, Hang Su, Jun Zhu 论文链接&#xff1a;https://arxiv.org/ab…...

MongoDB常见的运维工具总结介绍

MongoDB 提供了一些强大的运维工具&#xff0c;帮助管理员进行数据库监控、备份、恢复、性能优化等操作。以下是一些常见的 MongoDB 运维工具及其功能介绍&#xff1a; 1. MongoDB Atlas 功能&#xff1a;MongoDB Atlas 是 MongoDB 官方的云托管数据库服务&#xff0c;它提供…...

dify实现原理分析-rag-数据检索的实现

数据检索的总体执行步骤 数据检索总体步骤如下&#xff1a; #mermaid-svg-YCRNdSE7T1d0Etyj {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-YCRNdSE7T1d0Etyj .error-icon{fill:#552222;}#mermaid-svg-YCRNdSE7T1d…...

20个整流电路及仿真实验汇总

0、 前言 以下是关于“20个整流电路及仿真实验汇总”的前言部分: 在现代电力电子技术领域,整流电路作为将交流电(AC)转换为直流电(DC)的关键电路,广泛应用于各类电源设计、信号处理以及电力电子设备中。整流电路不仅能够为电子设备提供稳定的直流电源,还在电力传输、…...

CVE-2020-0796永恒之蓝2.0(漏洞复现)

目录 前言 产生原因 影响范围 漏洞复现 复现环境 复现步骤 防御措施 总结 前言 在网络安全的战场上&#xff0c;漏洞一直是攻防双方关注的焦点。CVE-2020-0796&#xff0c;这个被称为 “永恒之蓝 2.0” 的漏洞&#xff0c;一度引起了广泛的关注与担忧。它究竟是怎样的…...

爬虫基础(一)HTTP协议 :请求与响应

前言 爬虫需要基础知识&#xff0c;HTTP协议只是个开始&#xff0c;除此之外还有很多&#xff0c;我们慢慢来记录。 今天的HTTP协议&#xff0c;会有助于我们更好的了解网络。 一、什么是HTTP协议 &#xff08;1&#xff09;定义 HTTP&#xff08;超文本传输协议&#xff…...

拼车(1094)

1094. 拼车 - 力扣&#xff08;LeetCode&#xff09; 解法&#xff1a; class Solution { public:bool carPooling(vector<vector<int>>& trips, int capacity) {uint32_t passenger_cnt 0;//将原数据按照from排序auto func_0 [](vector<int> & …...

Ubuntu全面卸载mysql

如果你已经看到whereis mysql输出了与MySQL相关的路径&#xff0c;说明MySQL仍然存在于系统中。要卸载MySQL&#xff0c;可以按照以下步骤操作&#xff0c;确保完全删除所有相关的文件和配置&#xff1a; 1. 停止MySQL服务 首先&#xff0c;停止MySQL服务&#xff1a; sudo …...

@Inject @Qualifier @Named

Inject Qualifier Named 在依赖注入&#xff08;DI&#xff09;中&#xff0c;Inject、Qualifier 和 Named 是用于管理对象创建和绑定的关键注解。以下是它们的用途、依赖配置和代码示例的详细说明&#xff1a; 1. 注解的作用 Inject&#xff1a;标记需要注入的构造函数、字段…...

OpenHarmonyOS 3.2 编译生成的hap和app文件的名称如何配置追加版本号?

找了一圈发现官方的文档都是最新的&#xff0c;3.2很多API都不支持&#xff0c;比如获取OhosAppContext&#xff0c;通过OhosAppContext来获取应用版本号&#xff0c;最终是通过读取app.json5的文件内容来读取版本号&#xff0c;最终修改entry下的hvigorfile.ts如下&#xff0c…...

初始化mysql报错cannot open shared object file: No such file or directory

报错展示 我在初始化msyql的时候报错&#xff1a;mysqld: error while loading shared libraries: libaio.so.1: cannot open shared object file: No such file or directory 解读&#xff1a; libaio包的作用是为了支持同步I/O。对于数据库之类的系统特别重要&#xff0c;因此…...

Vue.js组件开发-实现全屏背景图片滑动切换特效

使用 Vue 实现全屏背景图片滑动切换特效的详细步骤、代码、注释和使用说明。 步骤 创建 Vue 项目&#xff1a;使用 Vue CLI 创建一个新的 Vue 项目。准备图片资源&#xff1a;准备好要用于背景切换的图片&#xff0c;并将它们放在项目的合适目录下。编写 HTML 结构&#xff1…...

AI在自动化测试中的伦理挑战

在软件测试领域&#xff0c;人工智能&#xff08;AI&#xff09;已经不再是遥不可及的未来技术&#xff0c;而是正在深刻影响着测试过程的现实力量。尤其是在自动化测试领域&#xff0c;AI通过加速测试脚本生成、自动化缺陷检测、测试数据生成等功能&#xff0c;极大提升了测试…...