当前位置: 首页 > news >正文

【Spark集成HBase】Spark读写HBase表

Spark读写HBase表

  • 摘要
  • 一、实验环境准备
    • 1. 技术版本
    • 2. Maven 依赖配置
  • 二、实验步骤
    • 1. 数据准备
    • 2. HBase 表结构设计
    • 3. 代码实现
      • 3.1 数据写入 HBase(`writeDataToHBase` 方法)
      • 3.2 数据读取与分析(`readHBaseData` 方法
      • 3.3 Spark SQL 分析
      • 3.4 完整代码
  • 三、实验结果
    • 1. 数据写入验证
    • 2. 数据读取与分析结果
  • 四、常见问题与优化
    • 1. 空值处理
    • 2. 性能优化
    • 3. 集群配置(可选做)
  • 五、总结

摘要

本文介绍如何使用 Spark 2.3.2 实现对 HBase 1.4.8 表的读写操作,通过 Scala 语言将 CSV 数据写入 HBase,并利用 Spark SQL 分析数据。代码示例涵盖数据批量写入、全表扫描、数据类型转换及结构化查询,适合大数据开发人员快速掌握 Spark 与 HBase 的集成方法。

一、实验环境准备

1. 技术版本

  • Spark:2.3.2
  • HBase:1.4.8
  • Scala:2.11
  • 开发工具:IntelliJ IDEA
  • 依赖管理:Maven

2. Maven 依赖配置

pom.xml 中添加以下依赖:

<dependencies>  <!-- Spark 核心与 SQL -->  <dependency>  <groupId>org.apache.spark</groupId>  <artifactId>spark-core_2.11</artifactId>  <version>2.3.2</version>  </dependency>  <dependency>  <groupId>org.apache.spark</groupId>  <artifactId>spark-sql_2.11</artifactId>  <version>2.3.2</version>  </dependency>  <!-- HBase 客户端与 MapReduce 支持 -->  <dependency>  <groupId>org.apache.hbase</groupId>  <artifactId>hbase-client</artifactId>  <version>1.4.8</version>  </dependency>  <dependency>  <groupId>org.apache.hbase</groupId>  <artifactId>hbase-common</artifactId>  <version>1.4.8</version>  </dependency>  <dependency>  <groupId>org.apache.hbase</groupId>  <artifactId>hbase-server</artifactId>  <version>1.4.8</version>  </dependency>  <dependency>  <groupId>org.apache.hbase</groupId>  <artifactId>hbase-mapreduce</artifactId>  <version>1.4.8</version>  </dependency>  <!-- Hadoop 客户端(与 HBase 兼容) -->  <dependency>  <groupId>org.apache.hadoop</groupId>  <artifactId>hadoop-client</artifactId>  <version>2.7.3</version>  </dependency>  
</dependencies>  

二、实验步骤

1. 数据准备

  • 文件路径D:\\JavaProjects\\SparkAllProjects\\data\\emp.csv
  • 数据格式(示例):
    7369,SMITH,CLERK,7902,1980-12-17,800,,20  
    7499,ALLEN,SALESMAN,7698,1981-02-20,1600,300,30  
    
    字段含义:员工ID,姓名,职位,上级ID,入职日期,薪资,奖金,部门ID

2. HBase 表结构设计

  • 表名employee
  • 列族info
  • 列标识
    • ename:姓名
    • job:职位
    • mgr:上级ID
    • hiredate:入职日期
    • salary:薪资
    • comm:奖金
    • deptNo:部门ID

3. 代码实现

3.1 数据写入 HBase(writeDataToHBase 方法)

  • 核心逻辑
    1. 读取 CSV 文件为 DataFrame。
    2. 按分区遍历数据,批量创建 Put 对象。
    3. 通过 HBase 连接将数据写入表中,避免单条写入性能瓶颈。
  • 核心代码
      def writeDataToHBase(spark: SparkSession): Unit = {// 2.读取数据文件val empDF = spark.read.csv("file:///D:\\JavaProjects\\SparkAllProjects\\data\\emp.csv")// 3.按照DataFrame分区写入HBase表中empDF.foreachPartition(p => {// 3.1 配置HBase连接地址:初始化conf配置对象、配置zk连接地址及其端口val conf = HBaseConfiguration.create()conf.set("hbase.zookeeper.quorum", "s1,s2,s3")conf.set("hbase.zookeeper.property.clientPort", "2181")// 3.2 在每个HBase节点中创建HBase的链接对象val conn = ConnectionFactory.createConnection(conf)// 3.3 获取HBase目标表val table = conn.getTable(TableName.valueOf(TABLE_NAME))// 批量提交时,使用list列表存储put,当达到batchSize大小时提交一次val batchSize = 14 // emp.csv就14条记录,所以设置成14条提交一次var puts = List[Put]() // puts数组// 3.4 将dataframe中的每个分区数据写入table表中try {p.foreach(row => {// 3.5 获取每行中的各个列的数据val empNo = row.getString(0)val ename = row.getString(1)val job = row.getString(2)val mgr = row.getString(3)val hireDate = row.getString(4)val salary = row.getString(5)val comm = row.getString(6)val deptNo = row.getString(7)var mgrStr = "0"if (mgr != null) {mgrStr = mgr}var commStr = "0.0"if (comm != null) {commStr = comm}// 3.6 设置rowkey:按照empNoval rowKey = Bytes.toBytes(empNo)// 3.7 创建Put对象,设置列族中的列和字段val put = new Put(rowKey)put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("ename"), Bytes.toBytes(ename))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("job"), Bytes.toBytes(job))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("mgr"), Bytes.toBytes(mgrStr))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("hiredate"), Bytes.toBytes(hireDate))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("salary"), Bytes.toBytes(salary))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("comm"), Bytes.toBytes(commStr))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("deptNo"), Bytes.toBytes(deptNo))// 3.8 将该Put对象加入Table对象中puts = put :: putsif (puts.size >= batchSize) {// 转成Java中的ArrayListval javaLists = new util.ArrayList[Put](puts.size)puts.foreach(javaLists.add)// table调用put添加javaListstable.put(javaLists)// 添加完成后,清空puts = List[Put]()}// 处理剩余数据: 当不满足14条数据时,把剩余数据写入HBase表中if (puts.nonEmpty) {val javaLists = new util.ArrayList[Put](puts.size)puts.foreach(javaLists.add)table.put(javaLists)}})} finally {// 确保资源释放if (table != null) table.close()if (conn != null) conn.close()}})}
    

3.2 数据读取与分析(readHBaseData 方法

  • 核心逻辑
    1. 使用 ResultScanner 全表扫描 HBase 数据。
    2. 将二进制数据转换为样例类 Employee,自动推断 DataFrame 的 Schema。
    3. 通过 Spark SQL 执行聚合查询(如按部门统计薪资总和)。
  • 核心代码
    case class Employee(  employee_id: Int,  employee_name: String,  job_title: String,  manager_id: Int,  hire_date: String,  salary: Double,  bonus: Double,  department_id: Int  
    )  def readHBaseData(spark: SparkSession): DataFrame = {// 1. 配置 HBase 连接参数val conf = HBaseConfiguration.create()conf.set("hbase.zookeeper.quorum", "s1,s2,s3")  // 替换为你的 ZK 地址conf.set("hbase.zookeeper.property.clientPort", "2181")// 2. 创建 HBase 连接和表对象val conn = ConnectionFactory.createConnection(conf)val table = conn.getTable(TableName.valueOf(TABLE_NAME))var scanner: ResultScanner = nulltry {// 3. 构造扫描器(Scan)并配置val scan = new Scan().addFamily(Bytes.toBytes(CF_NAME))  // 读取指定列族下的所有列.setCaching(500)  // 提升批量读取性能.setCacheBlocks(false)// 4. 获取扫描结果迭代器scanner = table.getScanner(scan)// 5. 遍历结果并转换为 Employee 对象val employees = ListBuffer[Employee]()val it = scanner.iterator()while (it.hasNext) {val result: Result = it.next()// 提取行键(假设 rowkey 是 employee_id 的字符串形式)val rowKeyStr = Bytes.toString(result.getRow)val employeeId = rowKeyStr.toInt  // 转换为 Int(需确保 rowkey 是数字)// 提取各列数据(根据 HBase 实际存储的列名调整)val name = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("ename")))val job = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("job")))val mgrStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("mgr")))val hireDate = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("hiredate")))val salaryStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("salary")))val commStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("comm")))val deptNoStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("deptNo")))// 处理可能的空值或转换异常(示例:默认值为 0)val managerId = if (mgrStr != null && mgrStr.nonEmpty) mgrStr.toInt else 0val salary = if (salaryStr != null && salaryStr.nonEmpty) salaryStr.toDouble else 0val bonus = if (commStr != null && commStr.nonEmpty) commStr.toDouble else 0val departmentId = if (deptNoStr != null && deptNoStr.nonEmpty) deptNoStr.toInt else 0// 创建 Employee 对象并添加到列表employees += Employee(employee_id = employeeId,employee_name = name,job_title = job,manager_id = managerId,hire_date = hireDate,salary = salary,bonus = bonus,department_id = departmentId)}// 6. 将 Employee 列表转换为 DataFrame(自动推断 Schema)import spark.implicits._spark.createDataFrame(employees.toList)} catch {case e: Exception =>println(s"读取 HBase 数据失败: ${e.getMessage}")throw e  // 抛异常终止流程} finally {// 7. 释放所有资源(关键!避免连接泄漏)if (scanner != null) scanner.close()if (table != null) table.close()if (conn != null) conn.close()}}
    

3.3 Spark SQL 分析

  • 读取数据后,通过 Spark SQL 执行聚合查询:
    val df = readHBaseData(spark)  
    df.createOrReplaceTempView("emp")  
    spark.sql("""  SELECT department_id,  SUM(salary + bonus) AS total  FROM emp  GROUP BY department_id  ORDER BY total DESC  
    """).show(false)  
    
  • 其他分析查询请自行操作。

3.4 完整代码

  • 在IDEA中创建名为WriteAndReadDataToHBase单例对象
  • 添加如下完成代码:
    package com.lpssfxy.spark.datasourceimport org.apache.hadoop.hbase.{HBaseConfiguration, TableName}
    import org.apache.hadoop.hbase.client.{ConnectionFactory, Put, Result, ResultScanner, Scan}
    import org.apache.hadoop.hbase.util.Bytes
    import org.apache.spark.sql.{DataFrame, SparkSession}import java.util
    import scala.collection.mutable.ListBuffercase class Employee(employee_id: Int,       // 对应 HBase rowkey(假设 rowkey 是员工ID)employee_name: String,  // 对应列族 info:enamejob_title: String,      // 对应列族 info:jobmanager_id: Int,        // 对应列族 info:mgrhire_date: String,      // 对应列族 info:hiredatesalary: Double,            // 对应列族 info:salarybonus: Double,             // 对应列族 info:commdepartment_id: Int      // 对应列族 info:deptNo)/*** spark读写HBase表employee*/
    object WriteAndReadDataToHBase {// 定义表名称及其列族名称private val TABLE_NAME = "employee"private val CF_NAME = "info"def main(args: Array[String]): Unit = {// 1. 准备环境:SparkSession初始化val spark = SparkSession.builder().appName("WriteDataToHBase").master("local[*]").getOrCreate()// 2.调用writeDataToHBase方法将文件写入HBase中//writeDataToHBase(spark)// 3. 读HBase数据val df = readHBaseData(spark)//df.show(false)df.createOrReplaceTempView("emp")spark.sql("select department_id,sum(salary+bonus) as total from emp group by department_id order by total desc").show(false)// 4.停止SparkSession对象,释放资源spark.stop()}/*** 写数据到HBase表中* @param spark*/def writeDataToHBase(spark: SparkSession): Unit = {// 2.读取数据文件val empDF = spark.read.csv("file:///D:\\JavaProjects\\SparkAllProjects\\data\\emp.csv")// 3.按照DataFrame分区写入HBase表中empDF.foreachPartition(p => {// 3.1 配置HBase连接地址:初始化conf配置对象、配置zk连接地址及其端口val conf = HBaseConfiguration.create()conf.set("hbase.zookeeper.quorum", "s1,s2,s3")conf.set("hbase.zookeeper.property.clientPort", "2181")// 3.2 在每个HBase节点中创建HBase的链接对象val conn = ConnectionFactory.createConnection(conf)// 3.3 获取HBase目标表val table = conn.getTable(TableName.valueOf(TABLE_NAME))// 批量提交时,使用list列表存储put,当达到batchSize大小时提交一次val batchSize = 14 // emp.csv就14条记录,所以设置成14条提交一次var puts = List[Put]() // puts数组// 3.4 将dataframe中的每个分区数据写入table表中try {p.foreach(row => {// 3.5 获取每行中的各个列的数据val empNo = row.getString(0)val ename = row.getString(1)val job = row.getString(2)val mgr = row.getString(3)val hireDate = row.getString(4)val salary = row.getString(5)val comm = row.getString(6)val deptNo = row.getString(7)var mgrStr = "0"if (mgr != null) {mgrStr = mgr}var commStr = "0.0"if (comm != null) {commStr = comm}// 3.6 设置rowkey:按照empNoval rowKey = Bytes.toBytes(empNo)// 3.7 创建Put对象,设置列族中的列和字段val put = new Put(rowKey)put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("ename"), Bytes.toBytes(ename))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("job"), Bytes.toBytes(job))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("mgr"), Bytes.toBytes(mgrStr))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("hiredate"), Bytes.toBytes(hireDate))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("salary"), Bytes.toBytes(salary))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("comm"), Bytes.toBytes(commStr))put.addColumn(Bytes.toBytes(CF_NAME), Bytes.toBytes("deptNo"), Bytes.toBytes(deptNo))// 3.8 将该Put对象加入Table对象中puts = put :: putsif (puts.size >= batchSize) {// 转成Java中的ArrayListval javaLists = new util.ArrayList[Put](puts.size)puts.foreach(javaLists.add)// table调用put添加javaListstable.put(javaLists)// 添加完成后,清空puts = List[Put]()}// 处理剩余数据: 当不满足14条数据时,把剩余数据写入HBase表中if (puts.nonEmpty) {val javaLists = new util.ArrayList[Put](puts.size)puts.foreach(javaLists.add)table.put(javaLists)}})} finally {// 确保资源释放if (table != null) table.close()if (conn != null) conn.close()}})}/*** 读取HBase表数据* @param spark* @return*/def readHBaseData(spark: SparkSession): DataFrame = {// 1. 配置 HBase 连接参数val conf = HBaseConfiguration.create()conf.set("hbase.zookeeper.quorum", "s1,s2,s3")  // 替换为你的 ZK 地址conf.set("hbase.zookeeper.property.clientPort", "2181")// 2. 创建 HBase 连接和表对象val conn = ConnectionFactory.createConnection(conf)val table = conn.getTable(TableName.valueOf(TABLE_NAME))var scanner: ResultScanner = nulltry {// 3. 构造扫描器(Scan)并配置val scan = new Scan().addFamily(Bytes.toBytes(CF_NAME))  // 读取指定列族下的所有列.setCaching(500)  // 提升批量读取性能.setCacheBlocks(false)// 4. 获取扫描结果迭代器scanner = table.getScanner(scan)// 5. 遍历结果并转换为 Employee 对象val employees = ListBuffer[Employee]()val it = scanner.iterator()while (it.hasNext) {val result: Result = it.next()// 提取行键(假设 rowkey 是 employee_id 的字符串形式)val rowKeyStr = Bytes.toString(result.getRow)val employeeId = rowKeyStr.toInt  // 转换为 Int(需确保 rowkey 是数字)// 提取各列数据(根据 HBase 实际存储的列名调整)val name = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("ename")))val job = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("job")))val mgrStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("mgr")))val hireDate = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("hiredate")))val salaryStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("salary")))val commStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("comm")))val deptNoStr = Bytes.toString(result.getValue(Bytes.toBytes(CF_NAME), Bytes.toBytes("deptNo")))// 处理可能的空值或转换异常(示例:默认值为 0)val managerId = if (mgrStr != null && mgrStr.nonEmpty) mgrStr.toInt else 0val salary = if (salaryStr != null && salaryStr.nonEmpty) salaryStr.toDouble else 0val bonus = if (commStr != null && commStr.nonEmpty) commStr.toDouble else 0val departmentId = if (deptNoStr != null && deptNoStr.nonEmpty) deptNoStr.toInt else 0// 创建 Employee 对象并添加到列表employees += Employee(employee_id = employeeId,employee_name = name,job_title = job,manager_id = managerId,hire_date = hireDate,salary = salary,bonus = bonus,department_id = departmentId)}// 6. 将 Employee 列表转换为 DataFrame(自动推断 Schema)import spark.implicits._spark.createDataFrame(employees.toList)} catch {case e: Exception =>println(s"读取 HBase 数据失败: ${e.getMessage}")throw e  // 抛异常终止流程} finally {// 7. 释放所有资源(关键!避免连接泄漏)if (scanner != null) scanner.close()if (table != null) table.close()if (conn != null) conn.close()}}}

三、实验结果

1. 数据写入验证

  • 控制台输出无异常日志,HBase 表 employee 中生成对应 rowkey 的记录。
  • 通过 HBase Shell 命令 scan 'employee' 可查看数据:
    hbase> scan 'employee', {LIMIT => 2}  
    ROW       COLUMN+CELL                                              
    7369      column=info:ename, timestamp=... value=SMITH               
    7369      column=info:job, timestamp=... value=CLERK               
    # ...(其他列省略)  
    

2. 数据读取与分析结果

  • 原始数据展示

    +-----------+-------------+-----------+-----------+----------+------+-----+-------------+  
    |employee_id|employee_name|job_title  |manager_id |hire_date |salary|bonus|department_id|  
    +-----------+-------------+-----------+-----------+----------+------+-----+-------------+  
    |7369       |SMITH        |CLERK      |7902       |1980-12-17|800.0 |0.0  |20           |  
    |7499       |ALLEN        |SALESMAN   |7698       |1981-02-20|1600.0|300.0|30           |  
    # ...(其他行省略)  
    
  • Spark SQL 聚合结果

    +-------------+------------+  
    |department_id|total       |  
    +-------------+------------+  
    |30           |20150.0     |  
    |20           |10875.0     |  
    |10           |8750.0      |  
    +-------------+------------+  
    

四、常见问题与优化

1. 空值处理

  • HBase 列值为 null 时,result.getValue 返回 null,需通过 Option 或判空逻辑处理:
    val commStr = Option(result.getValue(...)).map(Bytes.toString).getOrElse("0.0")  
    

2. 性能优化

  • 批量写入:调整 batchSize(建议 500-2000),减少 RPC 调用次数。
  • 扫描缓存:通过 scan.setCaching(500) 提升全表扫描效率。
  • 数据类型:避免过度使用字符串类型,对数值字段直接存储二进制数据(如 Bytes.toDouble)。

3. 集群配置(可选做)

  • spark-submit 中添加 HBase 配置文件(如 hbase-site.xml),确保 Executor 节点访问 ZooKeeper:
    spark-submit --files hbase-site.xml ...  
    

五、总结

本文通过实际案例演示了 Spark 与 HBase 的集成流程,实现了从 CSV 数据写入 HBase 到结构化数据分析的完整链路。核心要点包括:

  1. 使用 foreachPartition 实现批量写入,避免单条操作性能损耗。
  2. 通过 ResultScanner 和样例类映射,简化 HBase 数据到 DataFrame 的转换。
  3. 利用 Spark SQL 对 HBase 数据进行高效分析,发挥分布式计算优势。

该实验适用于海量结构化数据的存储与分析场景,可进一步扩展至实时数据处理或机器学习模型训练。

相关文章:

【Spark集成HBase】Spark读写HBase表

Spark读写HBase表 摘要一、实验环境准备1. 技术版本2. Maven 依赖配置 二、实验步骤1. 数据准备2. HBase 表结构设计3. 代码实现3.1 数据写入 HBase&#xff08;writeDataToHBase 方法&#xff09;3.2 数据读取与分析&#xff08;readHBaseData 方法3.3 Spark SQL 分析3.4 完整…...

【Linux】借助gcc源码修改,搜索头文件当前进展

从上图可以看出对于每次的搜索&#xff0c;都是从第一个目录开始搜索&#xff0c;图里也可以看到修改源代码所在的目录&#xff0c;函数&#xff0c;行&#xff0c;昨天的博客感觉对于找到的位置还是不太好。 在使用修改源代码编译的GCC&#xff0c;进行编译内核源代码时&#…...

jmeter登录接口生成一批token并写入csv文件

背景&#xff1a;大部分项目真实的业务接口都是需要token鉴权的&#xff0c;想对一批核心业务接口进行并发压测&#xff0c;必然要先生成一批token给这些接口并发循环调用。 基本的思路是这样的&#xff1a;一批手机号csv文件 -》登录接口循环读取csv文件并生成token -》每次…...

利用 Redis 设计高效分布式锁机制:保障操作原子性

利用 Redis 设计高效分布式锁机制:保障操作原子性 引言 在分布式系统中,多个节点可能会同时操作共享资源,导致数据不一致或竞争条件问题。因此,构建一个高效的 分布式锁机制 是保障数据完整性的重要策略。 Redis 作为一个高性能的内存数据库,因其 单线程特性 和 丰富的数…...

Redis 的速度为什么这么快

这里的速度快&#xff0c;Redis 的速度快是与 MySQL 等数据库相比较的&#xff0c;与直接操作内存数据相比&#xff0c;Redis 还是略有逊色。 Redis 是一个单线程模型&#xff0c;为什么比其他的多线程程序还要快&#xff0c;原因有以几点&#xff1a; 1、访问的对象不同 Re…...

Spring Cloud Gateway高并发限流——基于Redis实现方案解析

本文是一个基于 Spring Cloud Gateway 的分布式限流方案&#xff0c;使用Redis Lua实现高并发场景下的精准流量控制。该方案支持动态配置、多维度限流&#xff08;API路径/IP/用户&#xff09;&#xff0c;并包含完整的代码实现和性能优化建议。 一、架构设计 #mermaid-svg-vg…...

【VScode】python初学者的有力工具

还记得23年11月&#xff0c;我还在欣喜Spyder像Rstudio一样方便。 但苦于打开软件打开太卡、太耗时&#xff08;初始化-再加载一些东西&#xff09;&#xff0c;一度耗费了我学习的热情。 就在24年5月份&#xff0c;别人推荐下发现了一个更加轻量级、方便又快速的ID&#xff0…...

融合蛋白质语言模型和图像修复模型,麻省理工与哈佛联手提出PUPS ,实现单细胞级蛋白质定位

蛋白质亚细胞定位&#xff08;subcellular localization of a protein&#xff09;是指蛋白质在细胞结构中具体的定位情况&#xff0c; 这对蛋白质行使其生物学功能至关重要。举个简单例子&#xff0c;如果把细胞想象成一个庞大的企业&#xff0c;其中细胞核、线粒体、细胞膜等…...

火山引擎火山云带宽价格

首先&#xff0c;成本结构方面&#xff0c;火山云可能用的是高质量的带宽资源&#xff0c;比如BGP多线网络&#xff0c;这种网络能保证更好的连通性和稳定性&#xff0c;但成本更高。另外&#xff0c;如果火山云的数据中心节点分布在多个地区&#xff0c;尤其是海外&#xff0c…...

可信计算是什么?可信逻辑:计算系统安全的形式化分析框架

参考书籍《人工智能安全 (陈左宁 主编&#xff1b;卢锡城 、方滨兴 副主编&#xff09;》第二章内容&#xff1b; 相关博客&#xff1a;可信执行环境(TEE)&#xff1a;保障数据安全的核心技术 文章目录 一、可信计算的逻辑学基础1.1 可信性的逻辑定义与范畴1.2 双体系架构的逻…...

大模型应用开发之Dify进阶版使用教程—react前端+django后端+dify-API制作聊天界面

Dify进阶使用教程 文章目录 Dify进阶使用教程前言一、dify-docker环境搭建及简单使用二、本篇使用API源码部署启动dify后端启动dify前端基于通义模型的智能客服机器人应用与自己项目联动实战1. 使用API进行项目与dify联动1.1 在控制台主页,点击创建访问API1.2 进入API页面,这…...

快速创建 Vue 3 项目

安装 Node.js 和 Vue CL 安装 Node.js&#xff1a;访问 https://nodejs.org/ 下载并安装 LTS 版本。 安装完后&#xff0c;在终端检查版本&#xff1a; node -v npm -v安装 Vue CLI&#xff08;全局&#xff09;&#xff1a; npm install -g vue/cli创建 Vue 3 项目 vue cr…...

【VLNs篇】05:TGS-在无地图室外环境中使用视觉语言模型进行轨迹生成和选择

栏目内容论文标题TGS: Trajectory Generation and Selection using Vision Language Models in Mapless Outdoor Environments (TGS&#xff1a;在无地图室外环境中使用视觉语言模型进行轨迹生成和选择)研究问题在具有非结构化越野特征&#xff08;如建筑物、草地、路缘&#x…...

【未来展望】云、AI与元宇宙的融合架构

未来展望:云、AI与元宇宙的融合架构 一、技术背景与发展:从独立演进到深度融合二、技术特点:异构协同与场景化适配三、技术细节:架构层解构与核心组件四、未来发展:技术趋势与产业机遇五、结语:硅基与碳基文明的共生演进一、技术背景与发展:从独立演进到深度融合 云计算…...

React+Taro 微信小程序做一个页面,背景图需贴手机屏幕最上边覆盖展示

话不多说 直接上图 第一步 import { getSystemInfoSync } from tarojs/taro;第二步 render() {const cardBanner getImageUrlByGlobal(member-merge-bg.png);const { safeArea, statusBarHeight } getSystemInfoSync();const NAV_BAR_HEIGHT 44;const navBarHeight NAV…...

Linux笔记---信号(下)

1. sigaction函数 #include <signal.h>int sigaction(int signum, const struct sigaction *act, struct sigaction *oldact); 功能&#xff1a;sigaction函数用于检查或修改与指定信号相关联的处理动作。它可以用来设置信号处理函数、信号掩码等。 参数 signum&#…...

腾讯云媒体AI解码全球视频出海智能密码

当短剧平台撞上多语种字幕困境&#xff0c;当直播电商遭遇文化审核危机&#xff0c;当经典影视困于格式壁垒——这些内容出海的难题&#xff0c;正被腾讯云媒体AI的智能引擎逐个破解。从东南亚的直播卡顿到中东的宗教符号雷区&#xff0c;从老片的低清画质到元宇宙的渲染瓶颈&a…...

Django的请求和响应+template模板

&#x1f31f; 如果这篇文章触动了你的心弦&#xff0c;请不要吝啬你的支持&#xff01; 亲爱的读者&#xff0c; 感谢你花时间阅读这篇分享。希望这里的每一个字都能为你带来启发或是让你会心一笑。如果你觉得这篇文章有价值&#xff0c;或者它解决了你一直以来的一个疑问&a…...

JAVA8怎么使用9的List.of

在 Java 8 中&#xff0c;List.of 方法并不可用&#xff0c;因为这是从 Java 9 开始引入的用于创建不可变列表的便捷方法。要在 Java 8 中达到类似的效果&#xff0c;您需要使用其他方式来创建列表。常规的方法是先创建集合对象然后再添加元素 List<String> list new A…...

无人机避障——深蓝学院浙大Ego-Planner规划部分

ESDF-free&#xff1a; 被这种类型的障碍物死死卡住的情况&#xff1a; 在一定范围内建立ESDF&#xff1a; Ego-Planner框架&#xff1a; 找到{p,v} pair&#xff1a; 【注意】&#xff1a;首先根据在障碍物内航迹上的点Q&#xff0c;以及与它相邻但不在障碍物内的两个点&#…...

Qt 最新版6.9.0使用MQTT连接腾讯云详细教程

Qt 最新版6.9.0使用MQTT连接腾讯云详细教程 一、MQTT介绍二、MQTT库编译1、源码下载2、源码编译 三、库的使用方法四、MQTT连接设备1、包含头文件 2、定义一个mqtt客户端3、实例并连接相关信号与槽4、连接服务器5、订阅topic 一、MQTT介绍 1. 概述 全称: Message Queuing Tel…...

无人机避障——深蓝学院浙大栅格地图以及ESDF地图内容

Occupancy Grid Map & Euclidean Signed Distance Field: 【注意】&#xff1a;目的是为了将有噪声的传感器收集起来&#xff0c;用于实时的建图。 Occupancy Grid Map&#xff1a; 概率栅格&#xff1a; 【注意】&#xff1a;由于传感器带有噪声&#xff0c;在实际中基于…...

Vitis 2021.1安装步骤

1.将压缩文件解压 2.打开解压后的文件夹&#xff0c;双击应用程序 3.安装版本2021.1&#xff0c;不安装2024.2&#xff0c;点击“continue”,然后点击“next” 4.选择“vitis”&#xff0c;然后点击“next” 5.点击“next” 6.选择“I Agree”&#xff0c;点击“next…...

【Harmony】【鸿蒙】List列表View如果刷新内部的自定义View

创建自定义View Component export struct TestView{State leftIcon?:Resource $r(app.media.leftIcon)State leftText?:Resource | string $r(app.string.leftText)State rightText?:Resource | string $r(app.string.rightText)State rightIcon?:Resource $r(app.med…...

我店模式系统开发打造本地生活生态商圈

在当今快节奏的商业环境中&#xff0c;商家们面临着越来越多的挑战&#xff0c;包括市场竞争加剧、消费者需求多样化以及运营效率的提高等。为了应对这些挑战&#xff0c;越来越多的商家开始寻求信息化解决方案&#xff0c;以提升运营效率和客户体验。我的店模式系统平台应运而…...

LeetCode[222]完全二叉树的节点个数

思路&#xff1a; 这个节点个数可以使用递归左儿子个数递归右儿子个数1&#xff0c;这个1是根节点&#xff0c;最后结果为节点个数&#xff0c;但我们没有练习到完全二叉树的性质. 完全二叉树的性质是&#xff1a;我简单说一下&#xff0c;大概就是其他节点都满了&#xff0c;就…...

电机试验平台:实现高效精密测试的关键工具

电机是现代工业中广泛应用的关键设备&#xff0c;其性能直接影响着生产效率和产品质量。为了确保电机的可靠运行和优化设计&#xff0c;电机试验平台成为不可或缺的工具。本文将探讨电机试验平台的概念、功能和应用&#xff0c;以及其在实现高效精密测试中的关键作用。 一、电…...

基于 ZigBee 的 LED 路灯智能控制器的设计

标题:基于 ZigBee 的 LED 路灯智能控制器的设计 内容:1.摘要 本文围绕基于 ZigBee 的 LED 路灯智能控制器展开研究。背景在于传统路灯控制方式存在能耗高、管理不便等问题&#xff0c;为实现路灯的智能化控制和节能目的&#xff0c;采用 ZigBee 无线通信技术来设计 LED 路灯智…...

LeetCode Hot100 (哈希)

1. 两数之和 比较简单&#xff0c;建立个map&#xff0c;看看有没有当前对应的相反的值就可以了 class Solution {public int[] twoSum(int[] nums, int target) {TreeMap<Integer, Integer> arrnew TreeMap<Integer, Integer>();int x10;int x20;for(int i0;i<…...

【力扣题目分享】二叉树专题(C++)

目录 1、根据二叉树创建字符串 代码实现&#xff1a; 2、二叉树的层序遍历 代码实现&#xff1a; 变形题&#xff1a; 代码实现&#xff1a; 3、二叉树的最近公共祖先 代码实现&#xff1a; 4、二叉搜索树与双向链表 代码实现&#xff1a; 5、从前序与中序遍历序列构…...

【烧脑算法】单序列双指针:从暴力枚举到高效优化的思维跃迁

目录 相向双指针 1498. 满足条件的子序列数目 1782. 统计点对的数目 581. 最短无序连续子数组 同向双指针 2122. 还原原数组 ​编辑 2972. 统计移除递增子数组的数目 II ​编辑 思维拓展 1920. 基于排列构建数组 442. 数组中重复的数据 448. 找到所有数组中消失的…...

如何排查服务器 CPU 温度过高的问题并解决?

服务器CPU温度过高是一个常见的问题&#xff0c;可能导致服务器性能下降、系统稳定性问题甚至硬件损坏。有效排查和解决服务器CPU温度过高的问题对于确保服务器正常运行和延长硬件寿命至关重要。本文将介绍如何排查服务器CPU温度过高的问题&#xff0c;并提供解决方法&#xff…...

YOLO篇-3.1.YOLO服务器运行

1.服务器 服务器网站&#xff1a;AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL(这个是收费的) 2.数据集上传 进入网站&#xff0c;租用自己的服务器&#xff0c;租用好后点击jupyter。(这里需要先有一个数据集哦) 在根目录下进入datasets创建自己的工程名 在工程文件下…...

数智读书笔记系列034《最优解人生》对编程群体的理念契合

📘 书籍简介 核心观点 《Die with Zero》(中文译为《最优解人生》)由美国对冲基金经理比尔柏金斯(Bill Perkins)撰写,核心理念是“财产归零”。其核心主张是: 金钱是实现体验的工具:金钱本身无意义,其价值在于转化为有意义的体验,如旅行、学习、家庭时光或慈善活动…...

深度学习相比传统机器学习的优势

深度学习相比传统机器学习具有显著优势&#xff0c;主要体现在以下几个方面&#xff1a; 1. 特征工程的自动化 传统机器学习&#xff1a;依赖人工设计特征&#xff08;Feature Engineering&#xff09;&#xff0c;需要领域专家从原始数据中提取关键特征&#xff08;如边缘检测…...

深入探究C++11的核心特性

目录 引言 C11简介 统一的列表初始化 1. {} 初始化 2. std::initializer_list 变量类型推导 1. auto 2. decltype 3. nullptr 右值引用和移动语义 1. 左值引用和右值引用 2. 左值引用与右值引用比较 3. 右值引用使用场景和意义 移动赋值与右值引用的深入应用 1. 移…...

nltk-英文句子分词+词干化

一、准备工作 ①安装好nltk模块并在&#xff1a; nltk/nltk_data: NLTK Data 链接中手动下载模型并放入到对应文件夹下。 具体放到哪个文件夹&#xff0c;先执行看报错后的提示即可。 ②准备pos_map.json文件&#xff0c;放置到当前文件夹下。该文件用于词性统一 {"…...

系统性能分析基本概念(3) : Tuning Efforts

系统性能调优&#xff08;Tuning Efforts&#xff09;是指通过优化硬件、软件或系统配置来提升性能&#xff0c;减少延迟、提高吞吐量或优化资源利用率。以下是系统性能调优的主要努力方向&#xff0c;涵盖硬件、操作系统、应用程序和网络等多个层面&#xff0c;结合实际应用场…...

部署TOMEXAM

前提&#xff1a;机器上有MySQL&#xff0c;nginx&#xff0c;jdk&#xff0c;tomcat 1.配置MySQL [rootjava-tomcat1 ~]# mysql -u root -pLiuliu!123 mysql: [Warning] Using a password on the command line interface can be insecure. Welcome to the MySQL monitor. C…...

Nginx 1.25.4交叉编译问题:编译器路径与aclocal.m4错误解决方案

Nginx 1.25.4交叉编译问题&#xff1a;编译器路径与aclocal.m4错误解决方案 一、问题描述 在对Nginx 1.25.4进行交叉编译时&#xff0c;遇到以下复合问题&#xff1a; 编译器路径失效&#xff1a;尽管在脚本中配置了交叉编译器&#xff08;如CCaarch64-himix100-linux-gcc&a…...

FPGA通信之VGA

文章目录 基本概念&#xff1a;水平扫描&#xff1a;垂直扫描&#xff1a; 时序如下&#xff1a;端口设计疑问为什么需要输出那么多端口不输出时钟怎么保证电子枪移动速度符合时序VGA转HDMI 仿真电路图代码总结&#xff1a;野火电子yyds 为了做图像处理&#xff0c; 现在我们开…...

[Git] 认识 Git 的三大区域 文件的修改和提交

文章目录 认识 Git 的三大区域&#xff1a;工作区、暂存区、版本库工作区、暂存区、版本库的关系流程图解 (概念) 将文件添加到仓库进行管理&#xff1a;git add 和 git commit场景一&#xff1a;第一次添加文件到仓库查看提交历史&#xff1a;git log&#xff08;进阶理解&…...

交叉编译DirectFB报错解决方法

configure: error: *** DirectFB compilation requires fluxcomp *** Unless you are compiling from a distributed tarball you need fluxcomp available from git://git.directfb.org/git/directfb/core/flux installed in your PATH. 需要先编译安装flux git clone http…...

AllToAll通信为什么用于EP并行?

1 AllToAll通信原理 首先要明白ALLTOALL通信是做了什么事情。 假设我们有3个进程&#xff08;A、B、C&#xff09;&#xff0c;每个进程都有三段数据&#xff0c;分别是a1, a2, a3&#xff1b;b1, b2, b3&#xff1b;c1, c2, c3。 进程A想发送&#xff1a;a1到进程A自己&…...

深入掌握Node.js HTTP模块:从开始到放弃

文章目录 一、HTTP模块入门&#xff1a;从零搭建第一个服务器1.1 基础概念解析1.2 手把手创建服务器 二、核心功能深入解析2.1 处理不同请求类型2.2 实现文件下载功能 三、常见问题解决方案3.1 跨域问题处理3.2 防止服务崩溃3.3 调试技巧 四、安全最佳实践4.1 请求头安全设置4.…...

python安装与使用

Python的安装 1.官网下载python安装包 https://www.python.org/ 2.安装python 勾选add python 3.8 to api将python加入变量 选择Customize installation进行自定义安装 一直选next直到下面界面&#xff0c;根据自己需要将python安装到指定位置&#xff0c;然后install 等贷…...

2025最新版Visual Studio Code for Mac安装使用指南

2025最新版Visual Studio Code for Mac安装使用指南 Installation and Application Guide to The Latest Version of Visual Studio Code in 2025 By JacksonML 1. 什么是Visual Studio Code&#xff1f; Visual Studio Code&#xff0c;通常被称为 VS Code&#xff0c;是由…...

VSCode GitHub Copilot 安装与使用完全指南

文章目录 一、安装准备1.1 系统要求1.2 Copilot订阅选择1.3 获取访问权限 二、安装步骤2.1 安装GitHub Copilot基础扩展2.2 安装GitHub Copilot Chat扩展2.3 登录和授权 三、基本使用&#xff1a;代码自动完成3.1 内联代码建议3.2 自定义Copilot配置3.3 使用注释引导Copilot 四…...

Github超19k+ strar的实时协同编辑的开源框架yjs

Yjs 是一个用于实现实时协同编辑的开源框架&#xff0c;具有以下关键特性和应用价值&#xff1a; 核心特性 基于 CRDT 算法 Yjs 采用无冲突复制数据类型&#xff08;CRDT&#xff09;&#xff0c;确保多用户同时编辑同一文档时无需复杂锁机制或中央协调&#xff0c;最终实现数据…...

【Node.js】工具链与工程化

个人主页&#xff1a;Guiat 归属专栏&#xff1a;node.js 文章目录 1. Node.js 工具链概述1.1 工具链的作用1.2 Node.js 工具链全景 2. 包管理与依赖管理2.1 npm (Node Package Manager)2.2 yarn2.3 pnpm2.4 锁文件与依赖管理2.5 工作空间与 Monorepo 3. 构建工具与打包3.1 Web…...