SpringBoot整合Kafka、Flink实现流式处理
引言
在当今大数据处理领域,实时数据流处理变得越来越重要。Apache Kafka作为一个高吞吐量的分布式流处理平台,结合Apache Flink这一强大的流处理框架,可以构建出高效的实时数据处理系统。本文将指导您如何在SpringBoot应用中整合Kafka和Flink,从而实现一个完整的实时数据处理流水线。
1. 技术栈介绍
在开始具体实现之前,让我们先了解一下这三种技术的基本概念:
SpringBoot:简化Spring应用开发的框架,提供了自动配置、快速启动等特性。
Apache Kafka:高性能的分布式事件流平台,可用于构建实时数据管道和流处理应用。
Apache Flink:分布式大数据流处理引擎,支持对无界和有界数据流进行有状态的计算。
这三者结合使用的典型场景是:SpringBoot作为应用框架,Kafka负责消息队列和数据传输,Flink处理数据流并执行计算逻辑。
2. 环境准备
首先,我们需要准备开发环境和相关依赖。
创建SpringBoot项目
使用Spring Initializr创建一个新的SpringBoot项目,添加以下依赖:
<dependencies><!-- Spring Boot 基础依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><!-- Kafka 依赖 --><dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId></dependency><!-- Flink 核心依赖 --><dependency><groupId>org.apache.flink</groupId><artifactId>flink-java</artifactId><version>1.18.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-streaming-java</artifactId><version>1.18.0</version></dependency><!-- Flink Kafka 连接器 --><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-kafka</artifactId><version>3.0.0-1.18</version></dependency><!-- Lombok 简化开发 --><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><optional>true</optional></dependency>
</dependencies>
安装并启动Kafka
下载Kafka:https://kafka.apache.org/downloads
解压下载的文件
启动ZooKeeper(Kafka依赖):
bin/zookeeper-server-start.sh config/zookeeper.properties
启动Kafka服务器:
bin/kafka-server-start.sh config/server.properties
创建一个名为"temperature-data"的topic:
bin/kafka-topics.sh --create --topic temperature-data --bootstrap-server localhost:9092 --partitions 1 --replication-factor
3. SpringBoot整合Kafka
基础配置
在application.yml中添加Kafka的配置:
spring:kafka:bootstrap-servers: localhost:9092producer:key-serializer: org.apache.kafka.common.serialization.StringSerializervalue-serializer: org.springframework.kafka.support.serializer.JsonSerializerconsumer:group-id: temperature-groupauto-offset-reset: earliestkey-deserializer: org.apache.kafka.common.serialization.StringDeserializervalue-deserializer: org.springframework.kafka.support.serializer.JsonDeserializerproperties:spring.json.trusted.packages: com.example.model
创建数据模型
创建一个表示温度数据的模型类:
package com.example.model;import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;import java.time.LocalDateTime;@Data
@NoArgsConstructor
@AllArgsConstructor
public class TemperatureReading {private String sensorId; // 传感器IDprivate double temperature; // 温度值private LocalDateTime timestamp; // 时间戳// Lombok 会自动生成 getter、setter、equals、hashCode 和 toString 方法
}
实现Kafka生产者
创建一个服务类来发送温度数据:
package com.example.service;import com.example.model.TemperatureReading;
import lombok.RequiredArgsConstructor;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Service;@Service
@RequiredArgsConstructor
public class TemperatureProducerService {private final KafkaTemplate<String, TemperatureReading> kafkaTemplate;private static final String TOPIC = "temperature-data";/*** 发送温度数据到Kafka* * @param reading 温度读数对象*/public void sendTemperatureReading(TemperatureReading reading) {// 使用传感器ID作为消息键,可以保证相同传感器的数据进入同一分区kafkaTemplate.send(TOPIC, reading.getSensorId(), reading);System.out.println("已发送温度数据: " + reading);}
}
实现Kafka消费者(可选)
创建一个服务类来消费温度数据(用于测试,实际处理将由Flink完成):
package com.example.service;import com.example.model.TemperatureReading;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Service;@Service
public class TemperatureConsumerService {/*** 监听Kafka主题中的温度数据* * @param reading 接收到的温度读数对象*/@KafkaListener(topics = "temperature-data", groupId = "temperature-group")public void consume(TemperatureReading reading) {System.out.println("已接收温度数据: " + reading);// 在这里可以进行简单处理或保存到数据库}
}
创建REST API
创建一个控制器来接收温度数据:
package com.example.controller;import com.example.model.TemperatureReading;
import com.example.service.TemperatureProducerService;
import lombok.RequiredArgsConstructor;
import org.springframework.http.ResponseEntity;
import org.springframework.web.bind.annotation.PostMapping;
import org.springframework.web.bind.annotation.RequestBody;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;import java.time.LocalDateTime;@RestController
@RequestMapping("/api/temperature")
@RequiredArgsConstructor
public class TemperatureController {private final TemperatureProducerService producerService;/*** 接收温度数据并发送到Kafka* * @param reading 温度读数对象* @return HTTP响应*/@PostMappingpublic ResponseEntity<String> reportTemperature(@RequestBody TemperatureReading reading) {// 如果客户端没有提供时间戳,则设置当前时间if (reading.getTimestamp() == null) {reading.setTimestamp(LocalDateTime.now());}producerService.sendTemperatureReading(reading);return ResponseEntity.ok("温度数据已接收并发送到Kafka");}
}
4. SpringBoot整合Flink
创建Flink配置类
package com.example.config;import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;@Configuration
public class FlinkConfig {/*** 创建并配置Flink流执行环境* * @return 配置好的StreamExecutionEnvironment实例*/@Beanpublic StreamExecutionEnvironment streamExecutionEnvironment() {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();// 设置执行模式为流处理env.setRuntimeMode(RuntimeExecutionMode.STREAMING);// 设置并行度env.setParallelism(1);// 启用检查点以实现容错env.enableCheckpointing(60000); // 每60秒创建一次检查点return env;}
}
创建Flink流处理服务
package com.example.service;import com.example.model.TemperatureReading;
import com.example.model.TemperatureAlert;
import jakarta.annotation.PostConstruct;
import lombok.RequiredArgsConstructor;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.FilterFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.connector.kafka.source.KafkaSource;
import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.springframework.stereotype.Service;import java.util.Properties;@Service
@RequiredArgsConstructor
public class TemperatureProcessingService {private final StreamExecutionEnvironment env;// 定义温度阈值private static final double HIGH_TEMP_THRESHOLD = 30.0;/*** 初始化并启动Flink流处理作业*/@PostConstructpublic void initializeFlinkJob() {try {// 配置Kafka数据源KafkaSource<String> source = KafkaSource.<String>builder().setBootstrapServers("localhost:9092").setTopics("temperature-data").setGroupId("flink-temperature-processor").setStartingOffsets(OffsetsInitializer.earliest()).setValueOnlyDeserializer(new SimpleStringSchema()).build();// 创建数据流DataStream<String> inputStream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Source");// 将JSON字符串转换为TemperatureReading对象DataStream<TemperatureReading> temperatureStream = inputStream.map(new JsonToTemperatureReadingMapper());// 过滤出高温数据DataStream<TemperatureReading> highTempStream = temperatureStream.filter(new HighTemperatureFilter(HIGH_TEMP_THRESHOLD));// 处理高温警报DataStream<TemperatureAlert> alertStream = highTempStream.map(new TemperatureAlertMapper());// 每5分钟计算一次平均温度DataStream<Double> averageTempStream = temperatureStream.map(TemperatureReading::getTemperature).windowAll(TumblingProcessingTimeWindows.of(Time.minutes(5))).aggregate(new AverageAggregateFunction());// 打印结果(在实际应用中,可能会将结果发送到数据库或另一个Kafka主题)alertStream.print("Temperature Alert");averageTempStream.print("Average Temperature (5min)");// 执行Flink作业env.execute("Temperature Processing Job");} catch (Exception e) {e.printStackTrace();}}/*** 将JSON字符串转换为TemperatureReading对象*/private static class JsonToTemperatureReadingMapper implements MapFunction<String, TemperatureReading> {@Overridepublic TemperatureReading map(String json) throws Exception {// 在实际应用中需要使用Jackson或Gson进行JSON解析// 这里简化处理,实际项目中应添加完整的错误处理ObjectMapper mapper = new ObjectMapper();mapper.registerModule(new JavaTimeModule());return mapper.readValue(json, TemperatureReading.class);}}/*** 过滤高温数据*/private static class HighTemperatureFilter implements FilterFunction<TemperatureReading> {private final double threshold;public HighTemperatureFilter(double threshold) {this.threshold = threshold;}@Overridepublic boolean filter(TemperatureReading reading) {return reading.getTemperature() > threshold;}}/*** 将高温数据转换为警报*/private static class TemperatureAlertMapper implements MapFunction<TemperatureReading, TemperatureAlert> {@Overridepublic TemperatureAlert map(TemperatureReading reading) {return new TemperatureAlert(reading.getSensorId(),reading.getTemperature(),reading.getTimestamp(),"温度超过阈值!需要立即处理。");}}
}
创建警报模型类
package com.example.model;import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;import java.time.LocalDateTime;@Data
@NoArgsConstructor
@AllArgsConstructor
public class TemperatureAlert {private String sensorId; // 传感器IDprivate double temperature; // 温度值private LocalDateTime timestamp; // 时间戳private String message; // 警报消息
}
创建平均值计算函数
package com.example.function;import org.apache.flink.api.common.functions.AggregateFunction;/*** Flink聚合函数:计算温度平均值*/
public class AverageAggregateFunction implements AggregateFunction<Double, AverageAccumulator, Double> {/*** 创建累加器*/@Overridepublic AverageAccumulator createAccumulator() {return new AverageAccumulator(0.0, 0);}/*** 将元素添加到累加器*/@Overridepublic AverageAccumulator add(Double value, AverageAccumulator accumulator) {return new AverageAccumulator(accumulator.getSum() + value,accumulator.getCount() + 1);}/*** 获取聚合结果*/@Overridepublic Double getResult(AverageAccumulator accumulator) {if (accumulator.getCount() == 0) {return 0.0;}return accumulator.getSum() / accumulator.getCount();}/*** 合并两个累加器*/@Overridepublic AverageAccumulator merge(AverageAccumulator a, AverageAccumulator b) {return new AverageAccumulator(a.getSum() + b.getSum(),a.getCount() + b.getCount());}
}/*** 平均值计算的累加器*/
@Data
@AllArgsConstructor
class AverageAccumulator {private double sum; // 总和private int count; // 计数
}
5. 实战案例:实时温度监控系统
现在,我们已经完成了SpringBoot与Kafka和Flink的整合。接下来,让我们通过一个实际的用例来展示这个系统的工作流程。
系统架构
1、温度传感器(模拟)发送HTTP请求到SpringBoot应用
2、SpringBoot应用将数据发送到Kafka
3、Flink从Kafka读取数据并进行处理
4、生成警报和统计数据
运行应用
启动SpringBoot应用
使用curl或Postman发送测试数据
# 发送正常温度数据
curl -X POST http://localhost:8080/api/temperature \-H "Content-Type: application/json" \-d '{"sensorId": "sensor-001", "temperature": 25.5}'
# 发送高温数据(将触发警报)
curl -X POST http://localhost:8080/api/temperature \-H "Content-Type: application/json" \-d '{"sensorId": "sensor-001", "temperature": 32.7}'
数据流向
1、通过REST API接收温度数据
2、生产者服务将数据发送到Kafka的"temperature-data"主题
3、Flink作业从Kafka读取数据
4、Flink执行以下操作:
过滤高温数据并生成警报
计算5分钟窗口内的平均温度
5、结果输出到控制台(实际应用中可以写入数据库或另一个Kafka主题)
6. 常见问题及解决方案
1. 序列化问题
问题:Kafka消费者反序列化失败。
解决方案:确保正确配置了序列化器和反序列化器,并且模型类是可序列化的。如果使用JSON序列化,确保添加了spring.json.trusted.packages配置。
2. Flink作业启动失败
问题:Flink作业无法在SpringBoot启动时正确初始化。
解决方案:使用@PostConstruct注解确保Flink作业在所有bean初始化完成后启动,并使用适当的异常处理。
3. 消息丢失
问题:某些温度数据未被处理。
解决方案:
- 配置Kafka生产者确认设置(acks=all)
- 启用Flink检查点以确保容错性
- 使用适当的消费者组ID和偏移量重置策略
4. 性能问题
问题:系统处理大量数据时性能下降。
解决方案:
- 增加Kafka分区数量
- 调整Flink并行度
- 使用更高效的序列化格式(如Avro或Protobuf)
- 考虑使用键控流来实现数据分区和并行处理
相关文章:
SpringBoot整合Kafka、Flink实现流式处理
引言 在当今大数据处理领域,实时数据流处理变得越来越重要。Apache Kafka作为一个高吞吐量的分布式流处理平台,结合Apache Flink这一强大的流处理框架,可以构建出高效的实时数据处理系统。本文将指导您如何在SpringBoot应用中整合Kafka和Fli…...
互联网大厂Java求职面试:云原生与AI融合下的系统设计挑战-2
互联网大厂Java求职面试:云原生与AI融合下的系统设计挑战-2 第一轮提问:云原生架构选型与微服务治理 面试官(技术总监):郑薪苦,我们先从一个基础问题开始。你了解Spring Cloud和Kubernetes在微服务架构中…...
AI算力产业领域产品全景图:从硬件基础到应用场景
目录 1、硬件产品 2、 软件产品 3、云服务产品 4、边缘计算产品 5、AI应用产品 6、AI安全产品 7、AI合规产品 8、AI教培产品 9、AI研创产品 10、AI生态产品 在人工智能迅猛发展的今天,算力已成为推动AI技术进步与应用落地的核心驱动力。随着深度学习模型规模的不断膨…...
【优选算法 | 模拟】探索模拟算法: 编程与问题分析的双重 考验
算法相关知识点可以通过点击以下链接进行学习一起加油!双指针滑动窗口二分查找前缀和位运算 在本篇文章中,我们将深入解析模拟算法的原理。从基础概念到实际应用,带你了解如何通过模拟算法高效解决各种问题。无论你是刚接触算法的新手&#x…...
根据蓝牙名称自动匹配对应 UI
要实现“根据蓝牙名称自动匹配对应 UI”,并且支持未来不断增加的按摩椅型号和UI,推荐采用插件式UI注册自动路由的架构。下面是详细的可执行方案,适合你当前的 Flutter 项目结构: 1. 目录结构设计 假设每个按摩椅型号有独立的UI页…...
【25软考网工】第五章(7)路由协议、静态与默认路由、路由协议分类
目录 一、路由协议 1. 路由 2. 路由器工作原理 3. 查看路由表 4. IP路由查找的最长匹配原则 1)例题#最长匹配原则示例题 5. 应用案例 1)例题#路由优先级判断 2)例题#路由信息内容 3)例题#路由表迭代与静态路由 4&#…...
Rice Science∣武汉大学水稻研究团队发现水稻壁相关激酶OsWAKg16和OsWAKg52同时调控水稻抗病性和产量
近日,农学领域国际期刊Rice Science在线发表了武汉大学杂交水稻全国重点实验室范峰峰博士题为“Identification and Characterization of WAKg Genes Involved in Rice Disease Resistance and Yield”的研究论文。该论文系统分析了水稻壁相关激酶中包含半乳糖醛酸结…...
Spark,所用几个网页地址
hadoop的三大组成: 1. HDFS:存储。文件上传,下载 2. MapReduce:计算。词频统计,流量统计 3. YARN:调度 History Server网址:192.168.56.100:18080HDFS的NameNode网址:http://hadoop1…...
K8S PV 与 PVC 快速开始、入门实战
假设有如下三个节点的 K8S 集群: k8s31master 是控制节点 k8s31node1、k8s31node2 是工作节点 容器运行时是 containerd 一、什么是 PV 与 PVC 1.1、什么是 PV(PersistentVolume 持久卷) PV 是集群中由管理员配置的一段网络存储…...
5月6(信息差)
一、经济与贸易 中美关税谈判进展 美方近期多次主动向中方传递谈判信号,中方回应称“谈的大门始终敞开”,但强调美方需先取消单边加征关税等错误做法78。 美国第一季度GDP环比下降0.3%,为2022年第二季度以来新低,经济压力或推动其加快谈判进程78。 全球贸易政策变动 特朗普…...
购物|电商购物小程序|基于微信小程序的购物系统设计与实现(源码+数据库+文档)
电商购物小程序 目录 基于微信小程序的购物系统设计与实现 一、前言 二、系统功能设计 三、系统实现 1、用户前台功能实现 2、管理员后台功能实现 四、数据库设计 1、实体ER图 2、具体的表设计如下所示: 五、核心代码 六、论文参考 七、最新计算机毕设选题…...
基于k8s的Jenkins CI/CD平台部署实践(三):集成ArgoCD实现持续部署
基于k8s的Jenkins CI/CD平台部署实践(三):集成ArgoCD实现持续部署 文章目录 基于k8s的Jenkins CI/CD平台部署实践(三):集成ArgoCD实现持续部署一、Argocd简介二、安装Helm三、Helm安装ArgoCD实战1. 添加Arg…...
Python实例题:高德API+Python解决租房问题
目录 Python实例题 题目 python-amap-rental结合高德 API 和 Python 解决租房问题的脚本 代码解释 get_geocode 函数: search_rentals 函数: 主程序: 运行思路 注意事项 Python实例题 题目 高德APIPython解决租房问题 python-ama…...
WIN10 系统增加MYSQL环境变量示例
说明: 由于安装MYSQL需要添加到环境变量后才能启动运行,这里记录一下添加mysql环境变量的过程。 1、进入我的电脑-属性 2、找到高级设置 3、找到环境变量 4、找到PATH 5、双击进入后通过新建添加对应MYSQL的安装路径(.exe所在的bin路径&…...
NetApp SAS 连接线:铜缆与光缆的全面介绍
写在前面 NetApp 的磁盘扩展柜,主要是12GB的shelf,如DS212C,224C,460C等,这些shelf中间的互联或者控制器到shelf的连接都是通过12Gb的SAS线来连接的,以实现高速数据传输。SAS 连接线是这一过程中的核心组件。但是NetApp的SAS连接…...
CSS中的@import指令
一、什么是import指令? import 是CSS提供的一种引入外部样式表的方式,允许开发者在CSS文件中引入其他CSS文件,或者在HTML的<style>标签中引入外部样式。与常见的<link>标签相比,import 提供了一种更“CSS原生”的样式…...
tinyrenderer笔记(上)
tinyrenderer个人代码仓库:tinyrenderer个人练习代码参考笔记:从零构建光栅器,tinyrenderer笔记(上) - 知乎 第 1 课:Bresenham 画线算法 Bresenham 画线算法:Bresenham 直线算法 - 知乎 第一…...
VS2022 Qt配置Qxlsx
目录 1、下载QXlsx,并解压文件夹 编辑2、打开VS2022配置QXlsx 3、VS配置Qxslx库 方法一:常规方法 方法二:直接使用源码 方法三:将QXlsx添加到Qt安装目录(暂时尝试未成功) 1、下载QXlsx,…...
C++ 渗透 数据结构中的二叉搜索树
欢迎来到干货小仓库 "沙漠尽头必是绿洲。" --面对技术难题时,坚持终会看到希望。 1.二叉搜索树的概念 二叉搜索树又称二叉排序树,它或者是一颗空树,或者是具有以下性质的二叉树: a、若它的左子树不为空,则…...
JavaScript学习教程,从入门到精通,jQuery 单击页面显示自定义动画、元素删除操作、随机抽奖、随机选图并放大语法知识点(37)
jQuery 单击页面显示自定义动画、元素删除操作、随机抽奖、随机选图并放大语法知识点 1. jQuery 基础语法 1.1 引入 jQuery 在使用 jQuery 之前,需要先引入 jQuery 库。可以通过 CDN 引入,也可以下载到本地使用。 <!-- 通过 CDN 引入 jQuery -->…...
5.6 react组件化开发基础
react 组件开发基础 组件分类与组件使用 组件传参 父传子 【函数数据传值 实参 形参对应关系】 子传父 插槽 透传 useContext 上下文(作用域) 跨层级调用方法 通过子组件的实例对象useRef 直接调用子组件的方法 和数据 状态管理(非常多…...
react-14defaultValue(仅在首次渲染时生效)和value(受 React 状态控制)
在 React 中,defaultChecked/checked 和 defaultValue/value 是用于处理表单元素初始值和受控值的属性对。区别在于表单元素是否受 React 组件状态控制。 1. defaultValue 作用:设置表单元素的初始值(仅在首次渲染时生效)。特点…...
HarmonyOS 5.0 低时延音视频开发
大家好,我是 V 哥。 在HarmonyOS 5.0的开发中,支持低时延音视频开发,为了确保语法正确, V 哥以下代码符合HarmonyOS NEXT API 14的规范。为了方便初学者更好入门,V 哥伙同2位小伙伴花了1年时间,搞了三本鸿蒙…...
视频智能分析网关助力小区/住宅/街道智慧社区管理服务全面升级
一、引言 随着信息技术的飞速发展,智慧社区建设已成为提升居民生活质量、优化社区管理的重要趋势。智能分析网关作为智慧社区的核心技术支撑之一,凭借其强大的数据处理和智能分析能力,在社区的安防监控、人员车辆管理、环境卫生检测等多个…...
ShardingJdbc-水平分表
ShardingJdbc-水平分表 水平分表 表结构相同表数据记录不同多张分表记录数和才是总的记录数通常根据主键ID进行分表,这里采用奇偶策略 案例 建立库 sharding-demo建立表 user_1、user_2 表结构相同id 为主键,bigint 类型分表规则 id 为偶数的记录存储…...
AI应用爆发或将进入临界点
在科技发展的长河中,总有一些时刻如惊雷般震撼世界,预示着新时代的到来。如今,AI应用似乎正站在这样一个关键节点上,一场前所未有的变革风暴或许即将席卷而来,AI应用的爆发或将进入临界点。 当我们回顾科技发展的历程,不难发现每一次重大的技术突破都曾引发社会的巨大变…...
Javase 基础加强 —— 05 Map集合
本系列为笔者学习Javase的课堂笔记,视频资源为B站黑马程序员出品的《黑马程序员JavaAI智能辅助编程全套视频教程,java零基础入门到大牛一套通关》,章节分布参考视频教程,为同样学习Javase系列课程的同学们提供参考。 01 概述 Ma…...
LINUX——例行性工作
单一执行的例行性工作 仅处理一次的工作,可用于在特定时间执行工作 at命令的工作过程: at命令使用时的权限控制:通过两个文件/etc/at.allow和/etc/at.deny来控制哪些用户可以使用at命令。如果这两个文件都不存在,那么只有root用户…...
天线测试报告解读学习
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、无源测试和有源测试二、无源测试报告1.驻波2.回损3.史密斯圆图4.效率5.增益6.天线方向图7.天线隔离度8.无源测试总结 三、有源测试报告1.TRP与TIS2.测试指标…...
Kotlin Android开发过渡指南
为了帮助Java开发者顺利过渡到Kotlin进行Android开发,以下是一本指南的详细大纲设计,涵盖关键知识点、迁移策略和实践案例: 《Kotlin for Android开发:从Java到Kotlin的平滑过渡指南》大纲 第一部分:为什么选择Kotlin? Kotlin的优势 简洁性、安全性、与Java的互操作性Go…...
Hadoop架构再探讨
文章目录 1.Hadoop的优化与发展1.1Hadoop的局限与不足1.2针对Hadoop的改进与提升 2.HDFS2.0新特性2.1HDFS HA1.HDFS 1.0 组件及功能回顾2. HDFS 1.0 的单点故障问题3. HDFS HA(高可用)解决方案 2.2HDFS Federation1.HDFS1.0中存在的问题2.HDFS Fed…...
ffmpeg录音测试
ffmpeg ffmpeg 是一个强大的多媒体处理工具,可以用于录音、音频处理、视频录制等多种功能。以下是使用 ffmpeg 进行录音的详细指令和参数说明。 基本录音指令 以下是一个简单的 ffmpeg 录音命令,将音频录制为 WAV 格式文件: ffmpeg -f …...
Kotlin-解构声明
我们在使用对象时可能需要访问它们内部的一些属性: class Student(var name: String, var age: Int) fun main() {val student Student("小明", 18)println(student.name)println(student.age) }这样看起来不太优雅,我们可以像下面这样编写: class Student(var na…...
【MCP Node.js SDK 全栈进阶指南】专家篇(2):MCP多模型支持架构
引言 在实际应用中,单一模型往往难以满足所有业务需求,这就需要一种灵活的架构来支持多模型集成和智能调度。Model Context Protocol (MCP) 作为连接应用与AI模型的标准协议,为多模型支持提供了理想的基础架构。 本文作将深入探讨如何基于MCP构建多模型支持架构,包括多LL…...
使用阿里AI的API接口实现图片内容提取功能
参考链接地址:如何使用Qwen-VL模型_大模型服务平台百炼(Model Studio)-阿里云帮助中心 在windows下,使用python语言测试,版本:Python 3.8.9 一. 使用QVQ模型解决图片数学难题 import os import base64 import requests# base 64 …...
mapbox基础,加载Fog云雾效果
👨⚕️ 主页: gis分享者 👨⚕️ 感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨⚕️ 收录于专栏:mapbox 从入门到精通 文章目录 一、🍀前言1.1 ☘️mapboxgl.Map 地图对象1.2 ☘️mapboxgl.Map style属性1.3 ☘️fog 云雾 api1.3.1 ☘️配置项二、🍀…...
数据可视化与分析
数据可视化的目的是为了数据分析,而非仅仅是数据的图形化展示。 项目介绍 项目案例为电商双11美妆数据分析,分析品牌销售量、性价比等。 数据集包括更新日期、ID、title、品牌名、克数容量、价格、销售数量、评论数量、店名等信息。 1、数据初步了解…...
git的push.default配置详解
Git的push.default配置用于定义执行git push时未指定远程和分支的默认行为。以下是各选项的详解及使用场景: 1. simple(默认值,Git ≥2.0) 行为:仅推送当前分支到与其关联的上游分支(即remote-tracked分支…...
高频电流探头:通信测试中的隐形守护者
在5G基站调试现场,工程师李工正手持一个火柴盒大小的装置贴近电路板,示波器屏幕上瞬间显示出精确的电流波形——这个看似普通的场景,背后折射出高频电流探头在通信测试中的关键作用。随着通信技术迈入毫米波时代,这类精密测试工具…...
淘宝拍立淘 API 接口探秘:如何通过图片挖掘海量商品信息
在互联网技术飞速发展的当下,传统的文字搜索商品方式已无法完全满足用户日益增长的个性化需求。基于图像识别技术的以图搜物模式应运而生,成为电商行业的新宠。淘宝拍立淘 API 接口作为这一技术的重要载体,能够帮助开发者和企业通过一张图片&…...
第二章:langchain文本向量化(embed)搭建与详细教程-本地服务方式(下)
文章目录 前言一、本地构建模型与服务端搭建代码1、完整代码2、结果示例 二、基于flask服务端构建langchain调用的向量方法代码1、完整代码2、结果示例 总结 前言 在上篇文章介绍了langchain源码embed方法与基于api key方式构建向量模型。然而,某些情况,…...
飞牛云如何开启及使用ssh:小白用户上手指南-家庭云计算专家
最近很多用户希望提供飞牛云下的可道云onlyoffice的安装服务,但是很多都是萌新小白,不知道怎么启用ssh和使用ssh客户端.这里提供简单的方法,统一答复: 重要的事情说3遍:一定不要自己发挥,全部按说明的来;一定要在内网环境用内网ip访问;不要用域名和端口号,谢谢各位萌新了!!! 一…...
12.模方ModelFun工具-立面修整
摘要:本文主要介绍模方ModelFun修模工具——立面修整的操作方法。 点击工具栏即可找到立面修整工具,点击可打开并使用该工具,如下图: 图 工具菜单栏 (1)截面绘制: 快速绘制竖直矩形࿱…...
消失的两个数字 --- 位运算
目录 一:题目 二:算法原理 三:代码实现 一:题目 题目链接:面试题 17.19. 消失的两个数字 - 力扣(LeetCode) 二:算法原理 只出现一次的数字III:常见位运算总结-CSDN…...
centos的根目录占了大量空间怎么办
问题 当根目录磁盘不够时,就必须删除无用的文件了 上面的,如果删除/usr 或/var是可以释放出系统盘的 定位占空间大的文件 经过命令,一层层查哪些是占磁盘的。 du -sh /* | sort -rh | head -n 10 最终排查,是有个系统日志占了20…...
Protobuf的速成之旅
注意事项:本文使用Linux下的Ubuntu C/C 一.Protobuf的安装 在安装Protobuf前需要先安装protobuf的依赖库 sudo apt-get install autoconf automake libtool curl make g unzip -y Protobuf的安装链接:https://github.com/protocolbuffers/protobuf/releases 这里根据自己的环…...
使用 Python 监控系统资源
使用 Python 监控系统资源 在开发分布式系统或性能敏感的应用时,实时监控系统资源(如 CPU、内存、磁盘、网络和 GPU 使用率)至关重要。本文介绍一个基于 Python 的 SystemMonitor 类,它以单例模式持续采集系统资源信息࿰…...
【Qt4】Qt4中实现PDF预览
方案一: 在Qt4中预览PDF文件,你可以使用多种方法,但最常见和简单的方法之一是使用第三方库。Qt本身并没有内置直接支持PDF预览的功能,但你可以通过集成如Poppler、MuPDF等库来实现这一功能。下面我将展示如何使用Poppler库在Qt4中…...
从试错到智能决策:Python与强化学习优化自动驾驶策略
从试错到智能决策:Python与强化学习优化自动驾驶策略 一、引言:自动驾驶如何更聪明? 自动驾驶技术的发展,已经从简单的感知与规则控制,迈向更加智能化的强化学习(Reinforcement Learning,RL)决策优化时代。过去,自动驾驶更多依赖 传统算法(如A、Dijkstra路径规划)…...
【免费下载】全国范围的城市用地类型数据
该数据以路网及水系切分得到的交通小区为最小地块,并基于卫星影像、夜间灯光数据、POI数据、手机信令数据对地块进行分类。 需要这份数据,请在文末查看下载方法。 一、数据介绍 该数据的用地类型可分为居住用地、商务办公用地、商业服务用地、工业用地…...