当前位置: 首页 > news >正文

2022年全国职业院校技能大赛 高职组 “大数据技术与应用” 赛项赛卷(10卷)任务书

2022年全国职业院校技能大赛 高职组 “大数据技术与应用” 赛项赛卷(10卷)任务书

    • 模块A:大数据平台搭建(容器环境)(15分)
        • 任务一:Hadoop 伪分布式安装配置
        • 任务二:Flume安装配置
        • 任务三:Hive安装配置
    • 模块B:离线数据处理(25分)
        • 任务一:数据抽取
        • 任务二:数据清洗
        • 任务三:指标计算
    • 模块C:数据挖掘(10分)
        • 任务一:特征工程
        • 任务二:报警预测
    • 模块D:数据采集与实时计算(20分)
        • 任务一:实时数据采集
        • 任务二:使用Flink处理Kafka中的数据
    • 模块E:数据可视化(15分)
        • 任务一:用饼状图展示某设备当天各状态时间
        • 任务二:用柱状图展示各车间设备每月平均运行时长
        • 任务三:用折线图展示机器运行时长
        • 任务四:用散点图展示PM2.5浓度变化
        • 任务五:用条形图展示各机器每日产量
        • 任务六:用折柱混合图展示机器日均产量和车间平均产量
    • 模块F:综合分析(10分)
        • 任务一:HDFS存储小文件问题
        • 任务二:如何解决数据倾斜问题
        • 任务三:简要描述任务过程中的问题并进行总结
    • 需要培训私信博主,资源环境也可以(包拿奖)!!

模块A:大数据平台搭建(容器环境)(15分)

环境说明:
服务端登录地址详见各模块服务端说明。
补充说明:宿主机可通过Asbru工具或SSH客户端进行SSH访问;
相关软件安装包在宿主机的/opt目录下,请选择对应的安装包进行安装,用不到的可忽略;
所有模块中应用命令必须采用绝对路径;
从本地仓库中拉取镜像,并启动3个容器
进入Master节点的方式为
docker exec –it master /bin/bash
进入Slave1节点的方式为
docker exec –it slave1 /bin/bash
进入Slave2节点的方式为
docker exec –it slave2 /bin/bash
同时将/opt目录下的所有安装包移动到3个容器节点中。

任务一:Hadoop 伪分布式安装配置

本环节需要使用root用户完成相关配置,安装Hadoop需要配置前置环境。命令中要求使用绝对路径,具体要求如下:
1、将Master节点JDK安装包解压并移动到/usr/java路径(若路径不存在,则需新建),将命令复制并粘贴至对应报告中;
2、修改/root/profile文件,设置JDK环境变量,配置完毕后在Master节点分别执行“java”和“javac”命令,将命令行执行结果分别截图并粘贴至对应报告中;
3、请完成host相关配置,将节点命名为master,并做免密登录,将全部命令复制并粘贴至对应报告中;
4、修改Hadoop环境变量,并将(/etc/profile)配置文件内容复制粘贴至对应报告中;
5、在主机Master上将Hadoop解压到/opt目录下,配置好相关文件(并要求namenode的web端访问端口配置为15887,配置指定MapReduce程序运行在Yarn上,指定ResourceManager的地址为伪分布式部署所在主机),将全部命令以及配置文件内容复制并粘贴至对应报告中;
6、初始化Hadoop环境namenode,将初始化命令及初始化结果复制粘贴至对应报告中;
7、启动Hadoop,查看节点jps进程,将查看结果复制粘贴至对应报告中。

任务二:Flume安装配置

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体要求如下:
1、设置Flume环境变量,并使环境变量只对当前root用户生效,将变量内容复制并粘贴至对应报告中;
2、修改并配置flume-env.sh文件,将修改内容复制并粘贴至对应报告中;
3、复制Flume启动的配置文件flume-conf.properties.template并命名为conf-file,修改其中内容,监控Hadoop的namenode日志,传输到HDFS的是/tmp/flume目录,将conf-file中的修改内容复制并粘贴至对应报告中;
4、启动Flume传输Hadoop日志,查看HDFS中/tmp/flume目录下生成的文件,将查看命令及结果(至少10条结果)复制并粘贴至对应报告中。

任务三:Hive安装配置

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体要求如下:
1、将Master节点Hive安装包解压到/opt目录下,将完整命令复制粘贴至对应报告中;
2、把解压后的apache-hive-1.2.2-bin文件夹更名为hive;进入hive文件夹使用ls进行查看,将完整命令复制粘贴至对应报告中;
3、设置Hive环境变量,并使环境变量只对当前root用户生效;并将环境变量配置内容复制并粘贴至对应报告中;
4、将Hive安装目录里hive-default.xml.template文件更名为hive-site.xml;将完整命令复制粘贴至对应报告中;
5、修改hive-site.xml配置文件,将MySQL数据库作为Hive元数据库。将配置文件中配置Hive元存储的相关内容复制并粘贴至对应报告中;
6、初始化Hive元数据,将MySQL数据库JDBC驱动拷贝到Hive安装目录的lib文件夹下;并通过schematool相关命令执行初始化,将初始化结果复制粘贴至对应报告中;
7、完善其他配置并启动Hive,将命令行输出结果复制粘贴至对应报告中。

模块B:离线数据处理(25分)

环境说明:
服务端登录地址详见各模块服务端说明。
补充说明:各主机可通过Asbru工具或SSH客户端进行SSH访问;
Master节点MySQL数据库用户名/密码:root/123456(已配置远程连接);
Hive的元数据启动命令为:
nohup hive --service metastore &
Hive的配置文件位于/opt/apache-hive-2.3.4-bin/conf/
Spark任务在Yarn上用Client运行,方便观察日志。

任务一:数据抽取

编写Sqoop脚本,将MySQL库中表EnvironmentData,ChangeRecord,Basemachine,MachineData, ProduceRecord,BaseEmployee全量抽取到Hive的ods库中对应表EnvironmentData,ChangeRecord,Basemachine, MachineData, ProduceRecord,BaseEmployee中。
1、抽取MySQL的shtd_store库中EnvironmentData表的全量数据进入Hive的ods库中表EnvironmentData,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.EnvironmentData命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中;
2、抽取MySQL的shtd_store库中ChangeRecord表的全量数据进入Hive的ods库中表ChangeRecord,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.ChangeRecord命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中;
3、抽取MySQL的shtd_store库中Basemachine表的全量数据进入Hive的ods库中表Basemachine,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.Basemachine命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中;
4、抽取MySQL的shtd_store库中ProduceRecord表的全量数据进入Hive的ods库中表ProduceRecord,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.ProduceRecord命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中;
5、抽取MySQL的shtd_store库中MachineData表的全量数据进入Hive的ods库中表MachineData,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.ProduceRecord命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中;
6、抽取MySQL的shtd_store库中BaseEmployee表的全量数据进入Hive的ods库中表BaseEmployee,字段排序、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。并在hive cli执行show partitions ods.ProduceRecord命令,然后查询展示5行数据,将Sqoop提交命令及hive cli的执行结果分别截图复制粘贴至对应报告中。

任务二:数据清洗

编写Scala工程代码,将ods库中相应表数据全量抽取到Hive的dwd库中对应表中。表中有涉及到timestamp类型的,均要求按照yyyy-MM-dd HH:mm:ss,不记录毫秒数,若原数据中只有年月日,则在时分秒的位置添加00:00:00,添加之后使其符合yyyy-MM-dd HH:mm:ss。
1、抽取ods库中EnvironmentData的全量数据进入Hive的dwd库中表fact_environment_data,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。并在hive cli执行desc dwd.fact_environment_data命令,将结果内容复制粘贴至对应报告中;
2、抽取ods库中ChangeRecord的全量数据进入Hive的dwd库中表fact_change_record,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。并在hive cli执行desc dwd.fact_change_record命令,将结果内容复制粘贴至对应报告中;
3、抽取ods库中Basemachine的全量数据进入Hive的dwd库中表dim_machine,抽取数据之前需要对数据根据BaseMachineID进行去重处理。分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。在hive cli中按照Base_machine顺序排序,查询dim_machine前2条数据,将结果内容复制粘贴至对应报告中;
4、抽取ods库中ProduceRecord的全量数据进入Hive的dwd库中表fact_produce_record,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。在hive cli中按照produce_machine_id顺序排序,查询fact_produce_record前2条数据,将结果内容复制粘贴至对应报告中;
5、(该表要求使用Java编写MR代码实现)抽取ods库中MachineData的全量数据进入Hive的dwd库中表fact_machine_data。分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。并在hive cli执行show partitions dwd. fact_machine_data命令,将结果内容和MR的Diver类代码复制粘贴至对应报告中;
6、(该表要求使用Java编写MR代码实现)抽取ods库中BaseEmployee的全量数据进入Hive的dwd库中表dim_employee。分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写操作时间,并进行数据类型转换。并在hive cli执行show partitions dwd. fact_machine_data命令,将结果内容和MR的Diver类代码复制粘贴至对应报告中。

任务三:指标计算

1、编写Hive SQL代码,根据dwd层dwd.fact_machine_data表联合dwd.dim_machine表统计出每个车间、每台设备、每天状态为“运行”的时长,将统计结果最长的两台设备信息写入DWS层的dws.machine_data_top2_day_aggr表(表结构如下)中,然后在Linux的MySQL命令行中根据车间号倒序查询5条数据,将SQL语句与执行结果截图粘贴至对应报告中;

在这里插入图片描述
2、编写Hive SQL代码,根据DWS层的dws.machine_data_top2_day_aggr表联合dwd.dim_employee表、dwd.dim_machine表,统计每个月,各设备负责员(MachineResponsEmpID)所负责的设备中运行时长最长的设备,将计算结果存入MySQL数据库shtd_store的emplongestmachine表(表结构如下)中,然后在Linux的MySQL命令行中根据月份、设备负责人员、设备id倒序排序,查询出前5条数据,将SQL语句与执行结果截图粘贴至对应报告中;

在这里插入图片描述
3、编写Scala工程代码,根据dwd层dwd.fact_environment_data表,统计检测设备(BaseID)每日的PM10的检测平均浓度,然后将每个设备的平均浓度与厂内所有检测设备每日检测结果的平均浓度做比较(结果值为:高/低/相同)存入MySQL数据库shtd_store的表MachineRunningCompare(表结构如下)中,然后在Linux的MySQL命令行中根据检测设备ID倒序排序,查询出前5条,将SQL语句与执行结果截图粘贴至对应报告中。
在这里插入图片描述

模块C:数据挖掘(10分)

环境说明:
服务端登录地址详见各模块服务端说明。
补充说明:各主机可通过Asbru工具或SSH客户端进行SSH访问;
Master节点MySQL数据库用户名/密码:root/123456(已配置远程连接);
Hive的元数据启动命令为:
nohup hive --service metastore &
Hive的配置文件位于/opt/apache-hive-2.3.4-bin/conf/
Spark任务在Yarn上用Client运行,方便观察日志。
该模块均使用Scala编写,利用Spark相关库完成。

任务一:特征工程

1、根据dwd库中fact_machine_data表,根据以下要求转换: 获取最大分区的数据后,首先解析列get_xmldata中的数据(数据格式为xml,采用dom4j解析,会给出解析demo),并获取 主轴转速,主轴倍率,主轴负载,进给倍率,进给速度,PMC程序号,循环时间,运行时间,有效轴数,总加工个数,已使用内存,未使用内存,可用程序量,注册程序量等相关的值,同时转换machine_record_stat字段的值,若值为报警,则填写1,否则填写0,以下为表结构,将数据保存在dwd.fact_machine_learning_data,在hive cli中按照machine_record_id顺序排序,查询dwd.fact_machine_learning_data前1条数据,将结果内容复制粘贴至对应报告中。
dwd.fact_machine_learning_data表结构:

在这里插入图片描述

任务二:报警预测

1、根据任务一的结果,建立随机森林(随机森林相关参数考生可自定义,不做限制),使用任务一的结果训练随机森林模型,然后再将hive中dwd.fact_machine_learning_data_test(表结构与dwd.fact_machine_learning_data一致,但machine_record_state列值为空)转成向量,预测其是否报警将结果输出到mysql库shtd_industry中的ml_result表中。在Linux的MySQL命令行中查询出所有数据并按照machine_record_id顺序排序,将SQL语句与执行结果截图粘贴至对应报告中。
ml_result表结构:

在这里插入图片描述

模块D:数据采集与实时计算(20分)

环境说明:
服务端登录地址详见各模块服务端说明。
补充说明:各主机可通过Asbru工具或SSH客户端进行SSH访问;
请先检查ZooKeeper、Kafka、Redis端口看是否已启动,若未启动则各启动命令如下:
ZK启动(netstat -ntlp查看2181端口是否打开)
/usr/zk/zookeeper-3.4.6/bin/zkServer.sh start
Redis启动(netstat -ntlp查看6379端口是否打开)
/usr/redis/bin/redis-server /usr/redis/bin/redis.conf
Kafka启动(netstat -ntlp查看9092端口是否打开)
/opt/kafka/kafka_2.11-2.0.0/bin/kafka-server-start.sh -daemon(空格连接下一行)/opt/kafka/kafka_2.11-2.0.0/config/server.properties
Flink任务在Yarn上用per job模式(即Job分离模式,不采用Session模式),方便Yarn回收资源。

任务一:实时数据采集

1、在Master节点使用Flume采集/data_log目录下实时日志文件中的数据,将数据存入到Kafka的Topic中(topic名称分别为ChangeRecord和EnvironmentData,分区数为4),将Flume的配置截图粘贴至对应报告中;
2、Flume接收数据注入kafka 的同时,将数据备份到HDFS目录/user/test/flumebackup下,将备份结果截图粘贴至对应报告中。

任务二:使用Flink处理Kafka中的数据

编写Scala工程代码,使用Flink消费Kafka中Topic为ChangeRecord及EnvironmentData的数据并进行相应的数据统计计算。
1、使用Flink消费Kafka中EnvironmentData主题的数据,监控各环境检测设备数据,当温度(Temperature字段)持续10分钟高于39度时记录为预警数据(设备id,温度,预警时间),将该环境检测设备的预警数据写入Mysql表envtemperaturealarm中,然后在Linux的MySQL命令行中根据MachineID逆序排序,查询出前3条,将SQL语句与执行结果截图粘贴至对应报告中;
2、使用Flink消费Kafka中ChangeRecord主题的数据,每隔10分钟输出最近2小时内各车间运行时间最长的前两台设备,数据输出到MySQL表runlongestmachine表(表结构如下)中,然后在Linux的MySQL命令行中根据车间号正序查询前5条数据,此查询操作共做两次,间隔大于10分钟,将SQL语句与两次的执行结果截图粘贴至对应报告中;

在这里插入图片描述

3、使用Flink消费Kafka中ChangeRecord主题的数据,统计每个设备状态信息,当某设备的状态在24小时内连续三小时为“预警”状态没有改变,则将该设备的状态数据写入MySql表recordstatealarm中,然后在Linux的MySQL命令行中根据MachineID逆序排序,查询出前3条,将SQL语句与执行结果截图粘贴至对应报告中。

模块E:数据可视化(15分)

环境说明:
数据接口地址及接口描述详见各模块服务端说明。

任务一:用饼状图展示某设备当天各状态时间

编写Vue工程代码,根据接口,用饼状图展示某日该设备的各个状态的运行时长占比,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

任务二:用柱状图展示各车间设备每月平均运行时长

编写Vue工程代码,根据接口,用柱状图展示各车间设备每月平均运行时长,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

任务三:用折线图展示机器运行时长

编写Vue工程代码,根据接口,用折线图展示某机器在某一周的运行时长,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

任务四:用散点图展示PM2.5浓度变化

编写Vue工程代码,根据接口,用散点图展示设备所处环境的PM2.5浓度的变化,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

任务五:用条形图展示各机器每日产量

编写Vue工程代码,根据接口,用柱状图展示某机器在某天机器的产量,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

任务六:用折柱混合图展示机器日均产量和车间平均产量

编写Vue工程代码,根据接口,用折柱状图展示某机器在某月的日均产量和车间的月均产量,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图并粘贴至对应报告中。

模块F:综合分析(10分)

任务一:HDFS存储小文件问题

在HDFS数据存储是常常遇到小文件问题,小文件带来的危害有哪些?你知道的解决小文件问题的方法有哪些?将内容编写至对应报告中。

任务二:如何解决数据倾斜问题

当使用Spark产生了数据倾斜的情况时,请问有哪些方法可以解决这个问题呢?将内容编写至对应报告中。

任务三:简要描述任务过程中的问题并进行总结

将内容编写至对应报告中。

需要培训私信博主,资源环境也可以(包拿奖)!!

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

相关文章:

2022年全国职业院校技能大赛 高职组 “大数据技术与应用” 赛项赛卷(10卷)任务书

2022年全国职业院校技能大赛 高职组 “大数据技术与应用” 赛项赛卷(10卷)任务书 模块A:大数据平台搭建(容器环境)(15分)任务一:Hadoop 伪分布式安装配置任务二:Flume安装…...

Redis—内存淘汰策略

记:全体LRU,ttl LRU,全体LFU,ttl LFU,全体随机,ttl随机,最快过期,不淘汰(八种) Redis 实现的是一种近似 LRU 算法,目的是为了更好的节约内存&…...

新能源汽车可视化大屏系统毕业设计

以下是一个基于Python和Flask框架的新能源汽车可视化大屏系统后台代码示例。这个系统提供API接口用于前端大屏展示新能源汽车相关数据。 主应用文件 (app.py) python from flask import Flask, jsonify, request from flask_cors import CORS import random from datetime imp…...

02-keil5的配置和使用

一、创建工程 1、在菜单栏”Project”,在弹出的下拉菜单,选择“New uVision Project”。 2、在弹出的对话框,填写工程的名字,例如工程名字为project。 3、为保存的工程,选择对应的芯片。 4、为当前工程,添…...

电脑硬盘丢失怎么找回?解决硬盘数据恢复的2种方法

无论是个人用户还是企业用户来讲,存储在磁盘中的文档、图片、视频、音频等数据都具有相当的价值。但在日常使用过程中,误删操作、病毒攻击、硬件故障等情况都可能造成电脑硬盘突然消失不见数据丢失。面对电脑硬盘丢失这类问题时,采取正确的应…...

【Spring】依赖注入的方式:构造方法、setter注入、字段注入

在Spring框架中,除了构造器注入(Constructor Injection)和Setter注入(Setter Injection),还有一种依赖注入方式:字段注入(Field Injection)。字段注入通过在Bean的字段上…...

涨薪技术|0到1学会性能测试第22课-关联函数web_reg_save_param_ex

前面的推文我们掌握了性能测试脚本开发3种常见的关联技术,今天开始给大家分享关联函数web_reg_save_param_ex,后续文章都会系统分享干货! LoadRunner最新版本中,使用的关联函数为web_reg_save_param_ex,以前的版本使用的关联函数为web_reg_save_param,但这两个函数实质差…...

Vue 的数据代理机制

2025/4/22 向 一、什么是数据代理机制 通过访问代理对象的属性&#xff0c;来间接访问目标对象的属性&#xff0c;数据代理机制的实现需要依赖Object.defineProperty()方法。 如下所示&#xff1a; <!DOCTYPE html> <html lang"en"> <head><…...

Android-KeyStore安全的存储系统

​ 在 Android 中&#xff0c;AndroidKeyStore 是一个安全的存储系统&#xff0c;用于存储加密密钥。它提供了一种安全的方式来生成、存储和管理密钥&#xff0c;而无需将密钥暴露给应用程序本身。以下是如何使用 AndroidKeyStore 的基本步骤和示例代码。 检查 AndroidKeyStor…...

部署私有gitlab网站

以下是建立私有 GitLab 代码版本维护平台的完整步骤&#xff0c;涵盖环境准备、安装配置、初始化及日常管理&#xff0c;适用于企业/团队内部代码托管&#xff1a; 一、环境准备 1. 服务器要求&#xff08;最低配置&#xff09; 用途CPU内存存储系统要求小型团队&#xff08…...

(区间 dp)洛谷 P6879 JOI2020 Collecting Stamps 3 题解

题意 给定一个周长为 L L L 的圆&#xff0c;从一个点出发&#xff0c;有 N N N 个黑白熊雕像&#xff0c;编号为 1 1 1 到 N N N&#xff0c;第 i i i 个雕像在顺时针 X i X_i Xi​ 米处&#xff0c;如果你没有在 T i T_i Ti​ 秒内收集到这个黑白熊雕像&#xff0c;那…...

AtCoder 第402场初级竞赛 A~E题解

A CBC 【题目链接】 原题链接:A - CBC 【考点】 枚举 【题目大意】 找出所有的大写字母 【解析】 遍历字符串,判断是否为大写字母,如果是则输出。 【难度】 GESP二级 【代码参考】 #include <bits/stdc++.h> using namespace std;int main() {string s;ci…...

驱动开发硬核特训 · Day 17:深入掌握中断机制与驱动开发中的应用实战

&#x1f3a5; 视频教程请关注 B 站&#xff1a;“嵌入式 Jerry” 一、前言 在嵌入式驱动开发中&#xff0c;“中断”几乎无处不在。无论是 GPIO 按键、串口通信、网络设备&#xff0c;还是 SoC 上的各种控制器&#xff0c;中断都扮演着核心触发机制的角色。对中断机制掌握程度…...

深入理解依赖、Jar 包与 War 包:Java 开发基石探秘

一、引言 在 Java 开发的广袤天地里&#xff0c;依赖管理如同建筑的基石&#xff0c;默默支撑着项目的稳定构建与运行。而 Jar 包和 War 包&#xff0c;作为 Java 应用的常见打包形式&#xff0c;各自承载着不同的使命。本文将深入探讨依赖的重要性&#xff0c;并清晰解说 Jar…...

01.Python代码Pandas是什么?pandas的简介

01.Python代码Pandas是什么&#xff1f;pandas的简介 提示&#xff1a;帮帮志会陆续更新非常多的IT技术知识&#xff0c;希望分享的内容对您有用。本章分享的是pandas的使用语法。前后每一小节的内容是存在的有&#xff1a;学习and理解的关联性&#xff0c;希望对您有用~ pyth…...

国产紫光同创FPGA实现SDI视频编解码+图像缩放,基于HSSTHP高速接口,提供2套工程源码和技术支持

目录 1、前言工程概述免责声明 2、相关方案推荐我已有的所有工程源码总目录----方便你快速找到自己喜欢的项目本博已有的 SDI 编解码方案本方案在Xilinx--Artix7系列FPGA上的应用本方案在Xilinx--Kintex系列FPGA上的应用本方案在Xilinx--Zynq系列FPGA上的应用本方案在Xilinx--U…...

25.4.22学习总结

如何通过好友列表对聊天框的切换 首先&#xff0c;我们知道&#xff0c;你的好友列表是用ListView组件实现的&#xff0c;那么&#xff0c;接下来&#xff0c;我们将开始讲解如何实现切换。 一、改造数据结构 如果你是跟着我的上一篇文章做的话&#xff0c;应该需要修改一些的…...

Agent智能体ReAct机制深度解读:推理与行动的完美闭环

一、从Chain-of-Thought到ReAct的范式演进 1.1 传统决策机制的局限 #mermaid-svg-Jf3ygvgHcGciJvX8 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-Jf3ygvgHcGciJvX8 .error-icon{fill:#552222;}#mermaid-svg-Jf3y…...

UnityDots学习(四)

官方案例HelloCube和Tank学习研究&#xff1a; HelloCube: 通用部分&#xff1a; 使用Authoring根据Inspector的勾选添加为Entity添加不同Component。然后每个System会根据实体添加的Component运行不同的System逻辑。 1. MainThread 简单构造System 先看System接口定义&am…...

Debian 12.10 root 登录失败,两步解决!

大家好&#xff0c;这里是 DBA学习之路&#xff0c;专注于提升数据库运维效率。 前言 今天看到 debian 正式发布 12.10&#xff0c;安装完成后发现无法登录 root 用户&#xff1a; 这里我一开始怀疑是 root 密码错了&#xff0c;所以改了一下 root 密码&#xff0c;忘记 root …...

AI大模型:(二)2.3 预训练自己的模型

目录 1.预训练原理 2.预训练范式 1.未标注数据 2.标注数据 3.有正确答案、也有错误答案 3.手撕transform模型 3.1.transform模型代码 3.2.训练数据集 3.3.预训练 3.4.推理 4.如何选择模型 5.如何确定模型需要哪种训练 大模型预训练(Large-scale Pre-training…...

【C语言】初阶算法相关习题(一)

个人主页 文章目录 ⭐一、数字在升序数组中出现的次数&#x1f3e0;二、整数转换&#x1f680;三、至少是其他数字两倍的最大数&#x1f3dd;️四、字符个数的统计&#x1f384;五、自除数&#x1f3a1;六、除自身以外数组的乘积&#x1f389;七、两个数组的交集 ⭐一、数字在…...

WITH 临时表 SQL优化

在 SQL 优化中&#xff0c; 临时表&#xff08;CTE&#xff0c;Common Table Expression&#xff0c;公共表表达式&#xff09; 是一种强大的工具&#xff0c;它通过定义一个临时的结果集&#xff08;可以理解为 “虚拟表”&#xff09;&#xff0c;让复杂查询更易读、更高效&a…...

Go语言中 defer 使用场景及深度注意事项指南

文章精选推荐 1 JetBrains Ai assistant 编程工具让你的工作效率翻倍 2 Extra Icons&#xff1a;JetBrains IDE的图标增强神器 3 IDEA插件推荐-SequenceDiagram&#xff0c;自动生成时序图 4 BashSupport Pro 这个ides插件主要是用来干嘛的 &#xff1f; 5 IDEA必装的插件&…...

第33周JavaSpringCloud微服务 面试题

一、项目面试 面试中介绍项目的方法 在面试过程中&#xff0c;若被问及相关项目&#xff0c;为提升通过几率&#xff0c;应着重介绍项目的功能点和架构升级内容。确保将项目的亮点讲透讲精彩&#xff0c;这对获取 offer 至关重要。 1. 项目架构 项目整体架构概述 项目整体…...

鸿蒙开发:Swiper轮播图

鸿蒙Swiper组件详解 一、Swiper组件概述 Swiper是鸿蒙(HarmonyOS)系统中提供的一个滑动容器组件&#xff0c;它允许用户通过手指滑动来切换子组件&#xff08;通常是页面或图片&#xff09;&#xff0c;实现轮播图、引导页、图片浏览器等常见UI效果。 说明 该组件从API versi…...

Go语言之sync包 WaitGroup的使用和底层实现

在 Go 语言里&#xff0c;sync 包中的 WaitGroup 是一个实用工具&#xff0c;用于等待一组 goroutine 完成任务。其核心原理是通过内部维护一个计数器&#xff0c;该计数器初始值为 0&#xff0c;每启动一个新的 goroutine 就将计数器加 1&#xff0c;每个 goroutine 完成任务后…...

7N60-ASEMI无人机专用功率器件7N60

编辑&#xff1a;LL 7N60-ASEMI无人机专用功率器件7N60 型号&#xff1a;7N60 品牌&#xff1a;ASEMI 封装&#xff1a;TO-220F 最大漏源电流&#xff1a;7A 漏源击穿电压&#xff1a;600V 批号&#xff1a;最新 RDS&#xff08;ON&#xff09;Max&#xff1a;1.20Ω …...

SystemV-消息队列与责任链模式

一、SystemV 消息队列 1. 消息队列API Ftok 函数定义&#xff1a; key_t ftok(const char *pathname, int proj_id);函数作用&#xff1a; 获取唯一的key值标识符&#xff0c;用于标识系统V消息队列。参数解释&#xff1a; pathname&#xff1a;有效的文件路径&#xff08;需…...

Ubuntu与Linux的关系

Linux 是一个 操作系统内核。它是一个类 Unix 系统&#xff0c;免费、开源&#xff0c;许多不同的操作系统&#xff08;叫“发行版”&#xff09;都是基于 Linux 内核构建的。 Ubuntu 是一个 基于 Linux 内核的操作系统发行版。它是目前最流行、最易用的 Linux 发行版之一&…...

同时支持windows和Linux的NFC读写器web插件

一个网站集成了NFC读写器的功能&#xff0c;如何才能跨系统运行呢&#xff0c;既要在windows系统下正常运行&#xff0c;也需要在银河麒麟&#xff0c;统信UOS等信创系统下运行。 友我科技NFC读写器web插件很好的解决了这个问题&#xff0c;在客户端不仅支持windows系统&#x…...

突破AI检测边界:对抗技术与学术伦理的终极博弈

随着GPT-4、Claude等大模型的文本生成能力突破人类写作水平&#xff0c;AI检测工具与对抗技术的博弈已进入白热化阶段。本文深入解析基于对抗训练的文本风格混淆网络如何突破GPTZero最新防御体系&#xff0c;探讨OpenAI多模态内容溯源系统引发的技术升级&#xff0c;并针对学术…...

pg数据库删除自建表空间

1. tbs_sjzx已经创建&#xff08;略&#xff09; pg数据库删除自己创建表空间;--查看表空间相关表 SELECT * FROM pg_tablespace; SELECT relname FROM pg_class WHERE reltablespace (SELECT oid FROM pg_tablespace WHERE spcname tbs_sjzx); SELECT * FROM pg_tables WHE…...

C++ 学习指南

new 关键字 #include <iostream> using namespace std;int* func() {// 在堆区创建int* p new int(10); return p; }void test01(void) {int *p func();cout << *p << endl;cout << *p << endl;cout << *p << endl;delete p;// 这…...

Scribe: 一个非常方便的操作文档编写工具

在日常生活中&#xff0c;当我们需要指导别人使用一个软件/web应用时&#xff0c;我们常常需要按流程对工具进行操作&#xff0c;走一遍主要功能&#xff0c;然后针对每一步进行截图&#xff0c;并附上操作说明。往往这样一套流程走下来&#xff0c;就会花费很长的时间。那么有…...

数据结构与算法-顺序表应用

一.通讯录的创建 首先我们要理解的是通讯录本身就是以顺序表为底层的 只不过顺序表中的数组&#xff0c;这里我们是用结构体来替代&#xff0c;用来存储用户的信息 由于是通讯录的本质就是顺序表&#xff0c;所以顺序表的任何方法它都能套用 Contact.h: #pragma once #def…...

DeepSeek系列(5):助力数据分析

数据解读与可视化建议 在数据驱动的商业环境中,有效解读数据并将其转化为直观可视化结果至关重要。DeepSeek作为强大的AI助手,可以帮助您从海量数据中提取洞见并提供专业的可视化建议。 DeepSeek在数据解读中的优势 DeepSeek可以通过以下方式帮助您更高效地解读数据: 上下…...

虚幻基础:动画k帧

文章目录 动画k帧&#xff1a;调整骨骼的变换达到自己想要的效果步骤打开动画原始文件选中骨骼调整到目标变换添加关键帧时间&#xff1a;自动添加到停留的那一帧数值&#xff1a;自动填写为调整后的数值 注释数值与骨骼细节面板上的数值并不对应&#xff0c;但是同样的效果为什…...

使用 LlamaIndex Workflows 与 Elasticsearch

作者&#xff1a;来自 Elastic Jeffrey Rengifo 在本文中&#xff0c;你将学习如何利用 LlamaIndex Workflows 与 Elasticsearch 快速构建一个使用 LLM 的自过滤搜索应用程序。 LlamaIndex Workflows 提出了一种不同的方式来处理将任务拆分给不同 agent 的问题&#xff0c;它引…...

相对论大师-记录型正负性质BFS/图论-链表/数据结构

看到这一题我的第一个思路就是双向bfs 起点是a&#xff0c;终点还是a&#xff0c;但是flag是相反的&#xff08;“越”的方向&#xff09; tip1.可以用字典vis来存储flag 刚开始初始化时vissta,visend一个对应0、1 要求两个队列相…...

代理设计模式:从底层原理到源代码的详细解释

代理设计模式&#xff08;Proxy Pattern&#xff09;是一种结构型设计模式&#xff0c;它通过创建一个代理对象来控制对目标对象的访问。代理对象充当客户端和目标对象之间的中介&#xff0c;允许在不修改目标对象的情况下添加额外的功能&#xff08;如权限控制、日志记录、延迟…...

EasyRTC音视频实时通话:打造高清低延迟的远程会议新生态

一、项目背景​ 随着数字化办公的普及&#xff0c;远程会议成为企业、教育机构、政府部门等组织跨地域协作沟通的重要方式。传统远程会议系统在音视频质量、低延迟传输、多平台兼容性等方面存在不足&#xff0c;难以满足用户对高清、流畅、稳定会议体验的需求。EasyRTC作为一款…...

零基础上手Python数据分析 (21):图表选择困难症?常用可视化类型详解与应用场景指南

写在前面 —— 告别盲目绘图,理解图表语言,为你的数据找到最佳“代言人” 在前面几篇博客中,我们已经学习了使用 Matplotlib 和 Seaborn 这两大 Python 可视化利器来绘制各种图表。我们掌握了创建折线图、柱状图、散点图、箱线图等常用图表的技术。然而,仅仅知道 如何 绘…...

HarmonyOS Next 编译之如何使用多目标产物不同包名应用

引言 在日常的开发中涉及到多签名和多产物构建输出时手动切换签名文件和包名在开发中是容易出错且费时的一个操作&#xff0c;鸿蒙提供了自定义hvigor插件和多目标产物构建&#xff0c;那我们可以通过hvigor插件来动态修改不同项目配置所需要的代码&#xff0c;保证一套代码在…...

Oracle Database Resident Connection Pooling (DRCP) 白皮书阅读笔记

本文为“Extreme Oracle Database Connection Scalability with Database Resident Connection Pooling (DRCP)”的中文翻译加阅读笔记。觉得是重点的就用粗体表示了。 白皮书版本为March 2025, Version 3.3&#xff0c;副标题为&#xff1a;Optimizing Oracle Database resou…...

Sharding-JDBC 系列专题 - 第七篇:Spring Boot 集成与 Sharding-Proxy 简介

Sharding-JDBC 系列专题 - 第七篇:Spring Boot 集成与 Sharding-Proxy 简介 本系列专题旨在帮助开发者全面掌握 Sharding-JDBC,一个轻量级的分布式数据库中间件。本篇作为系列的第七篇文章,将重点探讨 Sharding-JDBC 与 Spring Boot 的集成,以及 Sharding-Proxy 的基本概念…...

day30 学习笔记

文章目录 前言一、凸包特征检测1.穷举法2.QuickHull法 二、图像轮廓特征查找1.外接矩形2.最小外接矩形3.最小外接圆 前言 通过今天的学习&#xff0c;我掌握了OpenCV中有关凸包特征检测&#xff0c;图像轮廓特征查找的相关原理和操作 一、凸包特征检测 通俗的讲&#xff0c;凸…...

变更管理 Change Management

以下是关于项目管理中 变更管理 的深度解析,结合高项(如软考高级信息系统项目管理师)教材内容,系统阐述变更管理的理论框架、流程方法及实战应用: 一、变更管理的基本概念 1. 定义 变更管理是对项目范围、进度、成本、质量等基准的修改进行系统性控制的过程,旨在确保变…...

PaddlePaddle线性回归详解:从模型定义到加载,掌握深度学习基础

目录 前言一、paddlepaddle框架的线性回归1.1 paddlepaddle模型的定义方式1.1.1 使用序列的方式 nn.Sequential 组网1.1.2 使用类的方式 class nn.Layer组网1.2 数据加载 1.3 paddlepaddle模型的保存1.3.1 基础API保存1.3.2 高级API模型的保存1.3.2.1 训练fit进行保存1.3.2.2 …...

几种Word转换PDF的常用方法

使用 Word 内置功能 步骤&#xff1a;打开需要转换的 Word 文档&#xff0c;点击左上角的 “文件” 菜单&#xff0c;选择 “另存为”&#xff0c;选择保存位置&#xff0c;在 “保存类型” 下拉菜单中选择 “PDF”&#xff0c;点击 “保存” 按钮即可。适用场景&#xff1a;适…...