当前位置: 首页 > news >正文

基于ADAS 与关键点特征金字塔网络融合的3D LiDAR目标检测原理与算法实现

一、概述

3D LiDAR目标检测是一种在三维空间中识别和定位感兴趣目标的技术。在自动驾驶系统和先进的空间分析中,目标检测方法的不断演进至关重要。3D LiDAR目标检测作为一种变革性的技术,在环境感知方面提供了前所未有的准确性和深度信息.

在这里,我们将深入探讨使用关键点特征金字塔网络(K-FPN)结合KITTI 360 Vision数据集,融合RGB相机和3D LiDAR数据,实现自动驾驶的详细过程和训练方法。

二、3D 点云中的目标检测

3D目标检测的核心在于识别和定位三维空间中的物体。与仅考虑图像平面上的高度和宽度的2D检测不同,3D检测还融入了深度信息,从而提供了完整的空间理解。这对于自动驾驶、机器人技术和增强现实等应用至关重要,因为这些领域与环境的交互是三维的.

2.1 人类深度感知

3D目标检测背后的基本直觉源于人类感知深度的方式。人类视觉利用阴影、透视和视差等线索推断第三维。类似地,3D检测算法利用几何形状、阴影和点的相对运动来辨别深度。
在这里插入图片描述

2.2 数字深度感知

Shuiwang Ji等人在他们的研究论文《3D Convolutional Neural Networks for Human Action Recognition》中首次提出了3D - CNN的概念。他们的模型能够通过执行3D卷积从空间和时间维度提取特征,从而捕捉多个相邻帧中编码的运动信息。这个特定模型从输入帧生成多个信息通道,最终的特征表示结合了所有通道的信息。
在这里插入图片描述

3D环境的表示通常通过点云实现,点云是三维坐标系中的顶点集合。这些顶点通常来自结构光或激光雷达(LiDAR)传感器。3D检测的一个关键方面是将这些点云转换为可处理的格式,以便识别目标。这涉及到分割,即将点云划分为可能代表目标的簇,然后将这些簇分类为已知类别,如汽车、行人或其他感兴趣的目标。

这里的技术挑战很大,因为点云数据具有稀疏性和可变性。与2D图像中的像素不同,3D空间中的点分布不均匀,并且其密度会随与传感器的距离而变化。诸如PointNet及其后续版本(如PointNet++)等复杂算法可以直接处理点云,学习对排列不变且对遮挡和杂乱具有鲁棒性的特征。

2.3 3D点云环境中目标检测的特殊性

在3D点云环境中检测目标引入了传统2D目标检测中不存在的几个特殊特征:

  • 深度估计:最显著的特征之一是深度估计,它允许确定目标与传感器的距离。在点云中直接测量深度,而在2D图像中则必须推断深度。
  • 体积估计:算法可以利用数据的体积性质,考虑目标的实际形状和大小。这与2D边界框不同,2D边界框仅近似目标在图像平面中的占位面积。
  • 6DoF(六个自由度)目标姿态:3D检测算法不仅定位目标,还确定其在空间中的方向,提供完整的6DoF姿态估计(三个用于位置,三个用于旋转)。
  • 尺度不变性:检测过程可以对目标的尺度不变。这对于基于LiDAR的系统尤为重要,因为目标可能出现在不同距离,因此具有不同尺度。
  • 动态环境中的时间连续性:先进的3D目标检测系统利用动态环境中的时间连续性。通过跟踪点云数据随时间的变化,它们可以预测移动目标的轨迹和速度。

三、 论文综述

3.1 VoxelNet

Yin Zhou和Oncel Tuzel提出了VoxelNet——一种基于点云的3D目标检测的端到端学习方法。VoxelNet创新地将点云划分为结构化的3D体素网格,并采用独特的体素特征编码层将每个体素内的点转换为全面的特征表示。该表示与区域建议网络(RPN)无缝集成,以生成目标检测结果。在KITTI汽车检测基准测试中,VoxelNet显著优于现有的基于LiDAR的检测方法,并展示了学习不同目标表示的卓越能力,其在检测行人和自行车方面也取得了有前景的结果。
在这里插入图片描述

3.2 BirdNet

Jorge Beltrán等人引入了BirdNet——一个基于LiDAR信息的3D目标检测框架。他们的方法首先对激光数据的鸟瞰图投影进行创新的单元编码,然后使用从图像处理技术改编的卷积神经网络估计目标位置和方向。最后阶段涉及后处理,以巩固3D定向检测。在KITTI数据集上进行验证时,他们的框架不仅在该领域设定了新标准,还在不同LiDAR系统中表现出通用性,证实了其在现实交通条件下的稳健性。
在这里插入图片描述

3.3 VirConvNet

Hai Wu等人提出了VirConvNet,这是一种新颖且高效的骨干网络,旨在提高检测性能同时管理计算负载。VirConvNet的核心是两个创新组件:StVD(随机体素丢弃),它有策略地减少冗余体素计算;NRConv(抗噪子流形卷积),它通过利用2D和3D数据稳健地编码体素特征。作者展示了他们管道的三个变体:VirConv - L用于效率,VirConv - T用于精度,VirConv - S用于半监督方法。令人印象深刻的是,他们的管道在KITTI汽车3D检测排行榜上取得了顶级排名,VirConv - S领先,VirConv - L具有快速推理时间。
在这里插入图片描述
Peixuan Li等人开发了一种新颖的单目3D检测框架,能够进行高效且准确的单次预测。他们的方法摆脱了对传统2D边界框约束的依赖,创新性地从单目图像预测3D边界框的九个关键点,利用几何关系准确推断3D空间中的尺寸、位置和方向。即使在有噪声的关键点估计情况下,这种方法也被证明是稳健的,其紧凑的架构有助于实现快速检测速度。值得注意的是,他们的训练方案不需要外部网络依赖或监督数据。该框架成为第一个用于单目图像3D检测的实时系统,在KITTI数据集上设定了新的性能基准。
在这里插入图片描述

四、 用于3D LiDAR目标检测的数据集可视化

4.1 KITTI 360 Vision数据集

在这里将使用KITTI 360 Vision数据集进行训练过程。这是一个相对较大的数据集,因此需要进行3D LiDAR可视化以进行探索性数据分析(EDA)过程。以下是该实验的一些可视化结果。
在这里插入图片描述

可视化突出了来自传感器的3D LiDAR数据的三维表示。然而,在RGB相机流上可视化3D边界框也很重要,这对于开发先进驾驶辅助系统(ADAS)至关重要。为此,您必须首先下载数据集并创建目录结构。以下是KITTI 360 Vision数据集特定文件的链接:

  • Velodyne点云 - 激光信息(29GB)
  • 对象数据集的训练标签(5MB)
  • 对象数据集的相机校准矩阵(16MB)
  • 对象数据集的左彩色图像(12GB) - 用于可视化

现在安排文件,使目录结构如下所示:

kitti
├── demo|
   └── calib.txt  
├── gt_database
├── gt_database_mm
├── ImageSets
   ├── train.txt|
   ├── test.txt|
   └── valid.txt
├── training
   ├── image_2
   ├── label_2
   ├── calib
   └── velodyne
├── testing
   ├── image_2
   ├── calib
   └── velodyne
├── kitti_dbinfos_train.pkl
├── kitti_dbinfos_train_mm.pkl
├── kitti_infos_train.pkl
├── kitti_infos_trainval.pkl
├── kitti_infos_val.pkl
└── kitti_infos_test.pkl

花点时间探索代码库中kitti_dataset.py文件里定义的KittiDataset类中的方法。可以通过滚动到本研究文章的代码演练部分或点击此处下载代码。

这个KittiDataset类是一个自定义数据集类,适用于加载和操作来自KITTI 360 Vision数据集的数据。这个数据集类针对不同的操作模式(如训练('train')、验证('val')和测试('test'))进行了定制,并通过configs参数进行配置,该参数包含目录路径、输入大小和类别数量等设置。这是在data_process目录中的kitti_dataset.py脚本中实现的。

以下是类方法及其功能的细分:

def __init__(self, configs, mode='train', lidar_aug=None, hflip_prob=None, num_samples=None):self.dataset_dir = configs.dataset_dirself.input_size = configs.input_sizeself.hm_size = configs.hm_sizeself.num_classes = configs.num_classesself.max_objects = configs.max_objectsassert mode in ['train', 'val', 'test'], 'Invalid mode: {}'.format(mode)self.mode = modeself.is_test = (self.mode == 'test')sub_folder = 'testing' if self.is_test else 'training'self.lidar_aug = lidar_augself.hflip_prob = hflip_probself.image_dir = os.path.join(self.dataset_dir, sub_folder, "image_2")self.lidar_dir = os.path.join(self.dataset_dir, sub_folder, "velodyne")self.calib_dir = os.path.join(self.dataset_dir, sub_folder, "calib")self.label_dir = os.path.join(self.dataset_dir, sub_folder, "label_2")split_txt_path = os.path.join(self.dataset_dir, 'ImageSets', '{}.txt'.format(mode))self.sample_id_list = [int(x.strip()) for x in open(split_txt_path).readlines()]if num_samples is not None:self.sample_id_list = self.sample_id_list[:num_samples]self.num_samples = len(self.sample_id_list)

这个初始化方法通过初始化各种数据目录(图像、LiDAR、校准和标签)的路径来设置数据集,并根据操作模式创建要使用的样本ID列表。它可以可选地应用LiDAR数据增强(lidar_aug)和水平翻转(hflip_prob)进行数据增强。如果指定了num_samples,数据集将相应地截断其长度。

def __len__(self):return len(self.sample_id_list)

此方法返回数据集中的样本数量,允许PyTorch的DataLoader正确迭代数据集。

def __getitem__(self, index):if self.is_test:return self.load_img_only(index)else:return self.load_img_with_targets(index)

此方法从数据集中检索单个数据点。如果模式为“test”,它调用load_img_only,仅检索图像数据。对于“train”或“val”,它调用load_img_with_targets以获取图像数据和相应的目标标签。

def load_img_only(self, index):"""Load only image for the testing phase"""sample_id = int(self.sample_id_list[index])img_path, img_rgb = self.get_image(sample_id)lidarData = self.get_lidar(sample_id)lidarData = get_filtered_lidar(lidarData, cnf.boundary)bev_map = makeBEVMap(lidarData, cnf.boundary)bev_map = torch.from_numpy(bev_map)metadatas = {'img_path': img_path,}return metadatas, bev_map, img_rgb

此方法在测试阶段用于仅加载图像数据及其相关元数据,因为测试期间不使用标签。

def load_img_with_targets(self, index):"""Load images and targets for the training and validation phase"""sample_id = int(self.sample_id_list[index])img_path = os.path.join(self.image_dir, '{:06d}.png'.format(sample_id))lidarData = self.get_lidar(sample_id)calib = self.get_calib(sample_id)labels, has_labels = self.get_label(sample_id)if has_labels:labels[:, 1:] = transformation.camera_to_lidar_box(labels[:, 1:], calib.V2C, calib.R0, calib.P2)if self.lidar_aug:lidarData, labels[:, 1:] = self.lidar_aug(lidarData, labels[:, 1:])lidarData, labels = get_filtered_lidar(lidarData, cnf.boundary, labels)bev_map = makeBEVMap(lidarData, cnf.boundary)bev_map = torch.from_numpy(bev_map)hflipped = Falseif np.random.random() < self.hflip_prob:hflipped = True# C, H, Wbev_map = torch.flip(bev_map, [-1])targets = self.build_targets(labels, hflipped)metadatas = {'img_path': img_path,'hflipped': hflipped}return metadatas, bev_map, targets

此方法加载用于训练或验证的图像和目标标签。它应用任何指定的LiDAR增强,并在需要时处理翻转鸟瞰图(BEV)映射。它还构建用于目标检测的目标,包括热图、中心偏移、尺寸和方向。

def get_image(self, idx):img_path = os.path.join(self.image_dir, '{:06d}.png'.format(idx))img = cv2.cvtColor(cv2.imread(img_path), cv2.COLOR_BGR2RGB)return img_path, img

此方法获取图像文件路径并使用OpenCV加载它,将其从BGR转换为RGB格式。

def get_calib(self, idx):calib_file = os.path.join(self.calib_dir, '{:06d}.txt'.format(idx))# assert os.path.isfile(calib_file)return Calibration(calib_file)

此方法检索指定索引的校准数据,这对于在相机和LiDAR坐标系之间进行转换至关重要。

def get_lidar(self, idx):lidar_file = os.path.join(self.lidar_dir, '{:06d}.bin'.format(idx))# assert os.path.isfile(lidar_file)return np.fromfile(lidar_file, dtype=np.float32).reshape(-1, 4)

它从二进制文件加载原始LiDAR数据并将其重塑为N x 4的NumPy数组,其中N是点数,4表示x、y、z坐标和反射强度。

def get_label(self, idx):labels = []label_path = os.path.join(self.label_dir, '{:06d}.txt'.format(idx))for line in open(label_path, 'r'):line = line.rstrip()line_parts = line.split(' ')obj_name = line_parts[0]  # 'Car', 'Pedestrian',...cat_id = int(cnf.CLASS_NAME_TO_ID[obj_name])if cat_id <= -99:  # ignore Tram and Misccontinuetruncated = int(float(line_parts[1]))  # truncated pixel ratio [0..1]occluded = int(line_parts[2])  # 0=visible, 1=partly occluded, 2=fully occluded, 3=unknownalpha = float(line_parts[3])  # object observation angle [-pi..pi]# xmin, ymin, xmax, ymaxbbox = np.array([float(line_parts[4]), float(line_parts[5]), float(line_parts[6]), float(line_parts[7])])# height, width, length (h, w, l)h, w, l = float(line_parts[8]), float(line_parts[9]), float(line_parts[10])# location (x,y,z) in camera coord.x, y, z = float(line_parts[11]), float(line_parts[12]), float(line_parts[13])ry = float(line_parts[14])  # yaw angle (around Y-axis in camera coordinates) [-pi..pi]object_label = [cat_id, x, y, z, h, w, l, ry]labels.append(object_label)if len(labels) == 0:labels = np.zeros((1, 8), dtype=np.float32)has_labels = Falseelse:labels = np.array(labels, dtype=np.float32)has_labels = Truereturn labels, has_labels

此方法从标签文件读取对象标签,包括对象类型、尺寸和方向等属性。

def build_targets(self, labels, hflipped):minX = cnf.boundary['minX']maxX = cnf.boundary['maxX']minY = cnf.boundary['minY']maxY = cnf.boundary['maxY']minZ = cnf.boundary['minZ']maxZ = cnf.boundary['maxZ']num_objects = min(len(labels), self.max_objects)hm_l, hm_w = self.hm_sizehm_main_center = np.zeros((self.num_classes, hm_l, hm_w), dtype=np.float32)cen_offset = np.zeros((self.max_objects, 2), dtype=np.float32)direction = np.zeros((self.max_objects, 2), dtype=np.float32)z_coor = np.zeros((self.max_objects, 1), dtype=np.float32)dimension = np.zeros((self.max_objects, 3), dtype=np.float32)indices_center = np.zeros((self.max_objects), dtype=np.int64)obj_mask = np.zeros((self.max_objects), dtype=np.uint8)for k in range(num_objects):cls_id, x, y, z, h, w, l, yaw = labels[k]cls_id = int(cls_id)# Invert yaw angleyaw = -yawif not ((minX <= x <= maxX) and (minY <= y <= maxY) and (minZ <= z <= maxZ)):continueif (h <= 0) or (w <= 0) or (l <= 0):continuebbox_l = l / cnf.bound_size_x * hm_lbbox_w = w / cnf.bound_size_y * hm_wradius = compute_radius((math.ceil(bbox_l), math.ceil(bbox_w)))radius = max(0, int(radius))center_y = (x - minX) / cnf.bound_size_x * hm_l  # x --> y (invert to 2D image space)center_x = (y - minY) / cnf.bound_size_y * hm_w  # y --> xcenter = np.array([center_x, center_y], dtype=np.float32)if hflipped:center[0] = hm_w - center[0] - 1center_int = center.astype(np.int32)if cls_id < 0:ignore_ids = [_ for _ in range(self.num_classes)] if cls_id == -1 else [-cls_id - 2]# Consider to make mask ignorefor cls_ig in ignore_ids:gen_hm_radius(hm_main_center[cls_ig], center_int, radius)hm_main_center[ignore_ids, center_int[1], center_int[0]] = 0.9999continue# Generate heatmaps for main centergen_hm_radius(hm_main_center[cls_id], center, radius)# Index of the centerindices_center[k] = center_int[1] * hm_w + center_int[0]# targets for center offsetcen_offset[k] = center - center_int# targets for dimensiondimension[k, 0] = hdimension[k, 1] = wdimension[k, 2] = l# targets for directiondirection[k, 0] = math.sin(float(yaw))  # imdirection[k, 1] = math.cos(float(yaw))  # re# im --> -imif hflipped:direction[k, 0] = -direction[k, 0]# targets for depthz_coor[k] = z - minZ# Generate object masksobj_mask[k] = 1targets = {'hm_cen': hm_main_center,'cen_offset': cen_offset,'direction': direction,'z_coor': z_coor,'dim': dimension,'indices_center': indices_center,'obj_mask': obj_mask,}return targets

基于处理后的标签和增强信息,此方法构建用于训练模型的目标变量。这些包括对象中心的热图、中心点的偏移、对象尺寸、方向向量和指示对象存在的掩码。

def draw_img_with_label(self, index):sample_id = int(self.sample_id_list[index])img_path, img_rgb = self.get_image(sample_id)lidarData = self.get_lidar(sample_id)calib = self.get_calib(sample_id)labels, has_labels = self.get_label(sample_id)if has_labels:labels[:, 1:] = transformation.camera_to_lidar_box(labels[:, 1:], calib.V2C, calib.R0, calib.P2)if self.lidar_aug:lidarData, labels[:, 1:] = self.lidar_aug(lidarData, labels[:, 1:])lidarData, labels = get_filtered_lidar(lidarData, cnf.boundary, labels)bev_map = makeBEVMap(lidarData, cnf.boundary)return bev_map, labels, img_rgb, img_path

最后,这个实用函数用于在BEV图上叠加标签以进行可视化,这对于理解数据和调试数据集类特别有用。

4.2 RGB POV相机和3D BEV LiDAR点云模拟的分析

以下是由上一节中所示的KittiDataset类生成的一些可视化结果。
在这里插入图片描述
在这里插入图片描述

上面图像上半部分显示了道路场景的标准POV相机视图,而下半部分显示了来自3D LiDAR数据的相应鸟瞰图(BEV)。让我们仔细看看并分析这个可视化:

  • RGB POV相机视图:街道视图中的对象被封闭在3D边界框中,表示对象在三维空间中的空间范围:长度、宽度和高度。
  • 3D BEV LiDAR视图:底部图像表示由LiDAR点构建的BEV图。在BEV图中,世界从俯视角度查看,LiDAR数据投影到二维平面上。这种投影有助于理解对象之间的空间布局和关系,而不会受到相机图像的透视失真影响。BEV中的红色边界框对应于相机视图中的3D边界框注释,平铺到2D平面上。它显示了检测到的对象相对于车辆位置(通常位于同心弧的中心)的位置和方向。同心弧表示与3D LiDAR传感器的距离间隔。它们给出了点云中的点和对象的尺度和距离感。

五、 关键点特征金字塔网络架构

关键点特征金字塔网络(KFPN),如Peixuan Li等人在RTM3D研究论文中详细描述的那样,为3D目标检测提供了一种复杂而细致的方法,特别是在自动驾驶场景中。这个网络架构专门用于处理从3D LiDAR点云编码的鸟瞰图(BEV),并输出具有七个自由度(7 - DOF)的详细目标检测结果。
在这里插入图片描述

5.1 关键技术

  • 骨干网络:使用ResNet - 18和DLA - 34骨干网络进行初始图像处理,应用了下采样因子为[此处可能是文档中缺失的下采样因子具体值]以提高计算效率。
  • 上采样和特征连接:采用一系列双线性插值和[此处可能是文档中缺失的卷积相关内容]卷积,通过在每个上采样阶段连接相应的低级特征图来丰富特征表示。
  • 关键点特征金字塔:采用一种新颖的方法进行尺度不变的关键点检测,将每个尺度的特征图调整为最大尺度以进行一致的关键点分析。
  • 检测头:由基本组件和可选组件组合而成,包括用于3D边界框主中心和顶点检测的热图。
  • 关键点关联:回归局部偏移以进行关键点分组,并采用多箱方法进行精确的偏航角估计,提高3D LiDAR目标检测的准确性。

5.2 骨干网络

KFPN利用两个不同的结构作为其骨干网络:ResNet - 18和DLA - 34。这些骨干网络负责对单个RGB输入图像(表示为[此处可能是文档中缺失的图像表示相关内容])进行初始处理。图像经过下采样因子为[此处可能是文档中缺失的下采样因子具体值]的下采样,与图像分类网络中的标准做法一致,其中最大下采样因子为×32。骨干网络在特征提取和降低计算复杂性方面起着至关重要的作用。

5.3 上采样和特征连接

在初始下采样之后,网络采用一系列上采样层。这个过程涉及三个双线性插值与[此处可能是文档中缺失的卷积相关内容]卷积层相结合。在每个上采样步骤之前,网络连接相应的低级特征图,然后通过一个[此处可能是文档中缺失的卷积相关内容]卷积层来减少通道维度。经过这三个上采样层后,输出通道分别为256、128和64。这种策略确保了丰富的特征表示,涵盖了输入的高级和低级细节。

5.4 关键点特征金字塔

在传统的特征金字塔网络(FPN)中,多尺度检测很常见。然而,对于关键点检测,由于图像中的关键点大小变化不大,KFPN采用了不同的方法。它提出了一种新颖的关键点特征金字塔,用于在点空间中检测尺度不变的关键点。这涉及将每个尺度的特征图调整回最大尺度,生成特征图[此处可能是文档中缺失的特征图相关内容],然后应用softmax操作来得出每个尺度的重要性(权重)。最终的尺度空间得分图[此处可能是文档中缺失的得分图相关内容]通过这些特征图的线性加权和获得。

5.5 检测头

KFPN的检测头包括三个基本组件和六个可选组件。这些组件旨在以最小的计算开销提高3D检测的准确性。受CenterNet的启发,网络使用一个关键点作为连接所有特征的主中心。这个主中心的热图定义为[此处可能是文档中缺失的热图定义相关内容],其中[此处可能是文档中缺失的类别数量相关内容]表示对象类别数量。网络还输出由3D边界框的顶点和中心投影的九个透视点的热图,表示为[此处可能是文档中缺失的热图表示相关内容]。

5.6 关键点关联和其他组件

为了关联对象的关键点,网络回归从主中心的局部偏移[此处可能是文档中缺失的偏移相关内容]。这有助于将属于同一对象的关键点分组。其他组件,如3D对象的中心和顶点偏移、尺寸和方向,被包括在内以提供更多约束并提高检测性能。方向由偏航角[此处可能是文档中缺失的偏航角相关内容]表示,网络利用多箱方法回归局部方向。

六、 代码演示 - KFPN

6.1 训练策略

KFPN用于3D LiDAR目标检测的训练遵循一种侧重于平衡正负样本的策略。焦点损失被用于解决这种不平衡,这是目标检测网络中优化学习过程的常见方法。整个管道在train.py脚本中实现。让我们探索构成这个训练管道的函数:

def main_worker(gpu_idx, configs):configs.gpu_idx = gpu_idxconfigs.device = torch.device('cpu' if configs.gpu_idx is None else 'cuda:{}'.format(configs.gpu_idx))if configs.distributed:if configs.dist_url == "env://" and configs.rank == -1:configs.rank = int(os.environ["RANK"])if configs.multiprocessing_distributed:# For multiprocessing distributed training, rank needs to be the# global rank among all the processesconfigs.rank = configs.rank * configs.ngpus_per_node + gpu_idxdist.init_process_group(backend=configs.dist_backend, init_method=configs.dist_url,world_size=configs.world_size, rank=configs.rank)configs.subdivisions = int(64 / configs.batch_size / configs.ngpus_per_node)else:configs.subdivisions = int(64 / configs.batch_size)configs.is_master_node = (not configs.distributed) or (configs.distributed and (configs.rank % configs.ngpus_per_node == 0))if configs.is_master_node:logger = Logger(configs.logs_dir, configs.saved_fn)logger.info('>>> Created a new logger')logger.info('>>> configs: {}'.format(configs))tb_writer = SummaryWriter(log_dir=os.path.join(configs.logs_dir, 'tensorboard'))else:logger = Nonetb_writer = None# modelmodel = create_model(configs)# load weight from a checkpointif configs.pretrained_path is not None:assert os.path.isfile(configs.pretrained_path), "=> no checkpoint found at '{}'".format(configs.pretrained_path)model.load_state_dict(torch.load(configs.pretrained_path, map_location='cpu'))if logger is not None:logger.info('loaded pretrained model at {}'.format(configs.pretrained_path))# resume weights of model from a checkpointif configs.resume_path is not None:assert os.path.isfile(configs.resume_path), "=> no checkpoint found at '{}'".format(configs.resume_path)model.load_state_dict(torch.load(configs.resume_path, map_location='cpu'))if logger is not None:logger.info('resume training model from checkpoint {}'.format(configs.resume_path))# Data Parallelmodel = make_data_parallel(model, configs)# Make sure to create optimizer after moving the model to cudaoptimizer = create_optimizer(configs, model)lr_scheduler = create_lr_scheduler(optimizer, configs)configs.step_lr_in_epoch = False if configs.lr_type in ['multi_step', 'cosin', 'one_cycle'] else True# resume optimizer, lr_scheduler from a checkpointif configs.resume_path is not None:utils_path = configs.resume_path.replace('Model_', 'Utils_')assert os.path.isfile(utils_path), "=> no checkpoint found at '{}'".format(utils_path)utils_state_dict = torch.load(utils_path, map_location='cuda:{}'.format(configs.gpu_idx))optimizer.load_state_dict(utils_state_dict['optimizer'])lr_scheduler.load_state_dict(utils_state_dict['lr_scheduler'])configs.start_epoch = utils_state_dict['epoch'] + 1if configs.is_master_node:num_parameters = get_num_parameters(model)logger.info('number of trained parameters of the model: {}'.format(num_parameters))if logger is not None:logger.info(">>> Loading dataset & getting dataloader...")# Create dataloadertrain_dataloader, train_sampler = create_train_dataloader(configs)if logger is not None:logger.info('number of batches in training set: {}'.format(len(train_dataloader)))if configs.evaluate:val_dataloader = create_val_dataloader(configs)val_loss = validate(val_dataloader, model, configs)print('val_loss: {:.4e}'.format(val_loss))returnfor epoch in range(configs.start_epoch, configs.num_epochs + 1):if logger is not None:logger.info('{}'.format('*' * 40))logger.info('{} {}/{} {}'.format('=' * 35, epoch, configs.num_epochs, '=' * 35))logger.info('{}'.format('*' * 40))logger.info('>>> Epoch: [{}/{}]'.format(epoch, configs.num_epochs))if configs.distributed:train_sampler.set_epoch(epoch)# train for one epochtrain_one_epoch(train_dataloader, model, optimizer, lr_scheduler, epoch, configs, logger, tb_writer)if (not configs.no_val) and (epoch % configs.checkpoint_freq == 0):val_dataloader = create_val_dataloader(configs)print('number of batches in val_dataloader: {}'.format(len(val_dataloader)))val_loss = validate(val_dataloader, model, configs)print('val_loss: {:.4e}'.format(val_loss))if tb_writer is not None:tb_writer.add_scalar('Val_loss', val_loss, epoch)# Save checkpointif configs.is_master_node and ((epoch % configs.checkpoint_freq) == 0):model_state_dict, utils_state_dict = get_saved_state(model, optimizer, lr_scheduler, epoch, configs)save_checkpoint(configs.checkpoints_dir, configs.saved_fn, model_state_dict, utils_state_dict, epoch)if not configs.step_lr_in_epoch:lr_scheduler.step()if tb_writer is not None:tb_writer.add_scalar('LR', lr_scheduler.get_lr()[0], epoch)if tb_writer is not### 训练策略(续)
```python
def train_one_epoch(train_dataloader, model, optimizer, lr_scheduler, epoch, configs, logger, tb_writer):batch_time = AverageMeter('Time', ':6.3f')data_time = AverageMeter('Data', ':6.3f')losses = AverageMeter('Loss', ':.4e')progress = ProgressMeter(len(train_dataloader), [batch_time, data_time, losses],prefix="Train - Epoch: [{}/{}]".format(epoch, configs.num_epochs))criterion = Compute_Loss(device=configs.device)num_iters_per_epoch = len(train_dataloader)# switch to train modemodel.train()start_time = time.time()for batch_idx, batch_data in enumerate(tqdm(train_dataloader)):data_time.update(time.time() - start_time)metadatas, imgs, targets = batch_databatch_size = imgs.size(0)global_step = num_iters_per_epoch * (epoch - 1) + batch_idx + 1for k in targets.keys():targets[k] = targets[k].to(configs.device, non_blocking=True)imgs = imgs.to(configs.device, non_blocking=True).float()outputs = model(imgs)total_loss, loss_stats = criterion(outputs, targets)# For torch.nn.DataParallel caseif (not configs.distributed) and (configs.gpu_idx is None):total_loss = torch.mean(total_loss)# compute gradient and perform backpropagationtotal_loss.backward()if global_step % configs.subdivisions == 0:optimizer.step()# zero the parameter gradientsoptimizer.zero_grad()# Adjust learning rateif configs.step_lr_in_epoch:lr_scheduler.step()if tb_writer is not None:tb_writer.add_scalar('LR', lr_scheduler.get_lr()[0], global_step)if configs.distributed:reduced_loss = reduce_tensor(total_loss.data, configs.world_size)else:reduced_loss = total_loss.datalosses.update(to_python_float(reduced_loss), batch_size)# measure elapsed time# torch.cuda.synchronize()batch_time.update(time.time() - start_time)if tb_writer is not None:if (global_step % configs.tensorboard_freq) == 0:loss_stats['avg_loss'] = losses.avgtb_writer.add_scalars('Train', loss_stats, global_step)# Log messageif logger is not None:if (global_step % configs.print_freq) == 0:logger.info(progress.get_message(batch_idx))start_time = time.time()

6.2 验证

验证在训练过程中同样重要。其主要目的是评估模型在验证数据集上的性能。为此,在这个脚本中使用了validate()函数。让我们也详细看看这个函数:

def validate(val_dataloader, model, configs):losses = AverageMeter('Loss', ':.4e')criterion = Compute_Loss(device=configs.device)# switch to train modemodel.eval()with torch.no_grad():for batch_idx, batch_data in enumerate(tqdm(val_dataloader)):metadatas, imgs, targets = batch_databatch_size = imgs.size(0)for k in targets.keys():targets[k] = targets[k].to(configs.device, non_blocking=True)imgs = imgs.to(configs.device, non_blocking=True).float()outputs = model(imgs)total_loss, loss_stats = criterion(outputs, targets)# For torch.nn.DataParallel caseif (not configs.distributed) and (configs.gpu_idx is None):total_loss = torch.mean(total_loss)if configs.distributed:reduced_loss = reduce_tensor(total_loss.data, configs.world_size)else:reduced_loss = total_loss.datalosses.update(to_python_float(reduced_loss), batch_size)return losses.avg

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.3 参数

  • val_dataloader:提供验证数据批次的数据加载器。
  • model:正在评估的模型。
  • configs:包含评估参数(包括设备信息)的配置设置。

6.4 函数内部运作详细说明

  • 损失度量初始化:一个名为lossesAverageMeter对象被初始化,用于跟踪验证数据集上的平均损失。Compute_Loss函数使用配置中的指定设备进行初始化。这个函数将计算模型预测与真实值之间的损失。
  • 模型评估模式:使用model.eval()将模型设置为评估模式。这会禁用某些仅在训练期间相关的层和行为,如随机失活(dropout)和批量归一化(batch normalization),确保模型在验证期间的行为一致且确定性。在这里,使用torch.no_grad()上下文管理器来禁用梯度计算,这可以减少内存消耗并加快过程,因为在模型评估时不需要梯度。
  • 返回平均损失:在成功进行前向传播后,函数返回整个验证数据集上的平均损失,由losses AverageMeter计算得出。

6.5 模型推理

在本节中,我们将探索专门为处理和分析用于3D LiDAR目标检测任务的鸟瞰图(BEV)而设计的推理管道。

if __name__ == '__main__':configs = parse_demo_configs()# Try to download the dataset for demonstrationserver_url = 'https://s3.eu-central-1.amazonaws.com/avg-kitti/raw_data'download_url = '{}/{}/{}.zip'.format(server_url, configs.foldername[:-5], configs.foldername)download_and_unzip(configs.dataset_dir, download_url)model = create_model(configs)print('\n\n' + '-*=' * 30 + '\n\n')assert os.path.isfile(configs.pretrained_path), "No file at {}".format(configs.pretrained_path)model.load_state_dict(torch.load(configs.pretrained_path, map_location='cpu'))print('Loaded weights from {}\n'.format(configs.pretrained_path))configs.device = torch.device('cpu' if configs.no_cuda else 'cuda:{}'.format(configs.gpu_idx))model = model.to(device=configs.device)model.eval()out_cap = Nonedemo_dataset = Demo_KittiDataset(configs)with torch.no_grad():for sample_idx in range(len(demo_dataset)):metadatas, front_bevmap, back_bevmap, img_rgb = demo_dataset.load_bevmap_front_vs_back(sample_idx)front_detections, front_bevmap, fps = do_detect(configs, model, front_bevmap, is_front=True)back_detections, back_bevmap, _ = do_detect(configs, model, back_bevmap, is_front=False)# Draw prediction in the imagefront_bevmap = (front_bevmap.permute(1, 2, 0).numpy() * 255).astype(np.uint8)front_bevmap = cv2.resize(front_bevmap, (cnf.BEV_WIDTH, cnf.BEV_HEIGHT))front_bevmap = draw_predictions(front_bevmap, front_detections, configs.num_classes)# Rotate the front_bevmapfront_bevmap = cv2.rotate(front_bevmap, cv2.ROTATE_90_COUNTERCLOCKWISE)# Draw prediction in the imageback_bevmap = (back_bevmap.permute(1, 2, 0).numpy() * 255).astype(np.uint8)back_bevmap = cv2.resize(back_bevmap, (cnf.BEV_WIDTH, cnf.BEV_HEIGHT))back_bevmap = draw_predictions(back_bevmap, back_detections, configs.num_classes)# Rotate the back_bevmapback_bevmap = cv2.rotate(back_bevmap, cv2.ROTATE_90_CLOCKWISE)# merge front and back bevmapfull_bev = np.concatenate((back_bevmap, front_bevmap), axis=1)img_path = metadatas['img_path'][0]img_bgr = cv2.cvtColor(img_rgb, cv2.COLOR_RGB2BGR)calib = Calibration(configs.calib_path)kitti_dets = convert_det_to_real_values(front_detections)if len(kitti_dets) > 0:kitti_dets[:, 1:] = lidar_to_camera_box(kitti_dets[:, 1:], calib.V2C, calib.R0, calib.P2)img_bgr = show_rgb_image_with_boxes(img_bgr, kitti_dets, calib)img_bgr = cv2.resize(img_bgr, (cnf.BEV_WIDTH * 2, 375))out_img = np.concatenate((img_bgr, full_bev), axis=0)write_credit(out_img, (50, 410), text_author='Cre: github.com/maudzung', org_fps=(900, 410), fps=fps)if out_cap is None:out_cap_h, out_cap_w = out_img.shape[:2]fourcc = cv2.VideoWriter_fourcc(*'MJPG')out_path = os.path.join(configs.results_dir, '{}_both_2_sides.avi'.format(configs.foldername))print('Create video writer at {}'.format(out_path))out_cap = cv2.VideoWriter(out_path, fourcc, 30, (out_cap_w, out_cap_h))out_cap.write(out_img)if out_cap:out_cap.release()

6.6 注意事项

  • 热图上的最大池化:在推理过程中,对中心热图应用一个3×3的最大池化操作,以增强特征响应并抑制噪声。
  • 预测选择:仅保留中心置信度大于0.2的前50个预测,专注于最可能的对象中心。
  • 航向角计算:使用反正切计算每个检测的偏航角,即虚部与实部的比值,提供检测对象的方向。

6.7 推理详细解析

  • 下载演示数据集:脚本从指定的URL下载KITTI Vision 360数据集的一个较小样本,然后将其解压到指定的数据集目录中。这一步对于获取推理所需的数据至关重要。
  • 模型和权重初始化:使用create_model(configs)创建模型,并从configs.pretrained_path加载预训练权重。这一步确保模型已经学习到了进行准确预测所需的特征,并且模型被移动到配置中指定的设备(CPU或GPU)上。
  • 推理循环:管道遍历Demo_KittiDataset,该数据集可能包含数据集中每个样本的BEV图和其他相关数据。对于每个样本,它加载前后BEV图以及其他元数据。分别对前后BEV图调用do_detect函数。这个函数执行实际的对象检测,输出检测结果和修改后的BEV图。
  • BEV图调整:对BEV图(前后)进行处理(转置、调整大小),并使用draw_predictions在其上绘制预测结果。然后旋转这些图以获得正确的方向,并将前后BEV图连接起来形成一个完整的BEV视角。
  • 转换和校准:将常规RGB图像转换为BGR格式(OpenCV常用格式),并使用校准数据将检测结果转换为真实世界值,然后将RGB图像和完整的BEV图连接起来形成最终的输出图像。在图像上添加版权信息和每秒帧数(fps)信息。
  • 将推理结果写入视频:如果尚未初始化,则创建一个VideoWriter对象,将输出写入视频文件。每个处理后的图像帧都被写入视频文件,创建一个检测过程的可视化。在过程结束时释放视频捕获,最终确定视频文件。

七、 实验测试

7.1 实验结果分析

基于从实验中获得的推理可视化,可以得出以下观察结果:

  • BEV图:从传感器生成的自上而下的BEV 3D LiDAR深度图中检测到定位的对象。这将前后视图连接为一个完整的地图。
  • 三类3D目标检测:在推理结果中检测到预定义的类别,如汽车、行人和自行车。这些类别在KITTI 360 Vision数据集中预先进行了注释。
  • 定位准确性:使用3D边界框可视化检测到的对象,在2D RGB相机和3D LiDAR传感器两种模式中均如此。不仅如此,还可以观察到两种流中边界框放置的准确性。
  • 实时性能:推理管道在训练该模型的同一深度学习机器上进行了测试,该机器配备了NVIDIA RTX 3080 Ti和12GB显存。在这种情况下,模型在实时推理期间实现了一致的160 - 180 FPS性能。

7.2 评估指标分析

在前几节中,我们对训练模型的视觉结果有了一定的理解。但是,该模型的性能仍有很大的提升空间。为此,让我们看看评估指标,这些指标是在训练过程中使用TensorBoard记录的。
在这里插入图片描述

7.3 学习率

学习率(LR)图显示了一个逐步衰减的计划,从略低于0.001开始,在第300步时逐渐下降到约0.0001。在特定间隔的急剧下降表明了预定的大幅降低LR的时期。在这些下降之间,LR趋于平稳,使模型能够稳定其学习。该图表明了在初始快速学习和随后的微调之间的平衡,遵循了模型训练中常见的LR调度实践。

7.4 训练损失

在这个特定实验中,KFPN模型总共训练了300个 epoch,训练损失图显示了多个下降趋势,初始高损失表明了早期学习阶段。随着训练的进行,所有损失指标,包括avg_losscen_offset_losstotal_loss,持续下降,表明模型在改进。值得注意的是,损失曲线在约69k步时开始趋于平稳,表明模型接近收敛。综合的total_loss也呈现下降趋势,反映了各个损失优化的累积效果。

7.5 验证损失

另一方面,验证损失图在初始下降后呈现持续上升趋势,这表明早期学习成功但随后出现过拟合。在50步之后持续的上升趋势表明模型的泛化能力下降。损失的波动表明学习的可变性,最终验证损失稳定在2.8695左右,高于其最小值,证实了随着时间的推移在未见过的数据上性能下降。

八、 结论

本实验对使用关键点特征金字塔网络(KFPN)模型进行3D LiDAR目标检测的研究得出了几个关键见解。该模型在BEV地图中展示了强大的目标定位能力,整合了3D LiDAR深度图的前后视图以实现全面覆盖。目标检测的准确性值得注意,系统能够有效地识别和围绕汽车、行人和自行车(KITTI 360 Vision数据集中的三个关键类别)放置边界框。

在性能方面,该模型在NVIDIA RTX 3080 Ti上进行的实时推理测试显示出令人印象深刻的结果,始终达到160 - 180 FPS,强调了该模型在实际应用中部署的潜力,因为在这些应用中快速处理至关重要。在300个 epoch期间观察到的训练损失趋势强调了一个成功的学习阶段,所有损失指标都表明稳步改进并接近收敛。这与验证损失形成对比,验证损失在初始下降后显示增加,表明在50步之后可能存在过拟合。训练和验证损失之间的差异表明,虽然模型有效地学习了训练数据,但其对新数据的泛化能力需要进一步增强。

所进行的研究和获得的结果对先进驾驶辅助系统(ADAS)和自主导航系统的发展具有重要意义。该模型在准确快速目标检测方面的有效性为提高自动驾驶技术的安全性和效率开辟了道路。展望未来,解决过拟合问题并确保模型的泛化仍然是一个优先事项,有可能探索更复杂的正则化技术或自适应学习率计划,以优化模型在未见过数据集上的性能。

原文地址:https://learnopencv.com/3d-lidar-object-detection/#aioseo-code-walkthrough-kfpn

相关文章:

基于ADAS 与关键点特征金字塔网络融合的3D LiDAR目标检测原理与算法实现

一、概述 3D LiDAR目标检测是一种在三维空间中识别和定位感兴趣目标的技术。在自动驾驶系统和先进的空间分析中&#xff0c;目标检测方法的不断演进至关重要。3D LiDAR目标检测作为一种变革性的技术&#xff0c;在环境感知方面提供了前所未有的准确性和深度信息. 在这里&…...

STM32供电参考设计

STM32供电参考设计 ​ 在图中有VDD&#xff0c;VSS和VDDA&#xff0c;VSSA两种类型的供电引脚&#xff0c;其数据手册解释如下&#xff1a; ​ 令我不解的是&#xff1a;VDDA和VSSA必须分别连接到VDD和VSS&#xff0c;这是什么意思&#xff1f;有大佬能够解答一下吗&#xff1f…...

C/C++头文件uitility

在C中&#xff0c;<utility>头文件提供了一些通用的工具类和函数&#xff0c;这些工具类和函数在编写高效、可读性强的代码时非常有用。以下是<utility>头文件中一些常用函数和类的详细介绍及使用示例&#xff1a; std::pair&#xff1a;一个模板类&#xff0c;用于…...

Nature Electronics——近传感器计算:50 nm异构集成技术的革命

创新点&#xff1a;1.高密度互联设计&#xff1a;基于二维材料&#xff0c;开发出互连密度高达62,500 I/O每平方毫米的M3D集成结构。2.异构层堆叠&#xff1a;整合了第二层石墨烯化学传感器和第一层MoS₂记忆晶体管&#xff0c;实现功能互补。3.超短传感器与计算元件距离&#…...

腾讯云AI代码助手编程挑战赛-图片转换工具

作品简介&#xff1a; 解决了人们学习生活中的图片格式转换问题&#xff0c; 制作该脚本&#xff0c;省去了打开在线编辑器操作的时间&#xff0c; 免费为用户提供图片格式的转换的实用小工具 技术架构 python语言的tk库来完成的GUI页面设计&#xff0c; 引用PIL包转换图…...

英伟达Project Digits赋能医疗大模型:创新应用与未来展望

英伟达Project Digits赋能医疗大模型&#xff1a;创新应用与未来展望 一、引言 1.1 研究背景与意义 在当今数字化时代&#xff0c;医疗行业作为关乎国计民生的关键领域&#xff0c;正面临着前所未有的挑战与机遇。一方面&#xff0c;传统医疗模式在应对海量医疗数据的处理、复…...

查找路由器的管理后台ip【通用找IP】

需求&#xff1a; 刚刚搞了个【小米】路由器&#xff0c;我想进路由的管理后台&#xff0c;提示&#xff1a;安装xx的路由管家&#xff0c;我不想安装 但是无法找到这个管理后台。 而且我是用这个路由作为中继&#xff0c;那么这个路由的ip就会经常更换 尝试通过网上搜索引擎来…...

Nginx:Stream模块

什么是 Stream 模块? Stream 模块 是 Nginx 的一个核心模块,专为处理非 HTTP 协议的流量(TCP 和 UDP 流量)而设计。它可以用来负载均衡和代理 TCP 或 UDP 连接,适用于多种应用场景,如: 数据库集群(MySQL、PostgreSQL 等)邮件服务器(SMTP、IMAP、POP3)游戏服务器VoI…...

C++语言的并发编程

C语言的并发编程 引言 随着计算机技术的飞速发展&#xff0c;尤其是多核处理器的普及&#xff0c;如何高效地利用计算机资源成为了一个重要话题。在这个背景下&#xff0c;并发编程已经成为了一种必须掌握的技能。C作为一种强大的编程语言&#xff0c;也提供了丰富的工具和库…...

Boost.Asio 同步读写及客户端 - 服务器实现详解

Boost.Asio 同步读写及客户端 - 服务器实现详解 参考文献 Boost.Asio 官方文档学习资料来源: 参考网址 一、引言 Boost.Asio作为一个强大的跨平台网络编程库&#xff0c;为开发者提供了丰富的网络操作接口。在之前的学习中&#xff0c;我们已接触到其同步读写的API函数&…...

机器人技术:ModbusTCP转CCLINKIE网关应用

在当今自动化生产与智能制造领域&#xff0c;ModbusTCP转CC-LinkIE网关KJ-MTCPZ-CCIES的应用正日益成为提升生产效率、实现设备间高效通信的重要技术手段。这一转换技术不仅打破了不同通信协议间的壁垒&#xff0c;还为机器人产品的应用提供了更为广阔的舞台。ModbusTCP作为一种…...

CSS——24.实战技能网导航栏 hove状态

<!DOCTYPE html> <html><head><meta charset"UTF-8"><title>技能网导航hover状态</title><style type"text/css">nav{width: 1000px;height: 40px;background:#363636;margin: 100px auto;}nav div{width: 100p…...

计算机视觉目标检测-DETR网络

目录 摘要abstractDETR目标检测网络详解二分图匹配和损失函数 DETR总结总结 摘要 DETR&#xff08;DEtection TRansformer&#xff09;是由Facebook AI提出的一种基于Transformer架构的端到端目标检测方法。它通过将目标检测建模为集合预测问题&#xff0c;摒弃了锚框设计和非…...

【计算机网络】课程 实验五 静态路由配置

实验五 静态路由配置 一、实验目的 理解静态路由的工作原理&#xff0c;掌握如何配置静态路由。 二、实验分析与设计 【背景描述】 假设校园网分为 2 个区域&#xff0c;每个区域内使用 1 台路由器连接 2 个子网&#xff0c; 现要在路由器上 做适当配置&#xff0c;实现校…...

FPGA车牌识别

基于FPGA的车牌识别主要包含以下几个步骤&#xff1a;图像采集、颜色空间转换、边缘检测、形态学处理&#xff08;腐蚀和膨胀&#xff09;、特征值提取、模板匹配、结果显示。先用matlab对原理进行仿真&#xff0c;后用vivado和modelsim进行设计和仿真。 一、1.图像采集采用ov…...

最好用的图文识别OCR -- PaddleOCR(2) 提高推理效率(PPOCR模型转ONNX模型进行推理)

在实际推理过程中&#xff0c;使用 PaddleOCR 模型时效率较慢&#xff0c;经测试每张图片的检测与识别平均耗时超过 5 秒&#xff0c;这在需要大规模自动化处理的场景中无法满足需求。为此&#xff0c;我尝试将 PaddleOCR 模型转换为 ONNX 格式进行推理&#xff0c;以提升效率。…...

STM32-笔记39-SPI-W25Q128

一、什么是SPI&#xff1f; SPI是串行外设接口&#xff08;Serial Peripheral Interface&#xff09;的缩写&#xff0c;是一种高速的&#xff0c;全双工&#xff0c;同步的通信总线&#xff0c;并且 在芯片的管脚上只占用四根线&#xff0c;节约了芯片的管脚&#xff0c;同时为…...

反规范化带来的数据不一致问题的解决方案

在数据库设计中&#xff0c;规范化&#xff08;Normalization&#xff09;和反规范化&#xff08;Denormalization&#xff09;是两个相互对立但又不可或缺的概念。规范化旨在消除数据冗余&#xff0c;确保数据的一致性和准确性&#xff0c;但可能会降低查询效率。相反&#xf…...

依赖注入学习

1.介绍 依赖注入&#xff08;Dependency Injection, DI&#xff09;是一种软件设计模式&#xff0c;用于实现类与其依赖项之间的解耦。它的核心思想是&#xff0c;将类所依赖的对象通过外部注入的方式传递给它&#xff0c;而不是在类内部自行创建依赖对象。通过这种方式&#…...

ESP32-C3 AT WiFi AP 启 TCP Server 被动接收模式 + BLE 共存

TCP 被动接收模式&#xff0c;每次发的数据会先存到缓冲区&#xff0c;参见&#xff1a;ATCIPRECVTYPE 指令说明。 即每包数据不会实时报告 IPD 接收情况&#xff0c;如果需要查询缓冲区的数据&#xff0c;先用 ATCIPRECVLEN? 指令查询被动接收模式下套接字数据的长度 。获取…...

git tag

文章目录 1.简介2.格式3.选项4.示例参考文献 1.简介 同大多数 VCS 一样&#xff0c;Git 也可以对某一时间点的版本打上标签&#xff0c;用于版本的发布管理。 一个版本发布时&#xff0c;我们可以为当前版本打上类似于 v.1.0.1、v.1.0.2 这样的 Tag。一个 Tag 指向一个 Commi…...

rabbitmq的三个交换机及简单使用

提前说一下&#xff0c;创建队列&#xff0c;交换机&#xff0c;绑定交换机和队列都是在生产者。消费者只负责监听就行了&#xff0c;不用配其他的。 完成这个场景需要两个服务哦。 1直连交换机-生产者的代码。 在配置类中创建队列&#xff0c;交换机&#xff0c;绑定交换机…...

TCP 如何获取端口信息

注&#xff1a;本文为 “TCP 如何获取端口信息” 相关讨论摘录。 机翻&#xff0c;未校。 How TCP Gets Port Information TCP 如何获取端口信息 asked Nov 10, 2024 at 19:57 user15503745 API Call for Connection API 调用以建立连接 Before the app can send data d…...

HashMap和HashTable的区别

1、HashMap是线程不安全的&#xff0c;HashTable是线程安全的 HashMap&#xff1a;Fail-fast 机制。表示快速失败&#xff0c;在集合遍历过程中&#xff0c;一旦发现容器中的数据被修改了&#xff0c;会立刻抛出ConcurrentModificationException异常&#xff0c;从而导致遍历失…...

USB 传输技术 OTG(On-The-Go)极简理解

OTG 极简理解 OTG&#xff0c;全称为 On-The-Go&#xff0c;它是一种 USB 传输技术 OTG 的主要应用于不同的设备或移动设备间的联接&#xff0c;进行数据交换 OTG 允许在没有电脑作为中转站的情况下&#xff0c;实现设备间的数据传送以及不同设备间的互相连接 在手机中&…...

SpringBoot插件

SpringBoot的插件机制是其强大灵活性的重要体现&#xff0c;它允许开发人员将应用程序的不同功能模块打包为独立的插件&#xff0c;并可以动态地加载和卸载这些插件。以下是对SpringBoot插件机制的详细解析&#xff1a; 一、插件机制的概念 插件机制是一种软件开发方法&#…...

【开发环境搭建篇】Visual Studio 2022 安装和使用

本文收录于 《C编程入门》专栏&#xff0c;从零基础开始&#xff0c;介绍C编程入门相关的内容&#xff0c;欢迎关注&#xff0c;谢谢&#xff01; 文章目录 一、前言二、下载三、安装四、使用五、总结 一、前言 本文介绍如何在Windows环境下安装Visual Studio 2022。 什么是Vi…...

深度学习:Java DL4J基于RNN构建智能停车管理模型

### 深度学习&#xff1a;Java DL4J基于RNN构建智能停车管理模型 #### 引言 随着城市化进程的加速&#xff0c;停车问题日益成为城市管理的难点和痛点。传统的停车场管理方式效率低下&#xff0c;导致停车场资源无法得到充分利用&#xff0c;车主停车体验差。为了解决这些痛点…...

创建型模式-工厂模式

工厂模式是一种创建型的设计模式&#xff0c;原理是父类提供一个创建对象的方法&#xff0c;允许子类去实现具体的实例化对象。通过此模式可减少创建和具体的产品之间的耦合关系。 适用场景&#xff1a; 1、当需求中无法预估对象确切类别及个别的依赖关系。例如&#xff1a; …...

UI自动化测试框架playwright--初级入门

一、背景&#xff1a;UI自动化的痛点&#xff1a; 1、设计脚本耗时&#xff1a; 需要思考要如何模拟用户的操作&#xff0c;如何触发页面的事件&#xff0c;还要思考如何设计脚本&#xff0c;定位和操作要交互的元素、路径、位置&#xff0c;再编写代码逻辑&#xff0c;往复循…...

算法 -归并排序

博客主页&#xff1a;【夜泉_ly】 本文专栏&#xff1a;【算法】 欢迎点赞&#x1f44d;收藏⭐关注❤️ 文章目录 &#x1f500; 归并排序&#x1f4d6; 简介&#x1f5bc;️ 示意图&#x1f4a1; 实现思路&#x1f4bb; 代码实现&#x1f4a1; 实现思路2 - 非递归&#x1f4bb…...

基于html5实现音乐录音播放动画源码

源码介绍 基于html5实现音乐录音播放动画源码是一款类似Shazam的UI&#xff0c;点击按钮后&#xff0c;会变成为一个监听按钮。旁边会有音符飞入这个监听按钮&#xff0c;最后转换成一个音乐播放器。 效果预览 源码获取 基于html5实现音乐录音播放动画源码...

NRC优先级中比较特殊的—NRC0x13和NRC0x31

1、基础知识 大家都了解 NRC0x13&#xff0c;表示长度错误和格式错误 NRC0x31&#xff0c;表示DID不支持和数据格式不支持 2、为什么说这两个NRC比较特殊 看下图的标注部分&#xff1a; 2.1、先看NRC0x13 步骤一&#xff1a;仔细看是先判断Minmun Length Check &#xff0…...

文件的介绍4

一、文件的随机读写 1.fseek I 从左往右 第一个参数 stream 是一个 指向已经被打开的文件流 的指针 第三个参数 origin 是个常量&#xff0c;指定从哪个位置开始偏移&#xff0c;它的取值&#xff1a; SEEK_SET&#xff1a;从文件开头开始偏移。SEEK_CUR&#xff1a;从当前…...

Mysql - 多表连接和连接类型

在关系型数据库中&#xff0c;多表连接&#xff08;JOIN&#xff09;是用于从多个表中检索数据的常用操作。通过连接多个表&#xff0c;可以将分散在不同表中的相关数据组合在一起&#xff0c;从而进行更复杂的查询和分析。在这篇文章中&#xff0c;我们将深入探讨MySQL中的多表…...

Tableau数据可视化与仪表盘搭建-可视化原则及BI仪表盘搭建

目录 可视化原则 BI仪表盘搭建 仪表盘搭建原则 明确仪表盘主题 仪表盘主题拆解 开发设计工作表 经营情况总览&#xff1a;突出显示的文字 经营数据详情&#xff1a;表格 每日营收数据&#xff1a;多轴折线图 每日流量数据&#xff1a;双轴组合图 新老客占比&#xf…...

如何制作一份出色的公司介绍PPT?

制作一份公司介绍的PPT需要精心设计&#xff0c;以确保内容既专业又吸引人。以下是一个基本的框架和一些建议&#xff0c;帮助您创建一份有效的公司介绍PPT&#xff1a; PPT标题页 标题&#xff1a;公司全称&#xff08;可使用公司Logo作为背景或嵌入标题中&#xff09;副标题…...

【Arm】Arm 处理器的半主机(semihosting)机制

概览 通过 semihosting 机制&#xff0c;主机可以通过调试器使用目标计算机 IO 接口。 例如开发者的 PC 通过 J-Link 来使用 STM32 MCU 的输入输出。 这些功能的示例包括键盘输入、屏幕输出和硬盘 I/O。例如&#xff0c;可以使用此机制启用 C Library 中的函数&#xff0c;如…...

C语言基本知识复习浓缩版:输出函数printf

输出函数printf学习 printf()的作用是将文本输出到屏幕上使用之前需要先引入stdio.h头文件printf函数在使用的时候&#xff0c;至少需要一个参数 printf() 是 C 语言标准库中的一个函数&#xff0c;用于将格式化的文本输出到标准输出设备&#xff08;通常是屏幕&#xff09;。…...

pygame飞机大战

飞机大战 1.main类2.配置类3.游戏主类4.游戏资源类5.资源下载6.游戏效果 1.main类 启动游戏。 from MainWindow import MainWindow if __name__ __main__:appMainWindow()app.run()2.配置类 该类主要存放游戏的各种设置参数。 #窗口尺寸 #窗口尺寸 import random import p…...

WebRTC:构建实时通信应用的利器

都已无处不在。而 WebRTC&#xff08;Web Real-Time Communication&#xff09;则为开发者提供了一种简便的方式&#xff0c;来在浏览器中实现实时的音视频通信和数据传输。本文将介绍 WebRTC 的基本概念、工作原理&#xff0c;以及如何利用 WebRTC 构建实时通信应用。 什么是…...

个人博客搭建(二)—Typora+PicGo+OSS

个人博客站—运维鹿: http://www.kervin24.top CSDN博客—做个超努力的小奚&#xff1a; 做个超努力的小奚-CSDN博客 一、前言 博客搭建完一直没有更新&#xff0c;因为WordPress自带的文档编辑器不方便&#xff0c;以前用CSDN写作的时候&#xff0c;习惯了Typora。最近对比了…...

华纳云:在centos7中tomcat内存怎么设置?

在 CentOS 7 中&#xff0c;可以通过修改 Tomcat 的启动脚本来调整 Tomcat 的内存设置。Tomcat 的内存配置主要涉及 JVM 参数(Java Virtual Machine)&#xff0c;可以通过设置 -Xms(初始内存)和 -Xmx(最大内存)来调整内存大小。 步骤如下&#xff1a; 1. 修改 Tomcat 启动脚本 …...

樱桃键盘win键按了没反应怎么处理

‌游戏模式‌&#xff1a;部分樱桃键盘在进入游戏模式后会禁用Win键&#xff0c;以防止在游戏过程中误触。可以通过按下Fn F9键来切换游戏模式和办公模式&#xff0c;确保键盘处于办公模式下&#xff0c;Win键即可恢复正常功能。‌ &#xff08;至此我的问题已解决&#xff0c…...

【UE5 C++课程系列笔记】23——多线程基础——AsyncTask

目录 概念 函数说明 注意事项 &#xff08;1&#xff09;线程安全问题 &#xff08;2&#xff09;依赖特定线程执行的任务限制 &#xff08;3&#xff09;任务执行顺序和时间不确定性 使用示例 概念 AsyncTask 允许开发者将一个函数或者一段代码逻辑提交到特定的线程去执…...

Docker运维高级容器技术知识点总结

1、虚拟机部署和容器化部署的区别是什么&#xff1f; 1、技术基础&#xff1a; <1>.虚拟化技术在物理硬件上创建虚拟机&#xff0c;每台虚拟机运行自己完整的操作系统、从而实现资源隔离。 <2>.容器化技术&#xff1a;将应用程序打包在容器内&#xff0c;在进程空间…...

Docker的安装和使用

容器技术 容器与虚拟机的区别 虚拟机 (VM) VM包含完整的操作系统&#xff0c;并在虚拟化层之上运行多个操作系统实例。 VM需要更多的系统资源&#xff08;CPU、内存、存储&#xff09;来管理这些操作系统实例。 容器 (Container) 容器共享主机操作系统的内核&#xff0c;具…...

Java语法总结

Java的数据类型分为基本数据类型和引用数据类型。 1.基本数据类型&#xff1a;四类八种 byte 和short 比较特殊&#xff0c;不必考虑int类型&#xff0c;只关注是否超出了表示范围。 数据超出了int的范围&#xff0c;改正&#xff1a;在后边添加L &#xff0c;定义变量报错…...

Linux文件系统的安全保障---Overlayroot!

overlayroot 是一种使用 OverlayFS 实现的功能&#xff0c;可将根文件系统挂载为只读&#xff0c;并通过一个临时的写层实现对文件系统的修改。这种方法非常适合嵌入式设备或需要保持系统文件完整性和安全性的场景。下文以 RK3568 平台为例&#xff0c;介绍制作 overlayroot 的…...

net-http-transport 引发的句柄数(协程)泄漏问题

Reference 关于 Golang 中 http.Response.Body 未读取导致连接复用问题的一点研究https://manishrjain.com/must-close-golang-http-responsehttps://www.reddit.com/r/golang/comments/13fphyz/til_go_response_body_must_be_closed_even_if_you/?rdt35002https://medium.co…...