在自动驾驶、机器人和无人机等领域,激光雷达(LiDAR)和相机(Camera)是最常见的两类传感器。激光雷达擅长提供精确的三维空间几何信息,相机则能提供丰富的纹理与颜色信息。为了充分发挥两者优势,我们需要将它们的坐标系统一,这一过程被称为激光雷达与相机联合标定(LiDAR-Camera Calibration)。 本文将详细介绍标定流程和标定结果分析。
在计算机视觉领域,目标检测(Object Detection)是一个核心且极具挑战性的任务。在2015年之前,以R-CNN系列(R-CNN, Fast R-CNN, Faster R-CNN)为代表的检测算法占据了主导地位。它们通过一个复杂且多阶段的流程来实现高精度检测:首先生成潜在的候选区域(Region Proposal),然后对这些区域进行分类和位置精修。这个流程虽然精确,但速度却是一个巨大的瓶颈,难以满足实时应用的需求。
就在这时,一篇名为《You Only Look Once: Unified, Real-Time Object Detection》的论文横空出世,彻底改变了游戏规则。Joseph Redmon等人提出的YOLO(You Only Look Once)框架,只需要一次就可以同时回归类别和目标位置。
2023年3月14日,OpenAI发布了GPT-4,瞬间引爆了全球科技圈。随之而来的,还有一份备受期待的《GPT-4 Technical Report》。不过这份报告并没有太多技术细节,更像是一份“宣传手册”,重点强调模型能力和安全。但是作为一个AI世上重要的里程碑,今天简单解读一下这份手册的部分细节。