YOLO26 source输入源:图片、视频、摄像头调用方式
最新 YOLO26 官方版训练与推理镜像
本镜像基于YOLO26 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。
1. 镜像环境说明
该镜像为 YOLO26 的完整运行环境提供了无缝支持,省去繁琐的依赖安装过程。无论你是做目标检测、姿态估计还是模型训练,都可以直接上手操作。
- 核心框架:
pytorch == 1.10.0 - CUDA版本:
12.1 - Python版本:
3.9.5 - 主要依赖:
torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3,numpy,opencv-python,pandas,matplotlib,tqdm,seaborn等常用科学计算和视觉处理库均已预装。
所有工具链均经过严格测试,确保在 GPU 加速环境下稳定运行。你只需要专注在模型使用和业务逻辑上,无需担心环境兼容问题。
2. 快速上手
启动镜像后,你会看到一个干净整洁的终端界面,准备好进行下一步操作。以下是完整的使用流程,从环境激活到推理、训练,一步步带你跑通整个流程。
2.1 激活环境与切换工作目录
在开始任何操作前,请先激活名为yolo的 Conda 虚拟环境:
conda activate yolo这一步非常重要,因为所有的依赖包都安装在这个环境中。如果不激活,可能会出现模块找不到或版本冲突的问题。
接下来,为了方便修改和保存代码,建议将默认的只读代码目录复制到可写的数据盘路径中:
cp -r /root/ultralytics-8.4.2 /root/workspace/然后进入新复制的项目目录:
cd /root/workspace/ultralytics-8.4.2这样你就拥有了一个可以自由编辑的工作空间,后续的所有操作都可以在这里完成。
2.2 模型推理
YOLO26 支持多种输入源,包括本地图片、视频文件以及实时摄像头流。我们通过修改detect.py文件来实现不同场景下的推理任务。
以下是一个基础的推理脚本示例:
# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': # 加载模型 model = YOLO(model=r'yolo26n-pose.pt') # 执行预测 model.predict( source=r'./ultralytics/assets/zidane.jpg', # 输入源 save=True, # 是否保存结果图像 show=False # 是否弹窗显示 )参数详解:
model参数:指定你要加载的模型权重文件路径。支持.pt格式的 PyTorch 权重文件,如yolo26n.pt、yolo26s.pt等。source参数:这是最关键的输入控制参数,决定了数据来源:- 若为图片路径(如
'./data/test.jpg'),则对单张图进行检测; - 若为视频路径(如
'./videos/demo.mp4'),则逐帧处理并生成带标注的视频; - 若为整数
0,表示调用本地摄像头(适用于实时监控场景); - 若为网络摄像头 RTSP 地址(如
'rtsp://xxx'),也可直接接入远程视频流。
- 若为图片路径(如
save参数:设为True时,系统会自动将结果保存到runs/detect/目录下,包含图像和视频输出。show参数:是否在运行过程中弹出窗口实时显示画面。在服务器无 GUI 环境下应设为False,避免报错。
运行命令如下:
python detect.py执行后,终端会打印出每帧的推理时间、检测对象数量等信息,结果图像或视频会自动保存在指定目录中。
推理完成后,你可以通过 Xftp 或其他工具下载结果文件进行查看。
2.3 模型训练
如果你有自己的数据集,并希望训练定制化的目标检测模型,可以按照以下步骤操作。
首先准备符合 YOLO 格式的数据集结构:
dataset/ ├── images/ │ ├── train/ │ └── val/ ├── labels/ │ ├── train/ │ └── val/ └── data.yaml然后编辑data.yaml文件,正确填写类别数量、类别名称和训练/验证集路径:
train: ./dataset/images/train val: ./dataset/images/val nc: 80 # 类别总数 names: ['person', 'bicycle', 'car', ...] # 具体类别名接着修改train.py脚本,配置训练参数:
import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': # 定义模型结构 model = YOLO(model='/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml') # 加载预训练权重(可选) model.load('yolo26n.pt') # 初次训练可不加,微调时建议使用 # 开始训练 model.train( data=r'data.yaml', imgsz=640, epochs=200, batch=128, workers=8, device='0', # 使用 GPU 0 optimizer='SGD', close_mosaic=10, # 前10轮关闭 Mosaic 数据增强 resume=False, # 不从中断处继续 project='runs/train', name='exp', single_cls=False, cache=False # 大数据集建议关闭缓存 )关键参数说明:
imgsz: 输入图像尺寸,通常设为 640;batch: 批次大小,根据显存调整;device: 指定使用的 GPU 编号;close_mosaic: 在训练初期关闭 Mosaic 增强,有助于模型稳定收敛;resume: 设置为True可恢复上次中断的训练。
运行训练脚本:
python train.py训练过程中,日志和可视化图表(如损失曲线、mAP 指标)会实时记录在runs/train/exp/目录中,可通过 TensorBoard 查看。
2.4 下载训练结果
训练结束后,模型权重文件(.pt)会保存在runs/train/exp/weights/文件夹中,包含best.pt(最佳性能)和last.pt(最后一轮)两个版本。
推荐使用 Xftp 工具连接服务器,将整个exp文件夹拖拽下载到本地。操作非常简单:
- 在右侧(服务器端)找到目标文件夹;
- 直接鼠标拖动到左侧(本地电脑)即可开始传输;
- 对于单个文件,双击即可快速下载。
如果文件较大,建议先压缩再传输:
tar -czf exp.tar.gz runs/train/exp/这样能显著减少传输时间和网络波动影响。
3. 已包含权重文件
为了避免用户手动下载耗时的大模型权重,本镜像已预先内置常用模型文件,存放于项目根目录下,例如:
yolo26n.ptyolo26s.ptyolo26n-pose.ptyolo26m.pt
这些模型覆盖了目标检测、实例分割、姿态估计等多种任务,开箱即用,节省大量初始化时间。
你可以在detect.py或train.py中直接引用这些本地路径,无需额外下载。
4. 常见问题解答
Q1:为什么运行时报错“ModuleNotFoundError”?
请确认是否已执行conda activate yolo。未激活环境会导致 Python 找不到已安装的包。
Q2:如何使用摄像头进行实时检测?
只需将source参数设置为0即可调用默认摄像头:
model.predict(source=0, show=True)注意:若在远程服务器运行,请确保有图形界面支持,否则show=True会报错。
Q3:训练时显存不足怎么办?
尝试降低batch参数值,或改用更小的模型(如yolo26n而非yolo26x)。也可以启用梯度累积(accumulate参数)来模拟大批次训练。
Q4:如何测试自己的视频文件?
将视频文件上传至服务器(如放在videos/目录),然后设置:
source='videos/my_video.mp4'程序会自动读取并生成带框的结果视频,保存在runs/detect/下。
Q5:能否同时处理多个摄像头?
目前predict接口不支持多源并发,但可以通过编写多线程脚本分别启动多个推理进程来实现。
5. 总结
5.1 实践回顾与价值提炼
本文详细介绍了基于 YOLO26 官方代码构建的训练与推理一体化镜像的使用方法。从环境激活、代码复制,到图片/视频/摄像头三种输入源的调用方式,再到自定义数据集训练和结果下载,形成了完整的闭环流程。
这套方案的核心优势在于:
- 开箱即用:省去复杂的环境配置,一键部署;
- 灵活输入:支持图片、视频、本地摄像头、RTSP 流等多种 source 类型;
- 高效训练:提供标准训练模板,适配各类数据集;
- 便捷管理:结果自动归档,支持快速导出分析。
无论是科研实验、工业质检,还是安防监控、智能交通,这套工具都能快速支撑起实际项目的原型开发与落地验证。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。