diff --git a/README.zh-CN.md b/README.zh-CN.md index a283bad..24bba06 100644 --- a/README.zh-CN.md +++ b/README.zh-CN.md @@ -18,7 +18,7 @@
-[Ultralytics YOLOv8](https://github.com/ultralytics/ultralytics) 是由 [Ultralytics](https://ultralytics.com) 开发的一个前沿 SOTA 模型。它在以前 YOLO 版本的成功基础上,引入了新的功能和改进,进一步提升了性能和灵活性。YOLOv8 基于快速、准确和易于使用的理念设计,使其成为广泛的物体检测、图像分割和图像分类任务的绝佳选择。 +[Ultralytics YOLOv8](https://github.com/ultralytics/ultralytics) 是由 [Ultralytics](https://ultralytics.com) 开发的一个前沿的 SOTA 模型。它在以前成功的 YOLO 版本基础上,引入了新的功能和改进,进一步提升了其性能和灵活性。YOLOv8 基于快速、准确和易于使用的设计理念,使其成为广泛的目标检测、图像分割和图像分类任务的绝佳选择。 如果要申请企业许可证,请填写 [Ultralytics 许可](https://ultralytics.com/license)。 @@ -84,12 +84,15 @@ YOLOv8 也可以在 Python 环境中直接使用,并接受与上面 CLI 例子 ```python from ultralytics import YOLO -model = YOLO("yolov8n.pt") # load a pretrained YOLOv8n model +# 加载模型 +model = YOLO("yolov8n.yaml") # 从头开始构建新模型 +model = YOLO("yolov8n.pt") # 加载预训练模型(推荐用于训练) -model.train(data="coco128.yaml") # train the model -model.val() # evaluate model performance on the validation set -model.predict(source="https://ultralytics.com/images/bus.jpg") # predict on an image -model.export(format="onnx") # export the model to ONNX format +# Use the model +results = model.train(data="coco128.yaml", epochs=3) # 训练模型 +results = model.val() # 在验证集上评估模型性能 +results = model("https://ultralytics.com/images/bus.jpg") # 预测图像 +success = YOLO("yolov8n.pt").export(format="onnx") # 将模型导出为 ONNX 格式 ``` [模型](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/yolo/v8/models) 会从 Ultralytics [发布页](https://github.com/ultralytics/ultralytics/releases) 自动下载。 @@ -200,7 +203,7 @@ model.export(format="onnx") # export the model to ONNX format - + ##
License
@@ -210,7 +213,7 @@ model.export(format="onnx") # export the model to ONNX format ##
联系我们
-若发现 YOLOv8 的 bug 或有功能需求,请访问 [GitHub 问题](https://github.com/ultralytics/ultralytics/issues)。如需专业支持,请 [联系我们](https://ultralytics.com/contact)。 +若发现 YOLOv8 的 Bug 或有功能需求,请访问 [GitHub 问题](https://github.com/ultralytics/ultralytics/issues)。如需专业支持,请 [联系我们](https://ultralytics.com/contact)。