这是机器未来的第四篇文章
在前面写:
@[TOC]
TensorFlow对象检测API,它可以轻松构建,训练和部署对象检测模型,并提供许多可可数据集,KITTI数据集,打开图像数据集,AVA v2.1数据集和Inaturist SpeciestHe speciestHe检测数据集提供PRE -TRAING TRAINGARING TRAINGARE TRAINGARING TRAINGARING TRAINGARING TRAINGARING TRAINGARING TRAINGARING TRAINGARING TRAINCH MODECT模型套。
kites_detections_output
TensorFlow对象检测API是最主流目标检测框架之一。主流目标检测模型如图所示:
SNIPASTE20220513_094828
为了在本手册中成功安装Tensroflow对象检测API,请参阅Windows GPU深度学习开发环境的Windows部署以进行安装。
如果您自己创建安装条件,请确保满足以下条件
本手册使用Docker操作环境。
启动Docker桌面客户端,如图所示:
1
您可以在使用终端工具的Windows平台上启动命令行工具或Windows终端工具。
输入以下命令以查看当前现有图像列表
您可以看到以前安装的TensorFlow-2.8.0-GPU-Jupyter图像。现在这个镜子启动容器
命令解释:Docker Run:指示一个基于镜像的启动容器-gpus -gpus all:如果没有此选项,NVIDIA -SMI命令将不可用-I:Interactive operation.t:terminal.t:terminal. -d:terminal.d:在后台,您需要在容器-v e:/dockerdir/docker_work/:/home/zhou/:mipid e e:/dockerdir/docker_work/directory mappinggo到达/home/home/zhou/directory/directory/directory/directory/directory/directory/directory,在Docker的Ubuntu系统中,实现Windows平台和Docker System的文件共享-P 8888:8888:8888 -P 6006:6006:这意味着端口8888和Windows System到Docker的8888,6006Port,这两个端口是Jupyter Notebook的访问端口/':docker启动启动命令在这里,这是工作起动器
启动VSCODE后,选择Docker工具栏。在启动容器上,右键单击,然后选择要连接到VSCODE
2
在VSCODE软件接口上,选择[文件] - [打开文件夹],选择root Directory [/],查找[/etc/apt/sources.list],将Ubuntu的所有安装源切换到Aliyun的所有安装源,请操作与特定操作一样具有特定操作。修改如下:
从NVCC -V的日志中,可以看出CUDA版本为11.2
输出结果如下:
从输出日志中,您可以看到GPU:NVIDIA GEFORCE GTX 1660 TI已加载到Docker,Cudnn版本为7.5
使用Docker环境,验证Cuda和Cudnn的安装。
下载后,默认文件名是Models-Master,将文件名重命名为模型,并保持文件名和平台一致
如果网络速度不好,请直接下载ZIP压缩软件包,对吗?
3
下载后的文档结构显示在图中:
TensorFlow对象使用Protobufs检测API来配置模型和训练参数。在使用框架之前,您必须下载并编译Protobuf库。
执行以下命令,使其生效
执行是否生效
您可以看到ProtoC的安装目录已添加到路径中。
5
从Tensorflow 2.x开始,PycoCotools软件包被列为用于对象检测API的因数。理想地,在安装对象检测API时,应安装此软件包,如下面的安装对象中所述检测API,但是由于各种原因,安装可能会失败。因此,更简单的方法是提前安装此软件包。在此情况下,安装将稍后跳过。
默认指示器是Pascal VOC评估中使用的指标。请使用可可对象检测指示器,并将其添加到配置文件的este_config消息中。请使用可可实例进行分割测量并将其添加到配置的eval_config消息中文件。
安装过程将持续一段时间。安装完成后,可以执行以下代码以测试安装是否完成。
输出如下:
看到结果还可以,这意味着安装成功,然后您可以启动对象检测过程。
原始:https://juejin.cn/post/7101664327416938510