在机器学习带来的众多颠覆性技术中,计算机视觉领域最受工业界和学术界的关注。刚刚发布1.3正式版的PyTorch势头正猛,人们围绕这个深度学习框架开发了越来越多的工具。最近,一个名为TorchCV的计算机视觉模型框架在GitHub上火了一把。项目链接:https://github.com/donnyyou/torchcv这个库提供了大部分基于深度学习的CV问题研究的源代码。对于用户来说,调用最常用、最先进的电脑型号可以变得容易得多。TorchCV的作者DonnyYou,来自北京大学,机器感知与智能教育部重点实验室在读研究生。TorchCV支持的模型TorchCV支持图像分类、语义分割、目标检测、姿态检测、实例分割、生成对抗网络等任务中的多种常用模型。列表如下:图像分类VGG:VeryDeepConvolutionalNetworksforLarge-ScaleImageRecognitionResNet:DeepResidualLearningforImageRecognitionDenseNet:DenselyConnectedConvolutionalNetworksShuffleNet:AnExtremelyEfficientConvolutionalNeuralNetworkforMobileDevicesShuffleNetV2:PracticalGuidelines用于EcientCNN架构设计的偏序修剪:用于最佳速度拱精度的神经网络搜索语义分割DeepLabV3:重新思考用于语义图像分割的Atrous卷积PSPNet:金字塔场景解析网络DenseASPP:用于街景语义分割的DenseASPP用于语义的非对称非局部神经网络SegmentationTargetDetectionSSD:SingleShotMultiBoxDetectorFasterR-CNN:ToReal-TimeObjectDetectionwithRegionProposalNetworksYOLOv3:AnIncrementalImprovementFPN:特征金字塔网络用于对象检测态度检测CPM:卷积姿势机OpenPose:使用部分亲和力场的实时多人二维姿势估计实例分割掩码针对NetworkPix2pix的R-CNNGeneration:使用条件对抗网络的图像到图像转换CycleGAN:使用循环的未配对图像到图像转换-ConsistentQuickStartTorchCVTorchCV目前只支持Python3.x和pytorch1.0pip3install-requirements.txtcdextensionsshmake.sh使用TorchCV得到的模型性能数据如下所示的性能数据完全复现了论文的结果。ImageClassificationSemanticSegmentationTargetDetectionPoseEstimationOpenPose:RealtimeMulti-Person2DPoseEstimationusingPartAffinityFieldsInstanceSegmentationMaskR-CNNGenerationAgainstNetworkPix2pixCycleGANTTorchCVDatasetTorchCV定义了所有你能在数据集子目录中找到的任务的数据格式。下面是一个用于训练语义分割的数据集目录树示例。您可以使用datasets/seg/preprocess文件夹中的脚本预处理开源数据集。Folderaddress:https://github.com/donnyyou/torchcv/tree/master/datasets/seg/preprocessTorchCVcommandprojectauthorprovidesacommandlinetoolforuserstousethemodel,thecodeisasfollows:trainingcdscripts/seg/cityscapes/bashrun_fs_pspnet_cityscapes_seg.shtraintag恢复训练cdscripts/seg/cityscapes/bashrun_fs_pspnet_cityscapes_seg.shtraintag验证cdscripts/seg/cityscapes/bashrun_fs_pspnet_cityscapes_seg.shvaltag测试cdscripts/seg/cityscapes/bashrun_fs_pspnet_cityscapes_seg.shtesttag2019年,PyTorch正在逐渐赶超TensorFlow,在研究领域成为最为流行的Deeplearningframework.Asthenumberofpeopleusingthelatterincreases,wewillseemoreefficienttoolsinthefuture.
