|
上一章介绍了.pb转换为.mlmodel,生成了IOS需要的文件“MobileNetV2.mlmodel”,现在我们需要使用它并来预测我们的图像。
1. 加载“MobileNetV2.mlmodel”
将“MobileNetV2.mlmodel”拷贝到IOS工程中,然后打开Xcode,选择File/Add file to xxx,这样就加载进来了,然后再xcode查看一下,信息如下:
可以看到,显示的信息跟我们在python里面的输入是一样的。
2. 用代码来预测,我这里的语言是swift。
- let model3 = MobileNetV2()//创建一个新模型
- let buffer = image.imageToPixelBuffer(outputSize: CGSize.init(width: 400, height: 320))
- let objc3 = try!model3.prediction(ImageTensor: buffer!)
- let image3 = MLMultiArray2image(multiArray: objc3.SemanticPredictions_0)
- self.scanImageView?.image = image3
- UIImageWriteToSavedPhotosAlbum(image3, nil, nil, nil)//图片写入相册
复制代码
3.效果图如下
至此,这个主体的框架算是完成了。当然细节还有很多,比如图像选取太单一化,这样造成后面识别会有瑕疵。只有将各种类型的图像尽可能多的拿来训练,你的网络健壮性才能得到保障。
我这边大概只训练了20000步,由于不是gpu,速度相对较慢。一天一夜才能训练完。后面的任务就是加大数据量和数据的多样化采集。直到满足需求为之。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有帐号?注册
x
阿莫论坛20周年了!感谢大家的支持与爱护!!
曾经有一段真挚的爱情摆在我的面前,我没有珍惜,现在想起来,还好我没有珍惜……
|