如何部署自己的SSD检测模型到Android TFLite上

  • 时间:
  • 浏览:0

首先,抛开后处理的每段,你的SSD模型(无论是VGG-SSD和Mobilenet-SSD), 你最终的模型的输出是对class_predictions和bbox_predictions; 已经 是encoded的

box_

class_predictions: M个Feature Layer, Feature Layer的大小(宽高)视网络价值形式而定; 每个Feature Layer有Num_Anchor_Depth_of_this_layer x Num_classes个channels

TensorFlow Object Detection API 上提供了使用SSD部署到TFLite运行上去的最好的依据, 原来这套API封装太死板, 由于我不需要 我本人实现了一套SSD的训练算法,应该为什不需要 部署到TFLite上呢?