我只是想开始学习Apple支持我们的令人难以置信的框架,当我浏览Web时,遇到一个非常基本的问题,到目前为止,没有人解决:CoreML对象识别器的精度如何?意味着CoreML应用程序可能有多精确?

例如:

如果我尝试创建一个汽车模型识别器,它能否从大众高尔夫4告诉大众高尔夫3?

是否能够区分仅略有不同的不同斩波器(摩托车)?

它能说明啤酒和普通汽水瓶之间的区别吗?

最佳答案

这完全取决于您设计的模型和训练方式。它与Core ML本身并没有多大关系,因为Core ML对汽车,摩托车或汽水瓶一无所知。该知识被您的模型捕获。如果您可以训练一个可以执行此操作的模型,那么Core ML可能可以运行它。

找出模型是否可以区分大众高尔夫3和4的最简单方法是,收集一堆两种汽车的图像,然后使用Turi Create(苹果公司的开源软件)来训练这种模型。

至于这种模型有多精确,找出的唯一方法是建立一个模型并对其进行训练,然后对其进行评估。请注意,针对ILSVRC挑战的图像分类器(您在此处讨论的模型类型)获得了95%以上的准确性,这被认为与人类水平的表现有关。

因此,有了足够的数据,精心选择的模型架构,以及适当的培训程序,您就可以在所选择的问题域中近似一般人类专家的准确性水平。

关于tensorflow - Swift中视觉/CoreML对象识别器的精度,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/49123389/

10-12 19:28