iPhone 的神经网络引擎是如何学习的?
資深大佬 : Themyth 0
我昨天使用了辅助功能—旁白–里面的屏幕识别。
据说这是利用到了 A12 芯片之后的神经网络引擎做到的。
它可以识别出图像中的物体是什么,文字是什么,甚至打开摄像头就能识别前方物体 人类 杯子 道路等等。
但是看介绍说这个识别率会随着自己学习慢慢变的更厉害。
这我就不理解了,它又没联网,它是如何自己学习的?普通用户是不是多多使用就能训练他的学习能力了呢?
据说这是利用到了 A12 芯片之后的神经网络引擎做到的。
它可以识别出图像中的物体是什么,文字是什么,甚至打开摄像头就能识别前方物体 人类 杯子 道路等等。
但是看介绍说这个识别率会随着自己学习慢慢变的更厉害。
这我就不理解了,它又没联网,它是如何自己学习的?普通用户是不是多多使用就能训练他的学习能力了呢?
大佬有話說 (1)