我没触碰过深度学习,可是现在在做的作用很有可能可以用这一来实操,因此 想安全套看
小兄弟参照的是这一案例程序
https://github.com/tensorflow/tfjs-examples/tree/master/webcam-transfer-learning
live demo网页页面在这里
https://storage.googleapis.com/tfjs-examples/webcam-transfer-learning/dist/index.html
能够 见到demo是能够 预拍各种各样不一样的sample进来然後train
之後预测分析webcam里的界面是哪一种情况
这是我自身参照写出去的,实际上 便是抄出去的,主要是引进tensorflow.js不太一样罢了
https://github.com/tak40548798/tensorflow.js-sheet-type-predict
大约是长那样
https://www.youtube.com/watch?v=fRKNSM7LvwY
(录像软件没拍下input键入选档案资料的window因此 不对劲)
我现阶段想要做的是
能够 预测分析webcam里边放置的打印纸张是哪一种特性(文件格式)的打印纸张
比如说是我三种种类的打印纸张,拍在webcam里边好像那样
相互连接1:https://imgur.com/a/KqnMizp
各自有二种不一样的放置高宽比,webcam视角打印纸张方位先不考虑到
具体必须预测分析的应用状况很有可能会在这个打印纸张上填写各种各样不一样的材料
并且一样会出现二种不一样的放置高宽比
比如说好像那样
相互连接2:https://imgur.com/a/S3RIOG7
换句话说必须预测分析打印纸张内载入了文本这类的物品後
也还需要能推算出他是哪一种特性(文件格式)的打印纸张
案例access camera分辨率占比是1:1的尺寸,分辨率是224x224
因此 他键入给实体模型的那幅图分辨率便是224x224
键入给模型预测的frame也是224x224
可是我的做法是access camera分辨率占比16:9占比的尺寸,分辨率1920x1080
用canvas从界面管理中心裁剪框架1080x1080後变小到224x224键入给实体模型做训炼
便是正中间裁剪一个正方形,从16:9图片的管理中心切出来1:1图像
它是用于来养实体模型的照片
相互连接3: https://imgur.com/a/17BOcE9
-> 它是给实体模型的sample
也就是相互连接1( https://imgur.com/a/KqnMizp )切出的照片
而做预测分析是用一个Loop从Webcam里边不断获取frame也就是照片
然後依样从16:9图片的管理中心切出来1:1图像变小,丢给模型预测,来做分辨
现阶段看起自己检测看上去有时是会失准的
由于见到加上给实体模型的照片全是乾净的,这种训炼用的打印纸张,或者说报表他是空缺乾净的
可是必须预测分析的物品是写有物品,也就是有杂讯的
再再加上预测分析时也是要做裁剪
就好像那样,相互连接4:https://imgur.com/a/i3VOqmb
-> 它是给模型预测的图象
简易而言
键入给实体模型训炼的图是相互连接3见到的图,这种图是以相互连接1裁剪来的
键入给模型预测的图是相互连接4见到的图,这种图是以相互连接2裁剪出去
预测分析的姿势会是持续的从camera里边采撷frame出去
总得来说
想问的是假如改成别的model会较为好么?
如今这一程序用的实体模型是一个称为mobilenet_v1的实体模型
假如改成别的实体模型准确度会提升吗?
https://github.com/tensorflow/models/blob/master/research/slim/nets/mobilenet_v1.md
案例用的实体模型是这一,觉得指同一个物品mobilenet_v1_0.25_224
const mobilenet = await tf.loadLayersModel( "https://storage.googleapis.com/tfjs-models/tfjs/mobilenet_v1_0.25_224/model.json");
键入给实体模型的材料能够 是别的占比和尺寸的照片吗?
由于现在我用的这一实体模型假如不给224x224尺寸的照片他会跳出来不正确
例如好像这一模样
error when checking : expected input_1 to have shape [null,224,224,3] but got array with shape [1,463,642,3].