内容简介:从明天开始,我开始休年假,准备去云南逛一逛,估计这段时间又无法更新公众号,还请大家谅解。在《查阅tfjs的文档,在浏览器中,提供了几种本地存储的方式:
从明天开始,我开始休年假,准备去云南逛一逛,估计这段时间又无法更新公众号,还请大家谅解。
在《 当微信小程序遇上TensorFlow - tensorflow.js篇 》一文中,我介绍了在微信小程序中使用TensorFlow.js,有朋友可能注意到,小程序每次都需要从网络加载模型。虽然tensorflow.js官方声称利用了浏览器的缓存技术,并不会每次都从网络下载。但在微信小程序中,使用的是wx.request接口下载文件,测试下来发现,似乎没有缓存机制。虽然小程序号称即用即走,但每次都需要从网络下载模型,完全体现不出端推断的优点,况且深度学习模型通常也不小,通常有好几M。那我们能否将模型存储到本地呢?
查阅tfjs的文档,在浏览器中,提供了几种本地存储的方式:
-
将模型保存到浏览器的local storage,后续可以从local storage加载
-
将模型保存到浏览器的IndexDB,然后从IndexDB加载
-
将模型通过下载方式保存到本地,然后可以通过文件上载方式加载模型
微信小程序支持两种形式的本地存储:数据缓存和本地文件。为此,我参考了 browser_files.ts 的实现,实现了微信小程序平台下的本地文件存储 mp_files.ts 。具体代码可以参考:https://github.com/mogoweb/wechat-tfjs-core
实现上并没什么特别的难度,但是栽在微信小程序的坑里,爬了好几天才找到原因。具体说来就是 FileSystemManager.readFile(Object object) 这个接口,不要想当然的认为将 encoding 设为 binary ,就会返回 ArrayBuffer 类型数据,文档对 encoding 参数的说明是:
指定读取文件的字符编码,如果不传 encoding,则以 ArrayBuffer 格式读取文件的二进制内容
所以为了以二进制字节读取文件内容,千万不要传 encoding 参数,否则永远返回的是 string 类型数据。
至于模型保存,可以参考如下代码,为此我为小程序定义了一个 mp:// 前缀:
const save_model = async model => { const saveResult = await model.save('mp://' + wx.env.USER_DATA_PATH + '/mymodel'); console.log(saveResult); }
加载模型,文件路径请指定正确的json和权重文件,无需加上 mp:// 前缀:
const load_model = async () => { let model_files = [wx.env.USER_DATA_PATH + '/mymodel.json', wx.env.USER_DATA_PATH + '/mymodel.weights.bin']; var model = await tf.loadLayersModel(tf.io.mpFiles(model_files)); return model; }
示例代码可以参考:https://github.com/mogoweb/wechat-tfjs-examples
需要注意的是, 微信小程序对于本地文件总大小有10M的限制 ,所以这种方法只适合比较小的模型,如果那种几十M的深度学习模型,还是尽量部署到服务器。毕竟小程序的初衷就是小巧、轻便,如果过重,就背离了小程序的设计理念。
以上所述就是小编给大家介绍的《当微信小程序遇上 TensorFlow:本地缓存模型》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 推荐系统遇上深度学习(二十五)--当知识图谱遇上个性化推荐
- 当算法遇上敏捷开发
- 当漏洞管理遇上威胁情报
- 当 WebAssembly 遇上 Serverless
- 当 Substrate 遇上传统业务应用
- 当Substrate遇上传统业务应用
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
HTML 压缩/解压工具
在线压缩/解压 HTML 代码
HSV CMYK 转换工具
HSV CMYK互换工具