比拟复现34个预实习模子,PyTorch和Keras你选谁?
这些题目都是实际存在的,原 GitHub 项目为每个题目都提供了链接。项目作者的方针之一是通过为 Keras 预实习模子建设可复现基准,从而辅佐办理上述的一些题目。办理要领可分为以下三个方面,在 Keras 中要做到:推理时代停止分批(batches)。 每次运行一个样本,这样做很是慢,但可觉得每个模子得出一个可复现的输出。 只在当地函数或 with 语句中运行模子,以确保在加载下一个模子时,前一个模子的任何对象都不会生涯在内存中。 2. 预实习模子复现功效 以下是 Keras 和 PyTorch 的「现实」验证集精确度表(已经在 macOS 10.11.6、Linux Debian 9 和 Ubuntu 18.04 上获得验证)。 3. 复现要领 起首必要下载 ImageNet 2012 验证集,该数据集包括 50000 张图片。在 ILSVRC2012_img_val.tar 下载完成后,运行以下呼吁行预处理赏罚/提取验证集:
ImageNet 验证齐集每个示例的 top 5 猜测已经举办了估量,运行以下呼吁行将直接行使这些估量算功效,并在几秒内复现 Keras 和 PyTorch 基准。
不行使估量算数据也可以复现每个 Keras 和 PyTorch 的推理输出。Keras 的推理要花很长时刻(5-10 小时),由于每次只计较一个示例的前向撒播,还要停止向量计较。假如要靠得住地复现同样的精确率,这是今朝发明的独一的要领。PyTorch 的推理很是快(一个小时都不到)。复当代码如下:
你可以节制 GPU 的行使、批巨细、输出存储目次等。运行时加上-h flag,可以查察呼吁行参数选项。 看完文章之后,你更中意谁呢? 原文链接:http://l7.curtisnorthcutt.com/towards-reproducibility-benchmarking-keras-pytorch 【本文是51CTO专栏机构“呆板之心”的原创译文,微信公家号“呆板之心( id: almosthuman2014)”】 戳这里,看该作者更多好文 【编辑保举】
点赞 0 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |