Pytorch多机多卡 发表于 2019-08-13 分类于 Pytorch 评论数: 本文字数: 1.7k 阅读时长 ≈ 3 分钟使用Pytorch(1.1)自带的分布式训练接口,在GPU集群上使用多机多卡训练模型阅读全文 »
ShuffleNetV2 发表于 2019-07-31 更新于 2019-08-02 分类于 PaperReading 评论数: 本文字数: 2.8k 阅读时长 ≈ 5 分钟文中指出模型加速和压缩不应仅关注计算量(FLOPs)这一个指标,还应关注如MAC(memory access coss)等其他损失。并根据不同方面的损失通过多组实验给予了模型设计时的4点建议。阅读全文 »