IT之家 12 月 21 日消息,谷歌日前推出一款名为 TpuGraphs 的模型训练数据集,主要用于“优化编译器”、“提升 AI 深度学习能力”。
谷歌指出,当下 AI 深度学习系统通常使用 TensorFlow、JAX、PyTorch 等框架训练而成,这些框架主要通过底层编译器的启发式算法(Heuristic Algorithm)优化模型,而在相关编译器中运用“学习成本模型”,即可改善编译器的性能,并提升最终输出模型的深度学习能力。
IT之家获悉,谷歌推出的 TpuGraphs 数据集正是一款“学习成本模型”,这款数据集的内容主要来自各种开源深度学习程序,涵盖多种热门模型架构,例如 ResNet、EfficientNet、Mask R-CNN 和 Transformer 等。
与业界竞品相比,谷歌 TpuGraphs 数据集“平均图大小”相比业界训练集大了 770 倍、“图数量”则是对了 25 倍。谷歌声称,为编译器应用 TpuGraphs 数据集可有效解决最终输出的模型“可扩展性”、“效率”和“质量”等问题。
此外,谷歌还介绍了一种名为 GST(Graph Segment Training)的模型训练方法,允许在 RAM 有限的设备中训练大型图神经网络。该方法号称能够令模型“端到端训练时间”加速 3 倍,有效提高模型训练效率。
© 版权声明
免责声明
本站提供的一切软件、教程和内容信息仅限用于学习和研究,不得用于商业或者非法用途,否则,一切后果请用户自负;本站信息来自网络收集整理,版权争议与本站无关,您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除相应的内容;如果您喜欢该内容,请支持正版,得到更好的服务;我们非常重视版权问题,如有侵权请与我们联系,敬请谅解!
邮箱:sanshi@sanshi.link
相关文章
暂无评论...