TVM 深度学习编译器加入 Apache 软件基金会
将机器学习应用于各种硬件设备的需求日益增长。当前的框架依赖于特定于供应商的运算符库,并针对狭窄范围的服务器级 GPU 进行了优化。将工作负载部署到新平台(例如,手机、嵌入式设备和加速器(例如,FPGA、ASIC))需要大量的人工努力。
TVM 是一个开源深度学习编译器堆栈,它弥合了以生产力为中心的深度学习框架与以性能或效率为导向的硬件后端之间的差距。今天,我们很高兴地宣布,TVM 社区已决定转移到 Apache 孵化器,并成为一个 Apache(孵化中)项目。
TVM 堆栈最初是华盛顿大学保罗·G·艾伦计算机科学与工程学院 SAMPL 小组 的一个研究项目。该项目使用了 Halide 项目 的循环级 IR 和多项优化,此外还一个完整的深度学习编译器堆栈,以支持各种硬件后端的机器学习工作负载。
自推出以来,该项目由一个开放源代码社区驱动,该社区涉及多个行业和学术机构。目前,TVM 堆栈包括用于高级优化的高级可微分编程 IR、机器学习驱动的程序优化器和 VTA(一个完全开源的深度学习加速器)。该社区汇集了来自机器学习、编译器系统、编程语言和计算机体系结构的创新,以构建一个全栈开源深度学习编译器系统。该项目已在 几家主要公司 的生产中使用。
除了技术创新之外,社区还采取开放、欢迎和中立的政策。该项目由提交者运行,这些提交者完全根据他们对项目的贡献价值而选举产生。除了来自 UW SAMPL 的贡献者之外,社区现在还有近 200 名贡献者,他们来自亚马逊网络服务 (AWS)、高通、Facebook、谷歌、华为、AMD、微软、康奈尔大学、加州大学伯克利分校等。社区于去年 12 月成功举办了第一次开发者大会,吸引了来自世界各地的 180 多名与会者。展望未来,加入 Apache 后,我们将继续践行这一原则,努力将深度学习编译带给每一个人。
我们想借此机会感谢艾伦学院对 SAMPL 团队的支持,是他们孕育了 TVM 项目。我们还要感谢 Halide 项目,它为 TVM 的循环级 IR 和初始代码生成提供了基础。我们要感谢我们的 Apache 孵化器导师,感谢他们将该项目介绍给 Apache 并提供有益的指导。最后,我们要感谢 TVM 社区以及所有支持 TVM 开发人员的组织(如上所列)。
另请参阅 艾伦学院关于此处过渡的新闻、TVM 会议议程幻灯片和录音,以及我们的社区指南。在 Twitter 上关注我们:@ApacheTVM。