新闻中心

News

当前位置:首页 > 新闻中心 > Pytorch1.0预览版来了!
Pytorch1.0预览版来了!
新闻来源: 新智元    发布时间:2018-10-06

PyTorch 1.0加速了在人工智能到生产部署方面突破性研究所涉及的工作流程。 


借助亚马逊、谷歌和微软提供的云服务支持,以及与ARM,英特尔,IBM,NVIDIA和高通的更紧密结合,开发人员可以更轻松地利用PyTorch的兼容软件、硬件和开发工具生态系统。


与PyTorch 1.0兼容的软件和硬件越多,AI开发人员就越容易快速地构建、训练和部署最先进的深度学习模型。


PyTorch1.0新亮点


PyTorch1.0最新添加了一个混合前端(hybrid front end),支持从eager模式到图形模式的跟踪和脚本模型,一次来弥补研究和生产部署之间的差距。


还增加了改进的torch.distributed库,开发者可以在Python和C ++环境中实现更快的训练。


最后,增加了针对性能关键性研究的eager模式C ++接口(在测试版中发布)。


Pytorch生态系统更深层次的支持


AWS、Google和Microsoft通过对Pytorch云平台、产品和服务的框架提供更强大的支持,来深化对PyTorch 1.0的投资。例如,AWS的SageMaker是用于大规模训练和部署机器学习模型的完全托管平台,现在为PyTorch 1.0提供了预配置环境,其中包括了像自动模型调整这样的功能。


谷歌正宣布其为 AI 开发者制定的多种软件和硬件工具将与 PyTorch 1.0 实现集成。谷歌云平台的深度学习虚拟机目前有一个新的PyTorch 1.0虚拟机映像文件,预装了NVIDIA驱动程序和教程。


Google还提供张量处理单元(TPU),这是用于机器学习定制开发的专用集成电路(ASIC)。 Google Cloud TPU团队的工程师与Facebook的PyTorch团队积极合作,目前基于 PyTorch 1.0 的模型能使用这种定制化的硬件了。


微软是Facebook在另一项重要的人工智能项目——ONNX(开源的神经网络交换格式)的早期合作伙伴,它也进一步承诺在其机器学习产品套件中将为PyTorch提供一流的支持。


Azure机器学习服务现在允许开发人员无缝地从在本地机器上训练PyTorch模型,并转移到Azure Cloud中进行扩展。为了进行数据科学实验,微软提供了预配置的数据科学虚拟机(DSVM),这些虚拟机预先安装了PyTorch。对于想要开始探索PyTorch而不需要安装软件和安装本地机器的开发人员来说,Azure笔记本提供了一个免费的、云托管的Jupyter笔记本解决方案,该解决方案是用PyTorch教程建立的。


最后,Visual Studio Code的AI扩展工具为简化PyTorch代码开发和训练,提供了Azure ML和PyTorch api的集成。


除了软件和云服务提供商,技术合作伙伴(包括ARM、IBM、英特尔、英伟达和高通)正在通过直接优化、内核库集成以及对编译器和推断运行时等附加工具来支持PyTorch 1.0。这种额外的支持确保PyTorch开发人员可以在各种各样的硬件上运行模型,这些硬件是为数据中心和边缘设备的训练和推理而优化的。


为未来的AI开发者提供教育资源


目前,许多教育提供者使用现有的PyTorch框架来教授深度学习相关的在线课程和大学课程。


该框架的易接近性和与Python的深度集成使学生更容易理解,并对各类深度学习概念进行实验。Facebook表示,随着PyTorch 1.0的发展,很高兴有更多的合作伙伴进一步地关注相关课程。


Udacity目前正与Facebook合作,为开发人员提供免费的深度学习入门课程,该课程将完全在PyTorch上讲授。此外,Facebook将赞助300名成功完成该中级课程的学生,使他们继续完成Udacity的深度学习计划(Nanodegree中的教育),该计划已改编为在PyTorch 1.0上运行。


Fast.ai同样使用 PyTorch 框架,并提供免费的深度学习入门、高级和机器学习课程。它宣布推出第一版fast.ai——一个基于PyTorch 1.0构建的开源软件库。该软件库可以支撑更高的准确性以及更快的速度,代码则显著减少,无论是初学者还是经验丰富的开发人员都更容易理解深度学习。


Facebook表示,在未来几个月里,很希望能够收到与使用PyTorch1.0相关的反馈消息。另外,还期待继续与深度学习生态系统中的领军人物合作,以帮助更多的人充分利用AI,并加快从研究到生产的道路。


最后,献上PyTorch1.0预览版下载地址

https://pytorch.org/get-started/locally/