NVIDIA推出新版DIGITS和cuDNN 深度学习训练性能轻松翻番

日期: 2015-07-30 来源:TechTarget中国

近日,NVIDIA发布了NVIDIA DIGITS深度学习GPU训练系统第2版(DIGITS 2) 和NVIDIA CUDA深度神经网络库第3版(cuDNN 3)。新软件将让数据科学家和研究人员能够通过更快的模型训练和更复杂的模型设计来创造更准确的神经网络,从而加速其深度学习项目和产品的开发工作。

对数据科学家来说,DIGITS 2现在能够在多颗高性能GPU上实现神经网络训练的自动扩展。与单一GPU相比,这种扩展在图像分类方面能够令深度神经网络训练的速度翻一番。

对深度学习的研究人员来说,cuDNN 3可优化GPU内存中的数据存储,从而能够训练更大、更复杂的神经网络。cuDNN 3还能够提供高于cuDNN 2的性能,让研究人员在单一GPU上最高可令神经网络训练速度达到两倍。

全新的cuDNN 3库预计将集成到Caffe、Minerva、Theano以及Torch等深度学习框架的未来版本中,这些框架被广泛用于训练深度神经网络。

NVIDIA加速计算副总裁Ian Buck表示: “高性能GPU是为大学与大型网络服务公司支撑深度学习研究与产品开发的基础性技术。我们正与数据科学家、框架开发者以及深度学习社区密切合作,以便运用最强大的GPU技术、突破目前的极限。”

DIGITS 2的自动多GPU扩展最高可实现两倍训练速度

DIGITS 2是首个一体式图形系统,它在图像分类方面可指导用户完成设计、训练以及验证深度神经网络的整个过程。

DIGITS 2中全新的自动多 GPU 扩展功能通过在系统中的所有GPU上自动分配深度学习训练任务,从而能够最大限度地增加可用的GPU资源。利用DIGITS 2,在四颗NVIDIA Maxwell架构的GPU上,NVIDIA的工程师令著名的AlexNet神经网络模型的训练速度达到了单一GPU的两倍以上。早期客户的初步成果呈现了更好的加速效果。

雅虎旗下Flickr网站的人工智能架构师Simon Osindero表示: “在自动加标签(Auto-tagging)这方面,在单一NVIDIA GeForce GTX TITAN X上训练我们的一个深度网络需要耗费大约16天时间,但是如果在四颗TITAN X GPU上利用全新的自动多GPU扩展功能,整个训练只需5天即可完成。这是一个巨大的进步,它让我们能够更快地看到结果,还让我们能够在模型方面进行更广泛地探索以便实现更高的精度。”

cuDNN3能更快地训练更大、更复杂的模型

cuDNN是一款用于深度神经网络的GPU加速数学例程库,开发者可以将其集成到更高级的机器学习框架中。

cuDNN3在GPU内存中新增了对16位浮点数据存储的支持,使可存储的数据量翻了一番,优化了内存带宽。凭借这一功能,cuDNN 3让研究人员能够训练更大、更复杂的神经网络。

百度研究院高级研究员Bryan Catanzaro表示: “我们认为,NVIDIA库中的FP16 GPU存储支持功能将让我们进一步扩展我们的模型,因为当我们把单一模型的训练任务扩展至多颗GPU时,这一功能将会增大我们硬件的有效内存容量并提升效率。这将会使得我们的模型精度进一步提升。”

至于在单一GPU上训练神经网络,cuDNN 3也能够实现大大高于cuDNN 2的性能。它让NVIDIA工程师在单一NVIDIA GeForce GTX TITAN X GPU上训练AlexNet模型时实现了两倍的速度。

上市情况

DIGITS 2预览版今天上市,NVIDIA注册开发者可免费下载。cuDNN 3库预计将在接下来的几个月里出现在各大深度学习框架当中。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐