当前位置:首页 > 社会热点 > 正文

285000 cpu核心,10000 gpu,微软建立人工智能培训超级计算机

时间:2020-05-23 10:14:26   来源:网络  

微软与OpenAI合作的第一个结果已经发布!

它是一台单系统超级计算机,每个GPU拥有285000多个CPU核、10,000个GPU和400Gbps网络带宽!

去年,微软宣布将在OpenAI上投资10亿美元,共同开发微软云平台的新技术,并进一步扩展大规模人工智能功能,以实现人工智能。作为交换,OpenAI同意将其部分知识产权授权给微软,然后将其商业化并出售给合作伙伴,并在OpenAI致力于下一代计算硬件的同时,培训和运行蓝色人工智能模型。

今年的微软build2020开发者大会完全转到了线上,会上微软宣布与openai独家合作打造了一台与当前最新的全球超算500列表(该项目对500台性能最佳的超级计算机进行了基准测试和详细介绍)对比,性能位居前五的超级计算机,该计算机专门用来在azure公有云上训练超大规模的ai模型。

超大规模人工智能模型的实现

由于在天蓝色上托管,超级计算机拥有现代云计算基础设施的各种优势,包括快速部署、可持续的数据中心和访问所有蔚蓝服务。与以前单一的人工智能模型培训单个任务相比,超级计算机可以实现更高水平的超大型人工智能模型,深入理解语言语法和知识概念的差异,并完成复杂的任务。

例如,你可以总结长篇演讲,在数千份法律文件中找到声明,也可以在GitHub上直接找到代码。

微软2月份推出的自然语言图灵模型已经是世界上最大的人工智能模型。通过蔚蓝人工智能服务和GitHub开源社区,大型人工智能模型、优化培训工具和超级计算机资源被开放,这样开发者、数据科学家和商业用户就可以很容易地使用这个非常大的人工智能平台来开发自己的项目。

为阿吉铺平道路?

OpenAI长期以来一直认为,巨大的计算能力是实现agi或ai的唯一途径,而且agi可以学习人类所能做的任何事情。

虽然米拉创始人尤舒本吉奥(YoShuabengio)和facebook副总裁兼首席人工智能科学家扬尼尔坎(Yannlclin)等名人相信,agi并不存在,但OpenAI的联合创始人和支持者--包括伊利亚舒特斯卡夫(Ilyasutskever)、埃隆穆斯克(Elonmusk)、gregbrockman首席科学家雷迪霍夫曼(Reidhoffman)和ycombinator前总裁萨马尔特曼(Samaltman)--相信强大的计算机将强化学习和其他技术结合在一起,使人工智能在范式转变中

超级计算机的发布代表了OpenAI在这一愿景上的最大赌注。

无论采用何种形式,都不清楚新的超级计算机是否有足够的功能来实现任何接近agi的功能。

在去年接受英国金融时报采访时,布罗克曼说,OpenAI预计到2025年将花费微软10亿美元的全部投资,以建立一个能够运行人脑大小的人工智能模型的系统。2018年,OpenAI自己的研究人员发布了一份分析报告,显示在2012年至2018年期间,最大的人工智能培训业务所用的计算量增加了300000倍,而在3次中增加了一倍。5个月,远远超过摩尔定律。在此基础上,ibm在上周详细介绍了神经计算机,使用数百个定制的芯片来训练Atari在创纪录的时间内播放ai,Nvidia,在它的100张核心显卡(称为A100)的基础上,发布了一台5peaflop服务器。

有证据表明,提高效率可能会抵消日益增长的计算需求。OpenAI最近的另一项调查发现,自2012年以来,每隔16个月就会有三倍的计算量来训练人工智能模型,使其具有相同的性能,以便在流行的基准(ImageNet)中对图像进行分类。然而,与新算法相比,计算有助于提高性能的程度仍然是一个悬而未决的问题。

上一篇:依靠科学技术的帮助,深入研究整改的细节,确保这三大灾害的发生

下一篇:最后一页