2019-08-15 11:11:57
超级电脑DGX SuperPOD有高达9.4 petaflops运算处理能力,从建造到完成架设仅花费3周时间,主要用于加快自驾车系统发展使用,用在对话式人工智能系统可以大幅缩减至53分钟即可完成,同时反应时间仅在2.2毫秒内。
针对目前越来越多厂商投入发展的对话式人工智能应用,NVIDIA稍早说明藉由超级电脑DGX SuperPOD进行加速,将可在短短53分钟内完成总计达33亿词量的BERT预训练语言模型,相比Google Brain今年在4月宣布藉由全新演演算法LAMB,搭配内含1024组TPU晶片设计的第三代TPU Pod进行加速,前后需要76分钟的表现更快。
依照先前公布消息,DGX SuperPOD是以96组NVIDIA DGX-2H (采用Tesla V100 32GB HBM2记忆体版本),并且搭配NVSwitch与Mellanox互连技术构成,总计连结1536组NVIDIA V100 Tensor Core GPU,形成高达9.4 petaflops运算处理能力,从建造到完成架设仅花费3周时间,主要用于加快自驾车系统发展使用。
而藉由此超级电脑进行加速运算,使得对话式人工智能系统原本需要花费更长时间训练情况,可以大幅缩减至53分钟即可完成,同时反应时间仅在2.2毫秒内,其中可对应以83亿组复杂参数内容构成的语言模型,借此让人工智能能有更自然的人机对话效果。
为了推动更广泛的对话式人工智能技术应用,NVIDIA稍早也将相关软体开源提供使用,让更多开发者能以此建造完整的BERT预训练语言模型,并且套用在不同使用需求。
在人工智能技术持续发展之下,可对应自然对话、更能理解口语内容的人工智能系统发展将变得更加重要,其中可分别应用在手机数位助理服务、无人商店、客服系统、医疗看护、自动驾驶、智能城市、金融服务等领域,透过人工智能完成基本服务项目,借此让人力分配可以更有效率。