图形芯片大厂 NVIDIA(辉达)于 26 日在台北举行的 GPU 技术大会(GTC Taiwan),创办人暨首席执行官黄仁勋发表主题演讲时表示,全球 AI 深度学习运算的兴起之下,人工神经网络的运用突显出 GPU 运算的特性。而且,借由深度学习运算能够延续迟缓成长多年的摩尔定律持续演进,并且成为目前人工智能技术主流演算方式。
2017 年 NVIDIA GTC Taiwan 订出“人工智能的多元应用”、“人工智能应用于工业生产”与“人工智能与产业发展”三大大会主题,且邀请产官学界讲师来分享藉 GPU 运算,协助各领域产业升级;透过人工智能应用,达成产业数位转型的目标。黄仁勋指出,当前一般的电脑运算依然需要 CPU 进行,不过,大量资料分析的工作上,借助 GPU 运算能力已成为趋势。当前的人工智能技术主要以仰赖 CPU 与 GPU 分工合作,为运算架构执行工作。
黄仁勋强调,过去 5 年内,投资人工智能新创产业已成长 10 倍,总产值达 66 亿美元。在此同时,有关深度学习的论文发表,也在过去 3 年成长 10 倍,超过 3,000 篇论文提出,可见人工学习与深度学习的议题深受重视。于是,NVIDIA 在 GTC 2017 提出的 GPU Cloud 服务,可让企业、新创公司借由云端协图工作的方式,得到更强大的运算能力,借此达成各种深度学习的需求。其中包括人工智能模式的建立、电脑视觉应用、自动驾驶技术的发展,以及面对越来越多物联网使用需求等。
另外,借由深度学习模式,目前可透过 GPU 加速应用,来达成 3D 影像即时自然光影追迹、脸部表情与口语同步、动画人物动作的自我表现、测量影像中的物件相对距离,或是让机器手臂判断与移动物件等技术。面对这些未来的需求,NVIDIA 也宣布推出学习模型加速器 TensorRT 3,使深度学习效率大幅提升,进而节省运算设备成本。
黄仁勋进一步表示,借由 TensorRT 3 速器,可使原本需要 160 组 CPU,每秒分析 4.5 万张照片的运算需求,简略到只要配置 8 张 Tesla V100 的单组 NVIDIA HGX GPU 电脑,即可达成相同运算效能。而且,仅需原本四分之一体积、二十分之一电力损耗,以及原本六分之一左右的成本支出就可建构出这样的运算能量。“这些节省的成本就是金钱,这对企业来说非常重要!”黄仁勋表示。
最后,黄仁勋表示,过去用在 CPU 制程的摩尔定律已到尾声,晶体管虽然每年持续增长 50%,但 CPU 效能成长仅 10%,使 CPU 不可能再成长。透过 GPU 运算的深度学习将是另一种解决方案,NVIDIA 的 GPU 是产业专用加速器,能补足 CPU 大量运算上的不足。NVIDIA 也为自主运算时代打造一系列平台架构,包括 Jetson 超级电脑、JetPack 开发人员套件、DIGITS、Issac 机器人虚拟实验室与深度学习单位等,以满足当前自主机器的世代即将来临的需求。
(首图来源:科技新报摄)