AI 的发展潜力被各方看好,但 AI 运算所需要消耗的大量能源,却是发展背后的隐忧。MIT 日前公布新的芯片,比传统 AI 芯片神经网络运算速度快 7 倍,能源消耗减少 95%,未来如果普及能将 AI 的能耐装到一般消费装置如手机上面。
脸部辨识、语音辨识这些我们习以为常的运用,背后都是神经网络运算的结果。一般来说神经网络很大,因此要放进手机往往只有简化的架构,无法发挥神经网络的强大能耐,或是得把资料透过网络传到资料中心处理。MIT 新的芯片能够减化资料在芯片的记忆和运算模组传递的次数,运算效能增加 3~7 倍,进而加速速度,而且能耗减少 95%。
如果 MIT 的新芯片能普及,这些新芯片能驱动本地的神经网络,能放在家里的智慧装置。未来人类语音命令能在本地处理,而不必像现在的 Google Home 或是 Amazon Alexa,必须连网传到资料中心处理,再回传回来。
当 2017 年苹果发表 A11 bionic 芯片,就具有 AI 能力,用 Face ID 辨识是否是手机的主人。未来类似的应用不会只在 iPhone 上面,或是 Face ID 这单一功能,而是更多装置和应用。
- Neural networks everywhere
- MIT has a new chip to make AI faster and more efficient on smartphones
- MIT Develops Chip That Makes AI Work Faster, But Uses Less Power
(首图来源:MIT)