Google Cloud 于 19 日 Google I/O 开发者大会发表 Vertex AI,是新代管式机器学习平台,开发人员可更轻松部署和维护 AI 模型。过去 Google I/O 大会不会发表太多 Google Cloud 的新闻,如今宣布推出 Vertex AI 服务,在在说明 Google 认为对众多开发人员的重要性。
训练模型程式码减少约 80%,完整的模型生命周期管理
Vertex 是 Google Cloud 团队对市场需求深思熟虑的结果。“在我看来,机器学习在企业正处于危机,”Google Cloud AI 平台产品管理总监 Craig Wiley 表示。“凡是在这个领域工作多年的人,只要看看《哈佛商业评论》或分析师评论,每个人都会说,大多数公司不是正在投资机器学习,就是对这投资感兴趣,但却没有公司从中获得价值。这种情况必须改变。”
2019 年加入 Google 前,Wiley 曾在 2016~2018 年担 AWS SageMaker AI 服务总经理,他指出,Google 和其他让机器学习发挥作用的人莫不看到机器学习如何造成变革性影响,但他也指出,大型云端平台多半透过推动数十项服务为提供服务的起手式,“其中许多都陷入死胡同”(Google 自己一些服务也是如此)。“最终,我们与 Vertex 的目标缩减这些企业的投资报酬率时间,确保不仅可建立模型,且从模型获得真正的价值。”
因此 Vertex 是非常灵活的平台,能让具备不同技能水准的开发人员和资料科学家快速训练模型。Google 表示,与竞争对手相比,训练模型所需程式码行数减少约 80%,并协助他们为这些模型进行完整生命周期管理。
Feature Store 与 Vertex Pipelines 加持,能加速 AI 模型部署至实际产线
服务还整合 Google AI 优化器 Vizier,可自动调整机器学习模型的超参数(hyperparameter)。大大减少调整模型所需时间,并允许工程师做更多实验,速度还更快。
Vertex 还提供所谓的“功能商店”(Feature Store),帮助用户支援、共享和重新使用机器学习功能及 Vertex 实验,帮助他们透过更快模型选择,加速将模型部署至生产线。
部署背后是由一项持续监控服务和 Vertex Pipelines 支撑,亦即 Google Cloud 旗下新命名的 AI Platform Pipelines,可帮助团队管理与模型资料的准备与分析有关的工作流,然后训练评估并部署到生产。
为了提供各种开发人员正确切入点,提供三种界面:拖拉式工具、进阶用户专属 Notebook 开发环境以及 BigQuery ML,BigQuery ML 是 Google 旗下使用标准 SQL 查询,以便在自家 BigQuery 资料仓储建立并执行机器学习模式工具。
“构建 Vertex AI 时,我们有两个明确目标:让资料科学家和工程师摆脱机器学习工作流编排的束缚;创造整个产业的转变,让每个人都认真考虑将 AI 从先期测试的炼狱,转向至全面量产。”Google Cloud 云端 AI 与产业解决方案副总裁兼总经理 Andrew Moore 表示。“我们为取得的成就感到自豪,因使新一代 AI 真正部署,进而让资料科学家和工程师从事有意义与富创意的工作。”
- Google Cloud launches Vertex AI, a new managed machine learning platform
(首图来源:Google Cloud)