Google宣布Cloud AI平台管道以简化机器学习开发
【Google宣布Cloud AI平台管道以简化机器学习开发】很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于Google宣布Cloud AI平台管道以简化机器学习开辟的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对Google宣布Cloud AI平台管道以简化机器学习开辟这篇文章感兴趣的小伙伴可以一起来看看
Google在最近的博客文章中宣布了Cloud AI Platform Pipelines的beta版本,该版本为用户提供了一种部署茁壮,可重复的机器学习管道以及监视 , 审核,版本跟踪和可再现性的方法 。

文章插图
借助Cloud AI Pipelines,Google可以帮助组织采纳机器学习操作的实践,也称为MLOps –应用DevOps实践的术语 , 以帮助用户自动化,治理和审核ML工作流 。通常,这些做法涉及数据准备和分析,培训,评估,部署等 。
使用Cloud AI Platform Pipelines,用户可以使用Kubeflow Pipelines(KFP)软件开辟工具包(SDK)或通过使用TFX SDK 自定义TensorFlow Extended(TFX) Pipeline模板来指定管道 。后者当前由库,组件和一些二进制文件组成,并且开辟人员应为手头的任务选择正确的抽象级别 。此外,TFX SDK包括一个库 ML元数据(MLMD),用于记录和检索与工作流程相关的元数据 。该库也可以独立运行 。

文章插图
Google建议将KPF SDK用于完全自定义的管道或使用预建KFP组件的管道,并针对基于TensorFlow的E2E ML管道使用TFX SDK及其模板 。请注意,随着时间的流逝,Google在博客文章中指出这两种SDK体验将会融合 。最后,SDK将编译管道并将其提交给Pipelines REST API 。AI Pipelines REST API服务器存储并调度执行管道 。

文章插图
对Kubernetes编排并行作业的开放源码容器天然工作流引擎称为Argo的运行管道,其包括附加到微服务记录的元数据,手柄组件IO , 和时间表管道运行 。Argo工作流引擎在GKE集群中的各个独立Pod上执行每个管道,从而使每个管道组件都能利用Google Cloud服务 , 例如Dataflow,AI Platform Training and Prediction,BigQuery等 。此外,管线可以包含在集群中执行可观的GPU和TPU计算的步骤,直接利用自动缩放和节点自动配置等功能 。
AI Platform Pipeline运行包括使用MLMD的自动元数据跟踪-并记录在每个管道步骤中使用的工件,管道参数以及跨输入/输出工件的链接,以及创建和使用它们的管道步骤 。
推荐阅读
- Google相册现在可以更好地控制相册共享
- 谷歌地球 科技前沿:Google Earth6216014中文版下载
- Google新工具教AI处理结构化和对抗性数据
- jolicloud jolicloud什么意思
- 科技前沿:Adobe宣布CS2免费 送Photoshop CS2等序列号
- 安卓11开发人员预览版2放弃了Google的快速共享文件传输功能
- 宣布对西安工厂投资43亿元:消息称美光也要向印度投资10亿美元
- Google推出了AI产生的音频和视频质量的新指标
- AutoGrid和施耐德电气宣布完全集成的ADMS和Derms解决方案
- Google员工希望AI理事会脱离保守主义
