吴义平,2014 年加入科大讯飞,任职云计算资深架构师,目前负责讯飞 AI Cloud 基础架构演进工作,主导设计了 AI Cloud 2.0 通用计算平台、弹性计算平台等重点项目,个人擅长通用网关、服务治理、弹性计算等方向。
吴义平,2014 年加入科大讯飞,任职云计算资深架构师,目前负责讯飞 AI Cloud 基础架构演进工作,主导设计了 AI Cloud 2.0 通用计算平台、弹性计算平台等重点项目,个人擅长通用网关、服务治理、弹性计算等方向。
随着人工智能浪潮的逐层递进,科大讯飞已经研究并发布了覆盖语音、CV、认知等领域的数百种 AI 能力,面对日益增长的内外部需求,如何保障 AI 能力上云和迭代的时效?GPU 资源被大量应用到实时和离线计算中,如何提升规模庞大的 GPU 资源的利用率?本次分享内容将从讯飞依托云原生技术构建的全新 AI 2.0 公有云架构切入,向大家讲解我们通过技术演进实现降本 50% 的技术路径和经验,包括应用 Serverless、弹性计算和运维架构演进的落地案例。
1、为什么要转型云原生
2、云原生助力快速降本的实践
3、以成本为导向的新老架构无缝切换实践
1、 了解基于云原生实践应用架构演进的路径和收益;
2、 了解新老架构落地过程中的常见问题和解决办法;
3、 了解讯飞在 AI 业务场景中实践弹性计算的经验。
架构师、服务端开发人员、运维、产品经理等。