CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

admin 2025年4月14日16:43:40评论2 views字数 4627阅读15分25秒阅读模式

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

2025 年 3 月 22 日,CloudWeGo “云原生× AI 时代的微服务架构与技术实践”主题沙龙在深圳圆满落幕。作为云原生与 AI 微服务融合领域的深度技术聚会,本次活动吸引了来自企业、开发者社区的百余位参与者,共同探讨如何通过开源技术应对智能时代的架构挑战。

4 场主题演讲覆盖代码迁移、AI 智能体开发、架构转型与可观测性实践,充分展现 CloudWeGo 在微服务与 AI 融合场景下的技术优势。其中,范广宇分享了 LLM 驱动的 Go 到 Rust 迁移工具“”,为企业跨语言技术栈提供高效方案;沈桐则介绍了开源框架 Eino 如何实现“AI+微服务”一体化开发;肖文彬深入分享了智谱清言如何通过微服务架构转型实现业务解耦与高效扩展,并全面展示技术选型、框架与可观测性集成的实战经验;钱世俊则介绍了火山引擎在CloudWeGo AI+微服务体系下的可观测性实践。主题演讲之后,现场观众还与讲师在圆桌讨论环节就单体与微服务的选型,AI时代工程师工作技能与方式的变与不变等问题进行充分讨论。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

本次技术沙龙的演讲视频和 PPT 均已上传至 CloudWeGo B站空间和 GitHub 仓库,欢迎关注!

演讲亮点

LLM 驱动的 Go 到 Rust 项目迁移的挑战与实践

字节跳动研发工程师范广宇分享了字节跳动如何利用大语言模型辅助完成 Go 到 Rust 的项目迁移,深入探讨大模型在代码迁移中的实际应用,为企业提供跨语言技术栈的高效解决方案。主要介绍了使用大模型驱动 Go2Rust 代码迁移的实践,包括相关基础工作、翻译工作流、未来展望等内容。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

ABCoder 项目的"半空"工作流为开发者提供渐进式 Go 转 Rust 的智能解决方案。其核心是能将 Go 项目拆解为语法树,通过智能解析、知识图谱召回和大模型推理生成等效的 Rust 代码。区别于传统整体迁移方案,该工作流采用模块化分阶段处理:自动规划 package 优先级,允许开发者在 IDE 中逐模块审查生成的 Rust 代码,并通过即时反馈机制持续优化模型。这种"人机共舞"模式既降低了 Rust 学习曲线,又能通过代码修改数据实现翻译准确率的自迭代。项目团队计划扩展该框架至多语言互转领域,构建名为"空(Kong)"的通用代码迁移平台,未来或将与主流 IDE 深度集成形成完整生态。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践
编排优先——Go 语言开发 AI 智能体的设计与实现

字节跳动资深研发工程师沈桐分享了 Eino 的技术实践,展示大模型与微服务如何深度融合,为开发者提供高效、稳定的“AI+微服务”一体化解决方案。主要介绍了 AI 应用开发框架的相关内容,多智能体实战案例和 Eino 的现状。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

在 AI 应用开发领域,如何有效组织大模型与业务逻辑的交互始终是核心挑战。Eino 框架通过组件化架构给出了创新解法:将 AI 应用解构为提示词模板、知识库召回等标准化组件,并基于事件流机制实现复杂编排。以主题乐园行程规划场景为例,该框架支持搭建"计划-执行"双智能体结构——规划 Agent 调用 GPT-4 生成游玩路线,执行 Agent 则通过知识库实时获取票务信息,二者通过框架内置的流式处理引擎实现动态协同。这种模块化设计使开发者能快速构建可扩展的 AI 工作流,其自动生成的编排方案既可云端部署也能本地运行。目前 Eino 已在 GitHub 开源并获 2.6k star,不仅支撑着字节跳动60余个业务线,还被8家外部企业用于智能客服、数据分析等场景。开发者社区正通过交流群持续沉淀最佳实践,探索大模型与业务系统深度融合的新范式。

Github 链接:https://github.com/cloudwego/eino

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践
智谱清言从单体到微服务架构的转型之路

智谱清言资深后端开发工程师肖文彬分享了智谱清言如何通过微服务架构转型实现业务解耦与高效扩展,并全面展示技术选型、框架优化与可观测性集成的实战经验。 主要介绍了智谱清言后端基础服务的落地实践,包括业务痛点、技术选型、框架搭建、可观测性集成等方面。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

在团队技术演进过程中,智谱清言亲历了从单体架构到微服务体系的转型。初期采用 Python Flask 快速验证业务时,受限于人力与工期压力,积累了大量代码复用率低、模块边界模糊等技术债务。随着业务规模扩大,团队果断启动架构升级:基于CloudWeGo 生态重构技术栈,选择 Hertz 框架处理HTTP请求,通过 Kitex 实现多协议RPC通信,配合 Protobuf 统一IDL,将核心鉴权等服务拆分为独立模块部署,实现资源隔离与弹性扩展。在可观测性层面,集成Nacos 配置中心、阿里云SLS日志服务与链路追踪体系,通过标准化 Golang SDK 简化配置管理流程。当前系统已升级至20余个微服务,资源利用率与响应效率显著提升。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践
CloudWeGo AI+ 微服务体系下的可观测性实践

CloudWeGo obs-opentelemetry Maintainer 火山引擎 APMPlus 技术负责人钱世俊在本次 CloudWeGo 深圳站技术沙龙分享了火山引擎在 CloudWeGo AI+微服务体系下的可观测性实践,深入探讨如何通过全栈观测体系的构建,实现对 AI+微服务应用的生命周期洞察与持续优化。主要介绍了 CloudWeGo 的AI加微服务体系下的可观测性实践,包括传统微服务和AI应用中的观测体系及未来展望。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

CloudWeGo 提供涵盖 Kitex(Go RPC)、Hertz(Go HTTP)、Volo(Rust RPC)、Eino(AI 应用开发框架)等多语言微服务框架,支持不同业务场景的高性能开发需求。在观测体系上,结合 Prometheus 和 OpenTelemetry 实现灵活埋点与接入,并通过火山引擎的 APMPlus、云监控等产品简化指标分析流程,助力企业快速落地微服务观测。针对 AI+微服务场景,其观测能力覆盖模型训练、推理及 AI 应用全生命周期,支持数据漂移检测、多模态观测和推理成本优化,同时通过收集 AI 调用数据标注反哺模型精调,形成"观测-训练-推理"闭环。未来计划深化多模态观测能力, AIOps 实现全链路闭环,推进开源生态标准化。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

圆桌讨论

在圆桌讨论环节,CloudWeGo 开源负责人、字节跳动基础架构服务框架团队架构师罗广明主持了讨论,围绕“单体 vs 微服务”“AI 提升工程效率”等议题,嘉宾与观众探讨了架构选型痛点、大模型对开发效能的变革,主要内容包括单体架构与微服务架构大模型对软件工程的提升AI时代工程师的核心能力,现场观众也积极的参与到了讨论当中。

CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践
架构演进:在复杂中寻找平衡

“在单体或者微服务的架构选型时,关键在于匹配业务发展阶段与团队能力。”沈桐以自身从单体到微服务的转型经验切入讨论,强调 “6-7 人小团队完全可以用单体架构快速迭代,跨团队协作时微服务才真正体现价值”。这一观点得到肖文彬的共鸣,他分享了从智谱从单体转型微服务的实战心得:“当业务规模扩大时,微服务能有效降低风险,但也要警惕分布式事务处理、服务治理等复杂性问题,如分布式事务和锁较难处理,还可能出现死锁,设计时需规避。”

范广宇从微服务拆分与合并的角度补充了微服务拆分过细会带来性能下降等额外开销的问题,与现场观众探讨了是否应将微服务合并成单体服务以节省成本。罗广明也提出了字节内部正进行服务治理,有类似举措并已取得收益 。钱世俊从观测视角分析单体和微服务利弊。钱世俊表示,单体应用稳定性可靠但扩容可能浪费资源,微服务变更灵活但调用链长、对架构稳定性考验大。字节内场针对微服务有很多观测实践,火山引擎也将逐步把相关能力产品化并与大家分享。

AI 赋能:重构开发全流程

大模型在产品及代码编写、迁移、重构、调优等方面带来了巨大变革,能显著提高软件工程效率,现场嘉宾也就大模型对日常开发效率的影响,及团队使用大模型辅助代码的体验展开了讨论。

钱世俊认为大模型不仅能帮新同学快速分析仓库代码,熟悉代码逻辑,更快入手;也可以在软件开发中,使用大模编写UT和自动化测试,在快速迭代或工期紧张时,轻松完成代码稳定性建设,提升效率。范广宇则分享了大模型在学习编程语言与定位程序报错方面提升研发效率的应用,利用 AI 生成单测提升项目单测覆盖率,并分享了大模型使用经验。在工作中用大模型学习新编程语言,如写前端页面,还借助它将 Go 代码迁移到 Rust 时解决编译报错,从而加深对 Rust 语法的了解。这能提升工程师日常研发效率。

肖文彬分享 AI 在重复劳作、小函数编写及代码分析方面的应用及帮助。肖文彬老师提到,AI 能助力完成重复劳作,如增删改查页面处理;还能快速编写与业务关联不大的小函数。此外,在写规则引擎、分析他人代码等方面,AI也能发挥作用,帮助提高效率、理解语义。

沈桐分享AI在日常工作中带来的效率提升。沈桐举例,AI能写高质量中英文注释、起表意变量名,快速处理重复代码,完成一定分数要求的demo函数,在框架设计提供参考。主持人罗广明肯定 AI 对工程师研发效率的提升,并期待未来有更好工具减轻负担。

AI时代工程师工作技能与方式的变与不变

由提升效率话题引申出探讨 AI 时代工程师工作技能和方式的变化,以及如何提升核心竞争力以避免失业。沈桐提到以往“搜商”重要,如今准确清晰向模型提问、提供足够上下文以获取靠谱答案的能力,会成为程序员的核心能力,该能力基于对需求或领域的理解。肖文彬老师提到非专业 prompt 工程师也可以用 agent 帮助我们优化 prompt;建议多体验不同AI产品,了解其优势;强调不能轻信 AI 生成结果,需人工 double check 。主持人罗广明总结关键要点为重视提示词工程、多体验产品、人工确认结果及提升知识技能 。

范广宇认为在 AI 时代不能停止人脑思考,提示大家勿盲目相信AI回答,需要保持个人的创新能力。主持人罗广明总结,要多使用但不过度依赖AI,保持创新思维是程序员核心竞争力。钱老师从程序员角度出发,认为在AI时代要思考如何让AI为自己所用,借助其新技术如 MCP,利用 AI 做agent、运维优化等,减少人工Hardcode及开发者负担,将精力更多投入到产品和业务方向的深入思考上。

总结

本次深圳站技术沙龙不仅展示了 CloudWeGo 在云原生与AI领域的技术实践成果,还通过与企业用户深度对话明确了产品迭代方向。目前 CloudWeGo 已服务 60 多家企业的实际业务场景,在性能优化和架构稳定性方面积累了丰富经验。项目团队将持续依托开源社区力量,为企业提供可落地的技术升级方案。

作为字节跳动内部微服务架构的技术底座,CloudWeGo 自2021年开源以来已形成包含 Kitex、Hertz、Eino、Volo 等核心组件的技术矩阵,支持 Go 和 Rust 两种主流开发语言。三年来社区快速发展,吸引了全球 500 余位开发者参与共建,形成了包括电商、金融、AI等领域的完整解决方案。欢迎访问 github.com/cloudwego 了解最新动态,与全球开发者共同探索云原生与AI技术的应用前景。

活动回顾资料

  • 视频回看https://space.bilibili.com/3494360534485730/lists?sid=5119548&spm_id_from=333.788.0.0

  • 演讲PPT下载https://github.com/cloudwego/community/tree/main/meetup/2025-03-22

原文始发于微信公众号(字节跳动技术团队):CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年4月14日16:43:40
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   CloudWeGo 技术沙龙·深圳站回顾:云原生 × AI 时代的微服务架构与技术实践http://cn-sec.com/archives/3953999.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息