2024 年 11 月 2-3 日,COSCon'24 第九届中国开源年会暨开源社 10 周年嘉年华在中关村国家自主创新示范区会议中心成功举办。
来自于AI、编程语言、云原生、前端等领域的7位华为开源技术专家带来了现场精彩议题分享,展示华为开源最新项目能力及实践成果。同时,华为开源项目展区/集市与现场参会者深度互动,共享开源创新魅力。
1
华为技术专家精彩议题
共创开源智能时代
华为云前端架构师王亚举分享议题《MateChat——基于DevUI的前端智能化交互探索和实践》。讲述了在AI大模型时代,产品的交互范式也在发生变化,从命令(做什么)到意图(要什么)以人为中心,通过自然语言的交互实现更便捷高效的作业。
DevUI基于软件研发的全链路AI辅助诉求,开发了MateChat智能化交互辅助前端解决方案库,能够支撑IDE类、工作台类、工具类等场景的智能化辅助作业,帮助业务实现情景式、沉浸式等AI辅助能力,目前已经在内部落地实践。同时MateChat预计24年底正式在GitCode平台开放源代码。
随着Web技术的快速发展,前端框架面临新的机遇与挑战。在本届Web技术分论坛上,openInula团队核心成员陈海芹就《openInula 2.0:基于编译优化的下一代前端框架》进行了深入探讨。
陈海芹介绍,openInula 2.0在技术架构上实现了重大突破。"我们在保留函数式组件和JSX设计的同时,创新性地抛弃了传统虚拟DOM算法,实现了DOM级别的精准更新。通过将大量运行时的复杂计算前移到编译期,显著提升了框架运行效率。"
谈到具体实现,openInula 2.0采用了端到端编译优化技术,通过对组件状态到视图渲染的全流程优化,不仅提升了组件性能,更降低了开发复杂度。陈海芹表示:"我们希望通过编译优化技术的创新,为前端开发提供更高效的工具和更简洁的开发体验。这种从编译层面解决性能问题的思路,将为前端框架发展带来新的可能。
华为云原生开源团队研发工程师常震带来《Karmada 多云容器编排新征程:护航应用滚动升级》议题分享。Karmada是开放的多云多集群容器编排引擎,旨在帮助用户在多云环境下部署和运维业务应用。凭借兼容 Kubernetes 原生 API 的能力,Karmada 可以平滑迁移单集群工作负载,并且仍可保持与 Kubernetes 周边生态工具链协同。
随着业务的扩张,应用被更多的部署在多个 Kubernetes 集群上。Karmada 使得用户能够像操作单一集群一样轻松管理多集群,简化了多云环境的运维复杂度。当用户在发布应用新版本时,能够采用灵活可控的滚动升级策略,精细地控制升级流程,确保每个集群在升级过程中都能够平滑过渡,减少对生产环境的影响。
在云原生分论坛上,华为云高级软件开发工程师、Sermant社区Maintainer戴振宇以《Proxyless Service Mesh:实现高效服务治理的探索》为题,分享了Sermant社区在微服务治理领域的最新成果。Sermant专注于应对大规模微服务架构中的服务治理技术挑战,以非侵入式的高性能方式帮助企业接入多样化的服务治理功能,从而加速微服务架构的数字化转型,推动开源微服务治理技术的不断发展。
目前,Sermant已经实现了路由、流量控制、服务注册、监控及标签透传等多项服务治理能力,并支持xDS协议,广泛应用于金融、物流、软件等行业。凭借其技术优势和社区影响力,Sermant成功成为CNCF官方Sandbox项目。未来,Sermant将继续加强与云原生生态的融合,逐步构建更加完善的服务治理能力体系,为用户提供更高效的服务治理解决方案。
仓颉编程语言专家范长春在编程语言分论坛分享议题《仓颉编程语言介绍》,向国内编程语言专家们介绍了仓颉编程语言的特点。并以核心特性泛型为例,介绍了仓颉的设计思路及其背后的实现思路。引发了参会专家的讨论。
在开源AI论坛(LLM应用方向)上,AI应用使能套件架构师潘邵武以《AI应用使能套件,加速昇腾AI生态汇聚》为题,阐述了依托该项目聚合昇腾AI生态资源、加速开发者应用创新的技术路线和生态计划。
华为计算产品线主导开发的AI应用使能套件,包括提供模型/数据集托管、在线推理体验的基础设施,及提供模型预训练、微调、推理、评估等全流程开发能力的工具链。开发者可使用该工具链的CLI命令行接口、容器镜像自动加载等特性,实现昇腾平台上低门槛的模型开发部署。华为基于AI应用使能套件,与中国电信联合打造了魔乐(Modelers)开发者社区,通过竞赛、实习等多种活动,培育行业人才,共建昇腾AI生态,并助力伙伴商业持续闭环。
在汽车开源论坛上,华为云云原生开源团队研发工程师王彬丞以《使用云原生技术加速电动汽车创新》为题,阐述了CNCF唯一正式毕业的云原生边缘计算项目KubeEdge在电动汽车领域的应用与创新,深入探讨云原生解决方案在革新电动汽车领域中的转变影响和未来前景。
王彬丞表示,构建车端软件平台,云原生从技术维度和生态维度均具备明显优势。作为专为云边协同开发的平台,KubeEdge兼顾各种边缘场景的特殊性:KubeEdge以Kubernetes作为控制面,能最大限度帮助用户融合云数据中心和边缘的生态;针对边缘资源受限的场景,KubeEdge进行了自身组件的轻量化,能够快速启动以满足汽车软件的使用场景;KubeEdge双向多路复用的云边通信通道,能突破Kubernetes APIServer连接数的限制,实现超大规模的边缘汽车管理。
2
多领域开源项目亮相现场
分享华为开源项目技术创新实践
华为计算AI开源生态展示创新成果>>>
华为计算AI开源生态以强大的技术实力和开放合作的姿态,展示了在AI领域的最新成果。其中,昇思MindSpore和昇腾AI应用使能套件两个项目尤其引人注目。
本次,昇思MindSpore展示了全新2.4版本,原生支持超节点,加速大模型的原生创新,进一步推动了AI软硬件协同技术发展。同时,昇思积极建设活跃的开源社区,汇通高校和企业开发者,共同为大模型时代提供创新的框架支持。
昇腾AI应用使能套件,作为昇腾的生态窗口,专注于为开发人员提供从模型分发到集成模型训练和推理的轻量级功能,从而降低 NPU 的开发门槛。
在COSCon'24上,通过这两个项目展示了华为在推动AI技术发展和生态建设方面的坚定决心和实际行动。昇思MindSpore和昇腾AI应用使能套件的展出,不仅为参会者提供了深入了解华为AI技术的机会,也为全球AI社区的合作与交流搭建了桥梁,共同推动AI技术的创新和应用。
MindSpore官网:https://www.mindspore.cn/
魔乐社区官网:https://modelers.cn/
云原生Sermant加入CNCF后首次亮相>>>
作为云原生无代理服务网格技术的推动者,Sermant参加了COSCon'24中国开源年会的开源集市展台,这也是Sermant加入CNCF官方SandBox项目后的首次亮相。展会期间,Sermant展台交流者络绎不绝,大家对Sermant无侵入、高性能和插件化的优势高度评价,并共同探讨Sermant如何更好地融合云原生生态。
未来,Sermant将进一步支持xDS协议、实现基于xDS协议的流控能力;适配OpenTelemetry,采集指标、链路追踪等数据。Sermant期待更多开源爱好者加入,共建社区生态。
Sermant官网:https://sermant.io
Sermant仓库地址:https://github.com/sermant-io/Sermant
前端框架openInula分享最新技术进展>>>
openInula今年再次亮相开源集市展台。本次展台活动不仅展示了近一年来社区建设与活动成果,还分享了openInula API2.0等最新技术进展,吸引了众多开发者、企业人士以及学生驻足交流。在与openInula团队成员的热切讨论中,来访者们纷纷表达了对openInula的赞许与期待。我们期待在未来继续与大家携手合作,共同推动前端开源生态绿洲的构筑。
openInula官网:https://www.openinula.net
开源社成立于 2014 年,是由志愿贡献于开源事业的个人志愿者,依 “贡献、共识、共治” 原则所组成的开源社区。始终维持 “厂商中立、公益、非营利” 的理念,以 “立足中国、贡献全球,推动开源成为新时代的生活方式” 为愿景,以 “开源治理、国际接轨、社区发展、项目孵化” 为使命,旨在共创健康可持续发展的开源生态体系。
面向未来,华为将继续秉持包容、公平、开放、团结和可持续的发展理念,通过持续贡献,携手伙伴,共建世界级开源社区,加速软件创新和共享生态繁荣,以更加开放的模式汇聚全球参与者的贡献,进一步推动行业数字化发展。
点击阅读原文,进入华为开源官网了解更多