6月 28-29 日,第 23 届 GOPS 全球运维大会暨 XOps 技术创新峰会·北京站圆满举行。思码逸创始人兼 CEO 任晶磊在会上发表了题为“AI 落地研发的‘最后一公里’”的演讲,并解读了《DevData 2024 研发效能基准报告》(以下简称“报告”)。以下是本次主题演讲的精彩回顾。
随着 AI 行业的持续火热,越来越多企业参与到大模型的开发和应用当中,针对研发场景的 AI 工具也受到了大量关注。评估 AI 工具对研发效能的实际影响时,仅依赖采纳率这种过程指标可能不足以全面反映成效,关键在于观察 AI 工具的应用是否切实提高了研发的效率与质量。《报告》显示,AI 工具对效率和质量的改善具有正面影响:- 效率提升:应用 AI 工具的企业,需求交付周期平均缩短了 18%,表明 AI 工具加速了研发流程,提升了开发速度。
- 质量改善:应用 AI 工具的企业,单元测试覆盖度平均提升了 23%,说明 AI工具有助于增强代码质量,减少潜在错误,提升产品质量。
AI 落地的成功关键在于采取以终为始的策略,要做好类似下方的“填空题”,通过数据来证明研发使用 AI 的价值。比如通过建立提交规范,帮助企业看清各类工作的占比,进而优化资源配置。再比通过提升单测覆盖度,帮助企业改进质量薄弱环节,降低质量保障成本,降低缺陷密度,保障线上质量。
思码逸自主研发的 Devchat 支持大模型对接,提供高度可定制的工作流引擎,同时深入具体场景优化工作流,帮助研发节省工作量,提高开发效能。DevChat 支持以 IDE 插件的方式集成使用,目前已覆盖了单元测试、代码评审、工程规范、代码注释、代码审查、代码生成、代码补全等 16 个场景,可在各个环节辅助研发人员进行提效。DevChat 工具从软件工程视角入手,以提升软件工程质量为目标,在单元测试、代码评审以及功能规范三个环节做了更深度的应用探索。
今年,思码逸发起了 DevData 2024 研发效能基准调研,采用了一种与传统问卷调查不同的客观数据收集方法。思码逸直接向企业环境部署工具,采集了 170 组有效样本,计算出研发效能的 15 个关键指标。这些指标覆盖了交付速率、交付质量和交付能力三大核心领域。在选择指标时,思码逸引入“代码当量”作为基础指标,使得整个评估更加准确和科学。代码当量通常用来替换代码行数,能够大幅减少代码统计中的水分和噪音,更加准确地评估代码的复杂度和规模。这一创新源于思码逸团队在 2018 年 软件工程领域顶级会议 FSE 上发表的论文,提出的算法旨在更精确地衡量软件的规模与复杂性。代码当量不仅可以作为研发工作量评价的客观指标,还可以与需求、缺陷等指标结合,校准需求颗粒度、千行 bug 率等,让其他常见指标更可信、更有意义。
在报告中,思码逸不仅计算了每个指标的平均值,还分析了它们的 IQR(即四分位间距),以此来理解数据的分布情况。以代码生产率为例,人月平均值约为 3595 当量,而中间 50%的数据集中在 2199 至 5003 当量之间,这揭示了行业内典型的效能范围。
在优化这些指标时,我们不应追求每个指标都达到顶尖水平,因为不同指标之间存在权衡,例如效率与质量的权衡。因此,报告综合考量所有指标,建立了综合效能评估模型,并选取效能最高的前 20%企业作为标杆,从交付速率、交付质量、交付能力三方面呈现出高效能团队的特征。
·敏捷开发模式下的代码生产率更高,相比其他或混合式高 9%·20 人以下团队的代码生产率相比 50 人以上团队高 46%·单元测试覆盖度中位值仅为 15%,“测试左移”仍有较大空间·引入外包的研发团队代码生产率高 12%,但重点问题密度高 25%·应用度量指标管理研效的企业相比未应用企业的代码生产率高 5%《DevData 2024 研发效能基准报告》核心数据发布后,获得了现场参与者的一致认可,欢迎大家扫描下方二维码,立刻领取本次报告核心数据,获得打造高效能团队秘籍!点击下方“阅读原文”,立刻下载