我们最近做了一份内部访谈,问几位深度使用 AI 的工程师"你日常时间分配的变化"。结果有点出乎意料——写代码的占比,从过去的 30% 降到 5%;和 Agent 对话的占比,从 5% 升到 60%;查问题的时间下降一半以上;纯编码效率提升 10 倍,但端到端需求交付效率只提升 2 到 3 倍。更值得停下的不是数字,是节奏:一个工程师上午 10 点上线一个新功能、中午做 A/B 测试、下午 3 点根据数据下线、5 点上线更好的版本。同一天。这是过去 6 周才能完成的迭代。为了理解这件事到底意味着什么,我想先回到一个更基本的问题:组织到底是为什么存在的?
随着大模型技术的爆发,AI Infra 已成为基础设施领域的核心战场。过去1年多的时间,我们团队落地了多个大模型应用,包括语音合成大模型、内容理解多模态大模型、生成式推荐大模型,跑通大模型训练到推理的全链路。踩了很多坑,也积累了不少经验。本文将分享传统后台工程师积累的技术栈和方法论,如何延续并迁移到 AI 系统,并系统性拆解 AI Infra 的硬件、软件、训练和推理挑战。
本⽂是关于 AI 辅助编码的全⾯实战指南,基于天猫新品团队的实践经验,从问题本质到解决⽅案,从理论框架到实战案例,系统性地介绍如何让 AI 更好地完成⼤部分需求。
本文分享 vivo 社区在 WebP 已全面落地的基础上,引入下一代图片格式 AVIF 的实践经验。通过 CDN 边缘缓存 + 服务端异步转码的方案,在保证画质的前提下,图片体积相比 WebP 进一步降低 20%+,有效提升了用户的浏览体验。
通过概念和简单案例引导大家合理的使用AI 1、必知的概念体系 2、上下文的重要性 3、从最简单的维度理解什么叫 Harness Engineering 4、模型的边界
本文主要围绕一个具体的问题展开:怎么写好一份 AGENTS.md?「在代码仓库中放一份上下文文件,告诉 AI 工具这个项目是什么、怎么构建、有什么规矩」——这个做法现在已经有了一个统一的名字:AGENTS.md。在展开实践之前,先花一点篇幅介绍它的前世今生,已经了解的同学可以跳过。