最近大量使用 AI 进行开发,我逐渐意识到一个趋势:随着 AI 编程的普及,被颠覆的不仅仅是一线工程师的工作方式,对 CTO、技术总监、技术 Leader 这些技术管理者的要求,正在发生截然不同的改变。
过去,技术管理的核心在于“人”与“确定性”;而现在,当 AI 开始接管代码生成,系统正在变得“非确定性”。如何理解和控制这种非确定性,将成为下一代技术管理者的核心壁垒。
传统的确定性时代:管组织与做平衡
在传统的软件工程时代,代码由工程师一行行敲出来,系统严格按照设定的逻辑执行。
这种模式下,系统是高度确定性的:输入相同,输出必然相同。如果出了 Bug,顺着调用栈一层层 Debug,总能找到引发异常的那行代码。因此,技术管理者不需要每天盯着系统的细枝末节,核心精力主要放在以下三件事:
- 管理复杂组织:搭建梯队、拆分团队、把控研发效能。
- 决策技术路线:选型、架构演进、技术债务管理。
- 平衡业务与工程:在有限的资源下,平衡需求交付进度与系统长期健康度。
AI 编程时代:非确定性带来的失控感
当研发流程全面接入 AI,情况变了。
现在是工程师设计约束,AI 负责生成代码。这种模式打破了传统的确定性——同样的输入,AI 每次给出的实现细节可能完全不同。这带来了一系列连锁反应:
- 调试极其复杂:代码不再是人类思维的直接映射,遇到 Bug 时,由于存在机器生成的不可解释性,排查链路变长。
- 系统难以理解:大量 AI 生成的代码交织在一起,如果不加以严格规范,系统会变成一个连创造者都看不透的黑盒。
- 风险更难控制:非确定性的代码直接进入工程环节,边界变得模糊,安全和可用性风险急剧上升。
技术管理者的新定位
在这样的背景下,技术管理者的核心工作,正在从单纯的“管人”向“管系统行为”演进。未来的首要任务,是解决“如何完全理解系统为什么这么运行”的问题。
技术管理者的新角色正在转变为:
- 系统约束设计者:从设计架构,转变为设计“AI 生成与运行的约束条件”。通过制定严格的上下文准入边界、静态检查校验规则以及自动化测试拦截网,让 AI 在可控轨道内工作。
- AI 能力整合者:准确判断系统的哪些模块该用传统逻辑保底,哪些模块可以放权给 AI 生成。将大模型能力无缝、安全地整合进既有的工程开发链路中。
- 风险控制负责人:面对非确定性输出,必须建立一套全新的兜底与熔断机制。从架构设计上控制 AI 产生错误代码或不可控行为的爆炸半径。
结语:建立全新的认知框架
本质上,AI 时代的研发管理,需要建立一套全新的认知框架。
从管理“人类开发者的产能”,升级为管理“人机协同系统的行为边界”。对现有的技术管理者来说,这不仅是脱离舒适区的巨大挑战,更是抓住下一次技术代差、重塑团队战斗力的绝佳机会。