AI的大模型训练和应用开发分为几个主要领域:
1. 预训练 (Pre-training)
▪ 作用: 这是AI模型的基石,通过“压缩”整个互联网数据,让模型学习并记住海量信息,从而决定模型的智能上限和基础能力。它定义了模型的架构(如Transformer、Attention、Encoder-Decoder),并在此阶段完成绝大部分算法层面的创新。
▪ 人才需求: 这一层主要由最顶级的AI研究员负责,他们通常需要博士学位和十年以上的深度学习、自然语言处理经验。这是一个“赢家通吃”的领域,全球只有少数大型实验室(如Google、Meta、Microsoft)和顶尖初创公司(如OpenAI、Anthropic、XAI)有能力进行基础大模型的预训练,投入巨大。
▪ 市场价值: 对应着最高的薪酬,可达数千万美元年薪。
▪ 转型建议: 对普通程序员而言,直接进入这一层难度极大,不建议作为主要转型方向。
2. 后训练 (Post-training)
▪ 作用: 在预训练模型的基础上,进行与人类偏好对齐的训练,使其适应特定的应用场景(如法律、数学、编程)。这包括强化学习与人类反馈对齐 (RLHF)、自学习(如教师模型教学生模型)等新方法,以使模型输出更符合人类预期和情感需求。
▪ 人才需求: 这一层有大量的工程性问题。对于具备分布式系统经验或数据管道 (data pipeline) 经验的程序员,可以在训练框架开发等方向找到机会。
▪ 市场价值: 薪酬潜力与模型服务层相似,可达百万美元年薪。
▪ 转型建议: 这是一个有明确机会的转型方向,尤其是对于有强大分布式系统经验的程序员。
3. 模型服务 (Model Serving)
▪ 作用: 将训练好的大模型高效地部署和运行,以支持互联网级别的用户请求和推理。这涉及到如何优化模型推理效率,降低成本,例如利用Flash Attention、推测解码 (speculative decoding)、参数并行化、以及多专家模型 (Mix of Experts) 的调度等。
▪ 人才需求: 这一层是很多程序员都可以尝试的方向,因为其优化对公司效率提升和成本降低具有巨大价值。
• 单机层面: 优化硬件使用效率 (GPU/CPU/内存)、网络I/O、线程效率等。
• 低层优化: 编写CUDA代码或C++代码以提高特定算子在GPU上的运行效率。
• 分布式系统层面: 优化参数并行、请求路由、批处理 (batching)、加速策略和缓存策略等。
• 适用于: 具有系统经验、基础设施经验、甚至操作系统或文件系统背景的工程师。
▪ 市场价值: 需求量大,薪酬潜力与后训练层相似,可达百万美元年薪。
▪ 转型建议: 大多数公司都需要高效的模型推理服务,例如Together AI、Fireworks AI等公司就专注于此。对于有系统、基础设施、甚至操作系统或文件系统背景的程序员,都有很好的机会进入这一领域.
4. 应用层 (Application Layer)
▪ 作用: 在高效运行的模型之上,添加用户界面、工作流和产品附加值,将AI能力与现有非AI模块结合,提供更丰富、更智能的用户体验。这包括代理层 (agent layer)、工作流层、RAG(检索增强生成)、存储方案等。
▪ 人才需求: 这一层的需求量最大,几乎所有AI公司都需要此方面人才。
• 适用于: 传统的Web应用、移动应用、全栈和后端程序员。
• 技能点: 构建AI工作流,判断何时进行网络搜索、数据抓取、清洗、增强与上下文结合;优化RAG效果;提高搜索效率(如缓存层)。
▪ 市场价值: 虽然待遇可能与传统程序员相似,但如果能在RAG、多模型协议、代理层或工作流组织方面表现出色,也能创造非常高的价值(例如被Google收购的WindSurf)。
▪ 转型建议: 这是普通程序员最容易进入的AI领域。可以从AI应用的开发入手,研究提示词 (prompt) 的效果、评估模型,再逐步深入,例如通过向量数据库优化提示词效果,或提升模型服务的效率.
5. 运维/SRE (Operations/SRE)
▪ 作用: 专注于管理GPU集群,进行监控 (monitoring)、可观测性 (observability)、通知 (notification)、流量负载均衡 (traffic load balance) 和编排 (orchestration)。
▪ 人才需求: 需要理解以GPU为主的网络流量和数据交互模式与传统的以CPU为主的Web应用集群(如Kubernetes)的差异。
▪ 市场价值: 效率提升能为公司节省大量成本,因此这部分工作非常有价值。
▪ 转型建议: SRE工程师可以关注如何管理GPU集群,进行相关的可观测性和流量管理。
• 总结与展望
◦ AI浪潮不可逆转,它将持续存在 (is here to stay)。
◦ 在任何转型期都会有人被淘汰,但也会有人抓住新的红利。