机器学习核心概念
PM 需要了解的 ML 基础
你不需要推导数学公式,但需要理解这些概念背后的产品含义。
学习范式
监督学习(Supervised Learning)
用标注好的数据训练模型,让模型学会输入 → 输出的映射关系。
- 分类:判断邮件是不是垃圾邮件、图片里是猫还是狗
- 回归:预测房价、预测用户留存率
对产品的影响:需要大量高质量标注数据,标注成本是重要的产品决策因素。
无监督学习(Unsupervised Learning)
让模型从未标注的数据中自动发现模式。
- 聚类:用户分群、内容分类
- 降维:数据可视化、特征提取
对产品的影响:适合数据探索和发现新模式,但结果需要人工解读。
强化学习(Reinforcement Learning)
模型通过试错和奖励信号学习最优策略。RLHF(基于人类反馈的强化学习)是当前 LLM 对齐的核心技术。
对产品的影响:用户反馈可以成为奖励信号,持续优化模型表现。
核心概念
训练 vs 推理
| 阶段 | 说明 | PM 关注点 |
|---|---|---|
| 训练(Training) | 用数据教会模型 | 成本高、周期长、需要 GPU |
| 推理(Inference) | 模型处理新输入 | 延迟、成本、可扩展性 |
过拟合与欠拟合
- 过拟合:模型在训练数据上表现好,但泛化能力差(死记硬背)
- 欠拟合:模型太简单,连训练数据都学不好
产品视角:如果你的 AI 功能在测试数据上很好但用户反馈差,可能是过拟合的信号。
迁移学习(Transfer Learning)
用在大规模数据上训练好的模型,迁移到特定任务上。这正是 LLM 能力的来源——在海量文本上预训练,然后通过微调或 Prompt 适配到具体场景。
神经网络基础
输入层 → 隐藏层(s) → 输出层- CNN(卷积神经网络):擅长图像处理
- RNN(循环神经网络):擅长序列数据(已被 Transformer 大幅取代)
- Transformer:当前 LLM 的核心架构,擅长并行处理和捕捉长距离依赖
PM 常见误区
避免这些错误认知
- "AI 能学会任何东西" — 没有好数据,再好的模型也无能为力
- "模型越大越好" — 大模型成本高、延迟大,小模型在特定任务上可能更优
- "训练一次就够了" — 数据分布会变化,模型需要持续更新
- "准确率 95% 就够了" — 取决于场景,医疗诊断和内容推荐对准确率的要求完全不同