Skip to content

机器学习核心概念

PM 需要了解的 ML 基础

你不需要推导数学公式,但需要理解这些概念背后的产品含义。

学习范式

监督学习(Supervised Learning)

用标注好的数据训练模型,让模型学会输入 → 输出的映射关系。

  • 分类:判断邮件是不是垃圾邮件、图片里是猫还是狗
  • 回归:预测房价、预测用户留存率

对产品的影响:需要大量高质量标注数据,标注成本是重要的产品决策因素。

无监督学习(Unsupervised Learning)

让模型从未标注的数据中自动发现模式。

  • 聚类:用户分群、内容分类
  • 降维:数据可视化、特征提取

对产品的影响:适合数据探索和发现新模式,但结果需要人工解读。

强化学习(Reinforcement Learning)

模型通过试错和奖励信号学习最优策略。RLHF(基于人类反馈的强化学习)是当前 LLM 对齐的核心技术。

对产品的影响:用户反馈可以成为奖励信号,持续优化模型表现。

核心概念

训练 vs 推理

阶段说明PM 关注点
训练(Training)用数据教会模型成本高、周期长、需要 GPU
推理(Inference)模型处理新输入延迟、成本、可扩展性

过拟合与欠拟合

  • 过拟合:模型在训练数据上表现好,但泛化能力差(死记硬背)
  • 欠拟合:模型太简单,连训练数据都学不好

产品视角:如果你的 AI 功能在测试数据上很好但用户反馈差,可能是过拟合的信号。

迁移学习(Transfer Learning)

用在大规模数据上训练好的模型,迁移到特定任务上。这正是 LLM 能力的来源——在海量文本上预训练,然后通过微调或 Prompt 适配到具体场景。

神经网络基础

输入层 → 隐藏层(s) → 输出层
  • CNN(卷积神经网络):擅长图像处理
  • RNN(循环神经网络):擅长序列数据(已被 Transformer 大幅取代)
  • Transformer:当前 LLM 的核心架构,擅长并行处理和捕捉长距离依赖

PM 常见误区

避免这些错误认知

  1. "AI 能学会任何东西" — 没有好数据,再好的模型也无能为力
  2. "模型越大越好" — 大模型成本高、延迟大,小模型在特定任务上可能更优
  3. "训练一次就够了" — 数据分布会变化,模型需要持续更新
  4. "准确率 95% 就够了" — 取决于场景,医疗诊断和内容推荐对准确率的要求完全不同

用 AI 思维做产品