Skip to content

AI 产品经理面试攻略

面试不只是"回答问题",而是展示你如何思考 AI 产品。

面试考察的核心能力模型

┌─────────────────────────────────────────────────┐
│            AI 产品经理面试能力模型                  │
│                                                 │
│                AI 技术理解                        │
│                   ★★★★★                         │
│                  /       \                       │
│                /           \                     │
│       产品思维 ★★★★★      ★★★★★ 数据思维          │
│              |               |                   │
│              |               |                   │
│       业务理解 ★★★★★      ★★★★★ 沟通协作          │
│                \           /                     │
│                  \       /                       │
│                   ★★★★★                         │
│               项目管理/落地                        │
│                                                 │
└─────────────────────────────────────────────────┘

不同层级的考察重点不同:

级别技术理解产品思维业务理解重点考察
初级(P5/P6)知道核心概念基本方法论了解行业执行力、学习能力
中级(P6/P7)能做技术决策完整方法论深入场景独立负责项目的能力
高级(P7/P8)技术前瞻判断创新思维商业洞察战略思考、团队影响力

第一类:AI 技术理解题

高频题目与参考思路

Q1:"请解释大语言模型的工作原理"

参考回答框架

三层递进回答法:

  1. 核心原理(30秒):LLM 本质是一个"下一个词预测器",通过在海量文本上训练,学会了语言规律和知识。基于 Transformer 架构,利用注意力机制理解上下文。

  2. 训练过程(30秒):三阶段——预训练学知识、SFT 学对话格式、RLHF 学人类偏好。每个阶段解决不同的问题。

  3. 产品含义(30秒,加分项):理解原理对产品有直接指导意义——比如知道训练数据有截止日期,就明白为什么需要 RAG 补充最新知识;知道 RLHF 会带来"对齐税",就理解为什么模型有时过于保守。

Q2:"RAG 和微调(Fine-tuning)有什么区别?什么场景用哪个?"

参考回答框架
                RAG                    Fine-tuning
用途        补充外部知识              调整模型行为
类比        开卷考试(查资料回答)     专项培训(改变能力)
适用场景    知识库问答、文档搜索       风格定制、格式统一
数据要求    文档库即可               高质量问答对
更新成本    更新文档库即可           需要重新训练
实施周期    1-2 周                  4-8 周
成本        低                      中高

选择原则:
1. 先试 Prompt Engineering
2. 需要外部知识 → RAG
3. 需要改变行为模式 → Fine-tuning
4. 两者可以组合使用

Q3:"模型幻觉(Hallucination)是什么?如何缓解?"

参考回答框架

定义:模型生成看起来合理但实际不正确的内容。

三种类型

  • 事实性幻觉:编造不存在的数据/事件
  • 忠实性幻觉:答案与输入上下文矛盾
  • 逻辑幻觉:推理过程看似正确但结论错误

产品层面的应对策略(重点展示产品思维):

  1. 源头:RAG 提供事实依据,限制回答范围
  2. 过程:要求模型引用来源,使用 Chain-of-Thought
  3. 输出:置信度标注,高风险场景人工审核
  4. 体验:告知用户"AI 生成仅供参考",提供反馈机制

Q4:"Transformer 和 MoE 架构有什么区别?"

参考回答框架

不需要讲数学细节,重点讲对产品的影响:

  • Dense Transformer:所有参数参与每次计算,效果好但成本高
  • MoE:总参数很大但每次只激活部分"专家",相当于"多个专家分工合作"

对产品的意义:MoE 使得"大模型不一定贵"成为可能,同样的效果下推理成本可以低很多。产品经理选型时不能只看参数量,还要看实际推理成本。


第二类:产品设计题

高频题目与参考思路

Q5:"设计一个 AI 客服产品,你怎么规划?"

参考回答框架

MECE 框架 展示结构化思维:

1. 定义问题

  • 目标用户:B 端企业还是 C 端消费者?
  • 核心场景:售前咨询、售后服务、技术支持?
  • 核心指标:解决率、响应时间、用户满意度

2. 技术方案

用户提问
  → 意图识别(分类模型)
  → 简单问题 → FAQ 匹配(向量检索)
  → 复杂问题 → LLM + RAG 生成回答
  → 超出能力 → 转人工

3. MVP 规划

  • Phase 1:FAQ 问答(覆盖 Top 50 高频问题)
  • Phase 2:多轮对话 + 工单系统集成
  • Phase 3:主动服务 + 情感识别

4. 关键设计决策

  • 人机协作:AI 置信度低时自动转人工
  • 安全防护:敏感问题不回答,防注入攻击
  • 数据飞轮:用对话日志持续优化

Q6:"如何评估一个 AI 功能是否值得做?"

参考回答框架

AI 功能评估四象限:

        用户价值高

  值得做    │    优先做
  但要控制   │    投入最多资源
  成本      │

 ───────────┼────────── AI 可行性高

  不要做    │    技术探索
  投入产出   │    小规模验证
  比太低    │

        用户价值低

具体评估维度:

  1. 用户价值:解决的痛点有多大?使用频率如何?
  2. AI 可行性:当前技术能达到什么效果?
  3. 成本结构:推理成本是否可控?边际成本曲线?
  4. 竞争格局:是否形成差异化?能否构建壁垒?
  5. 风险评估:出错的后果有多严重?

第三类:数据与指标题

Q7:"AI 产品应该关注哪些核心指标?"

参考回答框架

三层指标体系:

层级指标衡量什么
模型质量准确率、召回率、F1、幻觉率AI 本身的能力
产品体验任务完成率、响应时间、用户满意度用户感知的价值
商业价值留存率、付费转化、人力替代率对业务的贡献

关键洞察: 模型指标好 ≠ 产品体验好 ≠ 商业价值高。产品经理要关注全链路指标,不能只盯着准确率。

Q8:"怎么做 AI 产品的 A/B 测试?"

参考回答框架

AI A/B 测试与传统的不同之处:

1. 变量更多:不仅测 UI,还要测 Prompt、模型版本、参数 2. 评估更复杂:需要质量评估(人工 + 自动) 3. 成本敏感:不同实验组的推理成本可能差异很大

实操建议

  • 先离线评测缩小范围,再线上 A/B 精选
  • 每次只变一个变量
  • 样本量要足够(AI 输出方差大)
  • 同时看质量指标和成本指标

第四类:战略思考题

Q9:"AI 产品的护城河是什么?"

参考回答框架
时间线      护城河类型          持久性
──────────────────────────────────
短期        先发优势            弱
(0-6月)     Prompt 积累         弱
            品牌认知            中

中期        数据飞轮            强
(6-18月)    用户习惯            中
            工作流嵌入          强

长期        网络效应            最强
(18月+)     生态系统            最强
            私有数据壁垒        强

核心观点:纯模型能力不是护城河(别人也能调 API)。真正的护城河是数据飞轮(用户越多 → 数据越好 → 模型越准 → 用户越多)和工作流嵌入(成为用户不可替代的工作流程一部分)。

Q10:"Build vs Buy:自研模型还是用第三方 API?"

参考回答框架
维度用 API自研/私有化
启动速度快(天级别)慢(月级别)
前期成本
规模成本线性增长边际递减
数据安全数据传给第三方完全自主
可控性受限于 API 能力完全自定义
维护成本低(厂商维护)高(需要 ML 团队)

决策原则

  • 95% 的场景应该先用 API 验证
  • 只有在以下条件同时满足时考虑自研:数据安全要求极高 + 调用量大到成本失控 + 有强大的 ML 团队

第五类:案例分析题

Q11:"分析一个你认为做得好的 AI 产品"

回答技巧

STAR 框架

  • Situation:这个产品解决什么问题?市场背景?
  • Task:核心挑战是什么?
  • Action:产品如何设计和迭代的?
  • Result:效果如何?有什么可复用的经验?

推荐分析的产品

  • Cursor(AI 编程):极致的 AI 嵌入工作流体验
  • Perplexity(AI 搜索):重新定义搜索交互范式
  • Notion AI(AI 写作):AI 能力与已有产品的完美融合
  • 豆包(综合 AI 助手):多模态能力的产品化

面试准备清单

知识储备

  • [ ] 能用通俗语言解释 LLM、Transformer、Attention、Token
  • [ ] 理解 Prompt Engineering、RAG、Fine-tuning 的区别和选择
  • [ ] 知道主流模型的优劣势和定价
  • [ ] 了解 AI 产品的成本结构
  • [ ] 能举出 3-5 个优秀 AI 产品案例并分析

方法论储备

  • [ ] AI 功能需求评估框架
  • [ ] AI 产品指标体系设计
  • [ ] 人机协作设计原则
  • [ ] 数据飞轮构建方法
  • [ ] AI 产品的安全和伦理考量

实战经验

  • [ ] 至少深度使用过 3 个 AI 产品,能分析优劣
  • [ ] 亲手写过 Prompt,理解 Prompt Engineering 的实际效果
  • [ ] 做过至少一个 AI 产品/功能的完整设计(即使是个人项目)
  • [ ] 能用数据说话,有具体的指标改进案例

面试表现技巧

技巧说明
结构化表达先说结论,再展开论述。"我认为有三点..."
产品视角优先技术问题也要落到产品影响上
展示思考过程面试官看重的是"怎么想的"而不只是答案
诚实说不知道不懂就说不懂,但可以说"我会这样去了解..."
反问环节要用好问团队、产品阶段、技术栈——展示你的专业度

延伸阅读

用 AI 思维做产品