面试 · AI 产品 · 真题
小红书 AI 产品实习面试真题
这是一份小红书 AI 产品实习岗位的三轮面试完整复盘,23 道真题覆盖产品基本功、AI 技术理解、业务深度思考和个人价值观。面试整体风格偏“实战派”——不考空洞的方法论,而是围绕 Agent、RAG、数据验证等具体场景深度追问。
| 信息 | 详情 |
|---|---|
| 面试岗位 | AI 产品实习生 |
| 面试公司 | 小红书 |
| 面试轮次 | 三轮 |
| 考察侧重 | 一面产品基本功 · 二面业务深度 · 三面稳定性价值观 |
一面:产品基本功
这一轮主要考察你对 AI 产品(尤其是 Agent)的基础理解和实操经验。
1.“简单的自我介绍。”
回答要点: 实习面试的自我介绍要短而精,60-90 秒就够。
核心要说三件事:你是谁(学校 + 专业)、你做过什么(和 AI 产品相关的项目/实习)、你为什么来面这个岗(对小红书 AI 方向的兴趣和思考)。
对于 AI 产品实习,重点突出你的 AI 实操经验——哪怕是个人项目也行。“我用 Dify 搭过一个 xx Agent”比“我对 AI 很感兴趣”有说服力十倍。
2.“在这个 xx 项目中,聚类分析你具体是怎么做的?你如何定义有效性?”
回答要点: 考察数据分析的实操能力和指标意识。
回答结构:
- 数据准备: 用了什么数据源,做了哪些预处理(清洗、特征工程)
- 方法选择: 为什么选 K-Means / DBSCAN / 层次聚类?对比过哪些方法?
- 有效性定义: 这是关键——不能只说“聚出来了就有效”。好的回答要包含:
- 内部指标: 轮廓系数、SSE 等
- 业务指标: 聚类结果能不能指导产品决策?比如聚出的用户群在行为上是否有显著差异?
- 可解释性: 聚类结果能不能用业务语言解释清楚?如果连你自己都说不清“这一群用户有什么共同特征”,那聚类就是无效的
3.“如果让你给小红书内部的内容审核环节设计一个 AI Agent,你会规划哪些 Node?”
回答要点: 考察你对 Agent 工作流(Workflow)的理解和业务场景拆解能力。
以 Dify/n8n 的工作流思维来拆:
- 输入节点: 接收待审核内容(图片 + 文字 + 标签 + 用户信息)
- 多模态理解节点: 图片识别(OCR + 图像分类)+ 文本理解(NLP 语义分析)
- 规则引擎节点: 关键词过滤、黑名单匹配、敏感信息检测(手机号、二维码等)
- 大模型判断节点: 对灰色地带内容(擦边、软广、争议性观点)做语义级判断
- 置信度路由节点: 高置信度直接通过/拒绝,低置信度转人工
- 人工审核节点: 人工复核 + 标注反馈
- 结果记录节点: 审核结果写入数据库 + 反馈到模型训练
关键洞察:不是所有内容都需要过大模型——简单的关键词过滤能拦截 80% 的明确违规,大模型只处理“拿不准”的灰色地带,这样才能控制成本和延迟。
4.“假设你负责的一个 Agent 在回复准确率上突然下降,你会怎么排查?”
回答要点: 考察故障排查的结构化思维。
分层排查:
- 数据层: 最近有没有数据源变更?知识库有没有更新?向量索引有没有异常?
- 模型层: 底层模型有没有版本升级?Prompt 有没有被修改?Token 限制有没有被调整?
- 用户层: 是所有用户都下降还是某类用户?是某类问题准确率下降还是整体?
- 环境层: API 调用有没有超时或限流?缓存有没有过期?
- 对比分析: 拉取下降前后的 bad case,对比差异,定位具体是哪个环节出了问题
5.“你提到过 Vibe Coding,你认为这种开发模式在定义产品边界时有什么影响?”
回答要点: 考察你对 AI 开发新范式的思考深度。
Vibe Coding(用自然语言“感觉”来驱动 AI 写代码)带来两个产品边界影响:
正面: 降低了原型验证的门槛。产品经理可以快速用 Vibe Coding 做出 MVP 原型,验证想法是否成立,而不用等开发排期。这意味着“产品定义”和“技术实现”之间的界限在模糊——PM 可以更深度地参与到实现层面。
风险: 容易产生“能做 = 该做”的幻觉。因为实现成本变低了,团队可能会跳过需求验证直接做功能。产品边界反而更需要 PM 来把控——不是“能不能做”的问题,而是“值不值得做”的问题。
6.“你认为评价一个 Agent 的好坏,除了准确率,还有哪些关键的数据指标?”
回答要点: 考察你的 AI 产品指标体系思维。
Agent 评估指标可以分四个维度:
- 效果指标: 准确率、召回率、幻觉率、任务完成率
- 效率指标: 响应时间、Token 消耗量、API 调用次数
- 用户体验指标: 用户满意度(评分/点赞率)、多轮对话保持率、用户主动纠正频率
- 业务指标: 用户留存、功能渗透率、人工兜底率(越低说明 Agent 越独立)
加分思考:不同场景的指标权重不同。 客服 Agent 最看重“人工兜底率”,创作 Agent 最看重“用户满意度”,审核 Agent 最看重“准确率 + 召回率”。
7.“你在过往的项目经历中是如何发现并修补一个逻辑漏洞?”
回答要点: 考察你的细节把控能力和问题发现能力。
回答框架:
- 场景: 在做什么项目/功能时
- 发现: 怎么发现的(用户反馈?数据异常?自己测试?Code Review?)
- 分析: 漏洞的根因是什么(边界条件没考虑到?逻辑分支缺失?数据流断裂?)
- 修复: 怎么修的,修完怎么验证
- 复盘: 这个漏洞暴露了什么系统性问题?后续怎么预防?
面试官想看到的是你的“质量意识”——不是等问题爆发才处理,而是能主动发现潜在风险。
8.“你平时最常使用的 AI Agent 是哪个?如果让你给它提一个优化建议,你会从哪个维度切入?”
回答要点: 考察你的产品分析能力和 AI 工具敏感度。
回答结构:
- 选一个你真正用过的: 比如 Claude Code、Cursor、豆包、Coze 等
- 说清楚你的使用场景: 不是“我用过”,而是“我每天用它做 xx”
- 优化建议要具体: 不能说“体验可以更好”,要指出具体的痛点和方案
示例:“我最常用的是 Cursor。它在代码补全上很强,但在处理跨文件的上下文理解时经常丢失关键信息。我的优化建议是增强项目级的上下文索引能力——让它在补全时自动关联相关文件,而不是只看当前文件。”
二面:业务深度与商业思考
这一轮难度明显上升,考察你对 Agent 业务的深度理解和商业判断。
9.“你认为应该如何通过产品手段规避 Agent 输出的风险?”
回答要点: 考察你的 AI 安全意识和产品化思维。
产品手段(不是纯技术手段)规避风险:
- 输入层: 用户输入预处理——过滤注入攻击(Prompt Injection)、敏感词前置拦截
- 输出层: 输出内容安全审核——关键信息脱敏、违规内容过滤、置信度低时加“免责提示”
- 交互层: 限制 Agent 的行动权限——分级授权,高风险操作需要用户二次确认
- 反馈层: 用户举报 + 自动检测,bad case 快速回收用于模型迭代
- 兜底层: 设定“不回答”的边界——让 Agent 在不确定时说“我不确定,建议你 xx”而不是胡编
10.“请你分析一下目前市场上主流 Agent 平台与小红书内部 Agent 平台可能存在的差异化方向。”
回答要点: 考察你对 Agent 市场格局和小红书业务的理解。
主流 Agent 平台(Coze、Dify、GPTs)的共同特点:通用化、平台化、开发者导向。
小红书内部 Agent 的差异化方向可以从三个角度思考:
- 场景深耕: 小红书的核心场景是“种草 + 消费决策”。Agent 可以深度嵌入用户的购物决策链路——不是通用的问答 Agent,而是“帮你做消费决策”的专属 Agent
- 内容生态: 小红书有海量的 UGC 笔记,这是独家数据优势。Agent 可以基于真实用户笔记而非通用知识库来回答问题,“可信度”是核心差异化
- 社区属性: 通用 Agent 是“人和 AI 对话”,小红书 Agent 可以是“人和社区智慧对话”——Agent 的回答背后链接的是真实用户的经验分享,而不是模型编造
11.“简单解释一下 RAG 和 Fine-tuning 的区别,在什么样的工作场景下会优先选择 RAG?”
回答要点: 经典 AI PM 考题。
| 维度 | RAG | Fine-tuning |
|---|---|---|
| 本质 | 检索外部知识 + 生成回答 | 用数据修改模型参数 |
| 知识更新 | 实时(更新知识库即可) | 需要重新训练 |
| 成本 | 低(不改模型) | 高(需要 GPU + 标注数据) |
| 适用场景 | 知识频繁变化、需要引用来源 | 需要模型掌握特定风格/能力 |
优先选择 RAG 的场景:
- 知识库更新频繁(比如产品文档、政策法规)
- 需要回答有明确来源引用(比如客服场景)
- 预算有限,无法承担微调成本
- 需要快速上线验证(RAG 搭建周期远短于微调)
12.“如果业务方想要一个万能的 Agent,但技术实现周期很长,你会如何通过 MVP 的思路去和他们沟通?”
回答要点: 考察你的需求管理和跨团队沟通能力。
MVP 沟通框架:
- 先对齐目标: “万能 Agent”背后,业务方最核心想解决的 1-2 个问题是什么?
- 拆解优先级: 把“万能”拆成具体的能力列表,按业务价值 × 技术可行性排序
- 提出 MVP 方案: “我们先做一个只解决 xx 问题的 Agent,用两周上线验证效果。如果效果好,再逐步扩展能力”
- 用数据说话: “MVP 上线后我们看 xx 指标,如果达到 xx 水平,就证明方向对了,再投入资源做完整版”
关键原则:不要说“做不了”,要说“我们先做这一步”。 业务方要的不是“万能”,而是“解决问题”。你帮他找到最小化的解决方案,比争论“能不能做万能的”有价值得多。
13.“在 xx 项目中,你通过什么方法验证你的‘个性化推荐策略’确实是提升 12% 的核心原因,而非其他干扰因素?”
回答要点: 考察因果推断意识和数据验证能力。
验证因果关系的方法:
- A/B 测试: 最直接的因果验证——实验组用新策略,对照组用旧策略,其他变量控制一致
- 排除干扰因素: 检查同期有没有其他变量变化(季节性波动、营销活动、版本更新、渠道变化)
- 分群验证: 不同用户群(新用户/老用户、高活/低活)是否都有提升?如果只有某一群提升,说明可能不是策略本身的功劳
- 时间维度: 效果是持续性的还是短暂的?上线第一周提升 12%,第四周回落到 3%,说明可能是新鲜感而非策略有效
14.“当研发认为 Agent 的某项能力无法量化,而你需要这个指标来写 PRD 时,你会如何解决这种冲突?”
回答要点: 考察跨团队协作和指标拆解能力。
解决步骤:
- 理解研发的顾虑: 先问清楚“无法量化”具体指的是什么——是技术上没法采集数据,还是这个能力本身就模糊?
- 拆解指标: 如果直接指标无法量化,用间接指标替代。比如“Agent 的理解能力”无法直接量化,但可以用“用户主动纠正次数”、“多轮对话轮次”等间接指标
- 约定评估方式: 和研发一起定义一个可执行的评估方案——比如抽样人工评估 + 用户反馈打分
- PRD 中标注限制: 在 PRD 里说明“当前指标为近似量化,后续随技术能力提升再迭代”
15.“请谈你对 Agent 落地边界的理解,哪些任务适合 Agent 做,哪些任务目前还是需要人工干预?”
回答要点: 考察你对 AI 能力边界的判断力。
适合 Agent 的任务:
- 信息检索和汇总(从海量内容中找答案)
- 重复性高、规则明确的操作(格式转换、数据清洗、模板生成)
- 辅助决策(提供选项和分析,但最终由人决定)
仍需人工干预的任务:
- 高风险决策(涉及资金、法律、安全的操作)
- 强情感交互(投诉处理、危机公关)
- 创造性判断(品牌定位、内容调性把控)
- 边界模糊的场景(Agent 无法确认自己是否理解正确时)
核心判断标准:“出错的代价有多高?” 代价低的任务可以大胆让 Agent 做,代价高的任务必须有人工兜底。
16.“你如何看待多模态对小红书 Agent 产品的潜在赋能价值?”
回答要点: 考察你对多模态技术和小红书业务结合的思考。
小红书是“图文 + 视频”为主的内容平台,多模态能力对 Agent 的赋能场景:
- 图文理解: 用户发一张穿搭照,Agent 能识别单品并推荐相似款——从“搜索”到“拍照问 Agent”
- 视频摘要: 长视频笔记自动生成图文摘要和关键帧,提升内容消费效率
- 跨模态检索: 用户描述一个场景(“秋天适合去哪拍照”),Agent 能从图片库中匹配相关笔记
- 创作辅助: 用户上传产品图片,Agent 自动生成种草文案 + 排版建议
多模态让 Agent 从“只能聊天”变成“能看懂小红书的世界”,这是小红书 Agent 和通用 Agent 最大的差异化机会。
三面:稳定性与价值观
这一轮主要看你的人格成熟度、自我认知和稳定性。
17.“为什么选择从法律转到 AI 产品方向?你转型的长期规划是怎样的?”
回答要点: 考察转型动机的真实性和规划的合理性。
回答要点:
- 动机要真实: 不要说“AI 是风口”,要说你发现了 AI 产品和你之前经历的具体连接点。比如“法律背景让我对规则引擎和合规问题有天然的敏感度,而 AI 产品恰好需要这种能力”
- 规划要具体: 不是“我想做 AI PM”,而是“短期希望在 Agent 产品方向积累实操经验,中期目标是能独立负责一个 AI 功能模块”
- 展示已有行动: “我已经自学了 xx、做了 xx 项目、拿到了 xx 认证”——行动比规划更有说服力
18.“描述一次你面临的最具挑战性的任务,你是如何应对其中的压力和挫折的?”
回答要点: 考察抗压能力和逆商。
用 STAR 框架:
- Situation: 什么背景,挑战在哪
- Task: 你需要做什么
- Action: 你具体怎么应对的(重点说你的心理调适 + 实际行动)
- Result: 结果怎么样,你学到了什么
关键:面试官不想听“我克服了困难”这种空话,想听的是你在压力下的具体思维过程和行为方式。
19.“请分享你过去一个月内新学到的一个 AI 知识点,以及你获取信息的渠道。”
回答要点: 考察学习习惯和信息获取能力。
要说一个具体的、有深度的知识点——不是“我了解了 GPT-4”这种层面。比如:
- “我最近在研究 MCP(Model Context Protocol),它让 Agent 能标准化地接入外部工具,我觉得这会改变 Agent 的插件生态”
- “我关注到 Qwen3 支持思考模式切换,这意味着未来 Agent 可以根据任务复杂度动态调整推理深度”
渠道要真实:arXiv、Twitter/X、机器之心、YouTube 技术博主、GitHub Trending 都行,关键是说出你从哪个渠道看到了什么。
20.“你的合作过的伙伴通常如何评价你?如果他们要给你提一个缺点,你觉得会是什么?”
回答要点: 考察自我认知和人际洞察。
- 优点部分: 说一个和工作直接相关的评价,比如“他们通常说我逻辑清晰、文档写得详细”
- 缺点部分: 说一个真实的、不致命的缺点,而且要展示你知道这是缺点。比如“他们可能会说我有时候太纠结细节,在需要快速决策的时候反应偏慢——我也在有意识地改进,现在会给自己设‘决策时限’”
21.“这份实习你能保证多久的入职时间?每周能出勤几天?能否接受互联网大厂的工作强度?”
回答要点: 如实回答,不要过度承诺。
面试官问这个问题的核心关切是“你来了能不能产出”。如果你只能实习三个月每周三天,那就如实说——然后补充“虽然时间有限,但我会在入职前做好准备工作,确保上手快”。过度承诺然后做不到,比坦诚说时间有限更糟糕。
22.“在做产品决策时,你更倾向于直觉还是数据?如果数据和直觉相悖,你会怎么办?”
回答要点: 考察决策思维的成熟度。
好的回答不是选边站,而是说清楚两者的关系:
- 数据是基础: 大多数情况下,数据比直觉靠谱。尤其是可以量化的决策(定价、功能优先级、A/B 测试),必须用数据说话
- 直觉是补充: 当数据不足或者数据指向的方向违背用户常识时,直觉有参考价值——但直觉需要用“为什么我有这个感觉”来理性化
- 相悖时怎么办: 先检查数据是否有问题(采集偏差、样本量不足、指标定义错误)。如果数据没问题,优先信数据,但可以设计一个小实验来验证直觉
23.“对我们团队或者这个岗位,有什么想进一步了解的吗?”
回答要点: 这不是客套,是最后的加分机会。
好的反问展示你的思考深度:
- “目前团队在 Agent 方向的核心优先级是什么?是提升现有 Agent 的效果,还是探索新的 Agent 场景?”
- “实习生在团队中通常会独立负责一个模块还是跟着导师做子任务?”
- “小红书的 Agent 产品目前最大的技术瓶颈是什么?”
避免问薪资、福利、假期等纯 HR 问题——这些留给 HR 轮或 Offer 阶段。
面试总结
小红书 AI 产品实习面试有几个明显特点:
- Agent 是核心考察主题: 从工作流设计到效果评估到落地边界,几乎每道题都和 Agent 相关。如果你对 Agent 没有实操经验,会非常被动
- 重视数据验证能力: 不只是“你做了什么”,更关注“你怎么证明你做的有效”
- 业务感知要求高: 面试官期望你理解小红书的内容生态、社区特性和商业模式,而不是泛泛谈 AI
- 三面考察真实性: 转型动机、学习习惯、自我认知——这些没法准备“标准答案”,只能靠真实的积累
备考建议
- 动手搭一个 Agent: 用 Dify 或 Coze 搭一个完整的 Agent 工作流,面试时能直接聊你的实操经验
- 准备 2-3 个数据验证案例: 每个案例都要能说清楚“指标是什么、怎么验证因果关系、排除了哪些干扰因素”
- 深度体验小红书的 AI 功能: 搜索、推荐、内容创作辅助——找到你觉得可以优化的点,形成自己的产品观点
- 关注 Agent 行业动态: MCP、Function Calling、多 Agent 协作这些概念要能用自己的话解释
- 准备好转型叙事: 如果你是跨专业背景,提前想清楚“为什么转”和“凭什么你能做好”