面试 · AI 产品 · 真题

小红书 AI 产品实习面试真题

这是一份小红书 AI 产品实习岗位的三轮面试完整复盘,23 道真题覆盖产品基本功、AI 技术理解、业务深度思考和个人价值观。面试整体风格偏“实战派”——不考空洞的方法论,而是围绕 Agent、RAG、数据验证等具体场景深度追问。

信息 详情
面试岗位 AI 产品实习生
面试公司 小红书
面试轮次 三轮
考察侧重 一面产品基本功 · 二面业务深度 · 三面稳定性价值观

一面:产品基本功

这一轮主要考察你对 AI 产品(尤其是 Agent)的基础理解和实操经验。

1.“简单的自我介绍。”

回答要点: 实习面试的自我介绍要短而精,60-90 秒就够。

核心要说三件事:你是谁(学校 + 专业)、你做过什么(和 AI 产品相关的项目/实习)、你为什么来面这个岗(对小红书 AI 方向的兴趣和思考)。

对于 AI 产品实习,重点突出你的 AI 实操经验——哪怕是个人项目也行。“我用 Dify 搭过一个 xx Agent”比“我对 AI 很感兴趣”有说服力十倍。

2.“在这个 xx 项目中,聚类分析你具体是怎么做的?你如何定义有效性?”

回答要点: 考察数据分析的实操能力和指标意识。

回答结构:

  1. 数据准备: 用了什么数据源,做了哪些预处理(清洗、特征工程)
  2. 方法选择: 为什么选 K-Means / DBSCAN / 层次聚类?对比过哪些方法?
  3. 有效性定义: 这是关键——不能只说“聚出来了就有效”。好的回答要包含:
    • 内部指标: 轮廓系数、SSE 等
    • 业务指标: 聚类结果能不能指导产品决策?比如聚出的用户群在行为上是否有显著差异?
    • 可解释性: 聚类结果能不能用业务语言解释清楚?如果连你自己都说不清“这一群用户有什么共同特征”,那聚类就是无效的

3.“如果让你给小红书内部的内容审核环节设计一个 AI Agent,你会规划哪些 Node?”

回答要点: 考察你对 Agent 工作流(Workflow)的理解和业务场景拆解能力。

以 Dify/n8n 的工作流思维来拆:

  1. 输入节点: 接收待审核内容(图片 + 文字 + 标签 + 用户信息)
  2. 多模态理解节点: 图片识别(OCR + 图像分类)+ 文本理解(NLP 语义分析)
  3. 规则引擎节点: 关键词过滤、黑名单匹配、敏感信息检测(手机号、二维码等)
  4. 大模型判断节点: 对灰色地带内容(擦边、软广、争议性观点)做语义级判断
  5. 置信度路由节点: 高置信度直接通过/拒绝,低置信度转人工
  6. 人工审核节点: 人工复核 + 标注反馈
  7. 结果记录节点: 审核结果写入数据库 + 反馈到模型训练

关键洞察:不是所有内容都需要过大模型——简单的关键词过滤能拦截 80% 的明确违规,大模型只处理“拿不准”的灰色地带,这样才能控制成本和延迟。

4.“假设你负责的一个 Agent 在回复准确率上突然下降,你会怎么排查?”

回答要点: 考察故障排查的结构化思维。

分层排查:

  1. 数据层: 最近有没有数据源变更?知识库有没有更新?向量索引有没有异常?
  2. 模型层: 底层模型有没有版本升级?Prompt 有没有被修改?Token 限制有没有被调整?
  3. 用户层: 是所有用户都下降还是某类用户?是某类问题准确率下降还是整体?
  4. 环境层: API 调用有没有超时或限流?缓存有没有过期?
  5. 对比分析: 拉取下降前后的 bad case,对比差异,定位具体是哪个环节出了问题

5.“你提到过 Vibe Coding,你认为这种开发模式在定义产品边界时有什么影响?”

回答要点: 考察你对 AI 开发新范式的思考深度。

Vibe Coding(用自然语言“感觉”来驱动 AI 写代码)带来两个产品边界影响:

正面: 降低了原型验证的门槛。产品经理可以快速用 Vibe Coding 做出 MVP 原型,验证想法是否成立,而不用等开发排期。这意味着“产品定义”和“技术实现”之间的界限在模糊——PM 可以更深度地参与到实现层面。

风险: 容易产生“能做 = 该做”的幻觉。因为实现成本变低了,团队可能会跳过需求验证直接做功能。产品边界反而更需要 PM 来把控——不是“能不能做”的问题,而是“值不值得做”的问题。

6.“你认为评价一个 Agent 的好坏,除了准确率,还有哪些关键的数据指标?”

回答要点: 考察你的 AI 产品指标体系思维。

Agent 评估指标可以分四个维度:

  • 效果指标: 准确率、召回率、幻觉率、任务完成率
  • 效率指标: 响应时间、Token 消耗量、API 调用次数
  • 用户体验指标: 用户满意度(评分/点赞率)、多轮对话保持率、用户主动纠正频率
  • 业务指标: 用户留存、功能渗透率、人工兜底率(越低说明 Agent 越独立)

加分思考:不同场景的指标权重不同。 客服 Agent 最看重“人工兜底率”,创作 Agent 最看重“用户满意度”,审核 Agent 最看重“准确率 + 召回率”。

7.“你在过往的项目经历中是如何发现并修补一个逻辑漏洞?”

回答要点: 考察你的细节把控能力和问题发现能力。

回答框架:

  1. 场景: 在做什么项目/功能时
  2. 发现: 怎么发现的(用户反馈?数据异常?自己测试?Code Review?)
  3. 分析: 漏洞的根因是什么(边界条件没考虑到?逻辑分支缺失?数据流断裂?)
  4. 修复: 怎么修的,修完怎么验证
  5. 复盘: 这个漏洞暴露了什么系统性问题?后续怎么预防?

面试官想看到的是你的“质量意识”——不是等问题爆发才处理,而是能主动发现潜在风险。

8.“你平时最常使用的 AI Agent 是哪个?如果让你给它提一个优化建议,你会从哪个维度切入?”

回答要点: 考察你的产品分析能力和 AI 工具敏感度。

回答结构:

  1. 选一个你真正用过的: 比如 Claude Code、Cursor、豆包、Coze 等
  2. 说清楚你的使用场景: 不是“我用过”,而是“我每天用它做 xx”
  3. 优化建议要具体: 不能说“体验可以更好”,要指出具体的痛点和方案

示例:“我最常用的是 Cursor。它在代码补全上很强,但在处理跨文件的上下文理解时经常丢失关键信息。我的优化建议是增强项目级的上下文索引能力——让它在补全时自动关联相关文件,而不是只看当前文件。”


二面:业务深度与商业思考

这一轮难度明显上升,考察你对 Agent 业务的深度理解和商业判断。

9.“你认为应该如何通过产品手段规避 Agent 输出的风险?”

回答要点: 考察你的 AI 安全意识和产品化思维。

产品手段(不是纯技术手段)规避风险:

  • 输入层: 用户输入预处理——过滤注入攻击(Prompt Injection)、敏感词前置拦截
  • 输出层: 输出内容安全审核——关键信息脱敏、违规内容过滤、置信度低时加“免责提示”
  • 交互层: 限制 Agent 的行动权限——分级授权,高风险操作需要用户二次确认
  • 反馈层: 用户举报 + 自动检测,bad case 快速回收用于模型迭代
  • 兜底层: 设定“不回答”的边界——让 Agent 在不确定时说“我不确定,建议你 xx”而不是胡编

10.“请你分析一下目前市场上主流 Agent 平台与小红书内部 Agent 平台可能存在的差异化方向。”

回答要点: 考察你对 Agent 市场格局和小红书业务的理解。

主流 Agent 平台(Coze、Dify、GPTs)的共同特点:通用化、平台化、开发者导向。

小红书内部 Agent 的差异化方向可以从三个角度思考:

  1. 场景深耕: 小红书的核心场景是“种草 + 消费决策”。Agent 可以深度嵌入用户的购物决策链路——不是通用的问答 Agent,而是“帮你做消费决策”的专属 Agent
  2. 内容生态: 小红书有海量的 UGC 笔记,这是独家数据优势。Agent 可以基于真实用户笔记而非通用知识库来回答问题,“可信度”是核心差异化
  3. 社区属性: 通用 Agent 是“人和 AI 对话”,小红书 Agent 可以是“人和社区智慧对话”——Agent 的回答背后链接的是真实用户的经验分享,而不是模型编造

11.“简单解释一下 RAG 和 Fine-tuning 的区别,在什么样的工作场景下会优先选择 RAG?”

回答要点: 经典 AI PM 考题。

维度 RAG Fine-tuning
本质 检索外部知识 + 生成回答 用数据修改模型参数
知识更新 实时(更新知识库即可) 需要重新训练
成本 低(不改模型) 高(需要 GPU + 标注数据)
适用场景 知识频繁变化、需要引用来源 需要模型掌握特定风格/能力

优先选择 RAG 的场景:

  • 知识库更新频繁(比如产品文档、政策法规)
  • 需要回答有明确来源引用(比如客服场景)
  • 预算有限,无法承担微调成本
  • 需要快速上线验证(RAG 搭建周期远短于微调)

12.“如果业务方想要一个万能的 Agent,但技术实现周期很长,你会如何通过 MVP 的思路去和他们沟通?”

回答要点: 考察你的需求管理和跨团队沟通能力。

MVP 沟通框架:

  1. 先对齐目标: “万能 Agent”背后,业务方最核心想解决的 1-2 个问题是什么?
  2. 拆解优先级: 把“万能”拆成具体的能力列表,按业务价值 × 技术可行性排序
  3. 提出 MVP 方案: “我们先做一个只解决 xx 问题的 Agent,用两周上线验证效果。如果效果好,再逐步扩展能力”
  4. 用数据说话: “MVP 上线后我们看 xx 指标,如果达到 xx 水平,就证明方向对了,再投入资源做完整版”

关键原则:不要说“做不了”,要说“我们先做这一步”。 业务方要的不是“万能”,而是“解决问题”。你帮他找到最小化的解决方案,比争论“能不能做万能的”有价值得多。

13.“在 xx 项目中,你通过什么方法验证你的‘个性化推荐策略’确实是提升 12% 的核心原因,而非其他干扰因素?”

回答要点: 考察因果推断意识和数据验证能力。

验证因果关系的方法:

  1. A/B 测试: 最直接的因果验证——实验组用新策略,对照组用旧策略,其他变量控制一致
  2. 排除干扰因素: 检查同期有没有其他变量变化(季节性波动、营销活动、版本更新、渠道变化)
  3. 分群验证: 不同用户群(新用户/老用户、高活/低活)是否都有提升?如果只有某一群提升,说明可能不是策略本身的功劳
  4. 时间维度: 效果是持续性的还是短暂的?上线第一周提升 12%,第四周回落到 3%,说明可能是新鲜感而非策略有效

14.“当研发认为 Agent 的某项能力无法量化,而你需要这个指标来写 PRD 时,你会如何解决这种冲突?”

回答要点: 考察跨团队协作和指标拆解能力。

解决步骤:

  1. 理解研发的顾虑: 先问清楚“无法量化”具体指的是什么——是技术上没法采集数据,还是这个能力本身就模糊?
  2. 拆解指标: 如果直接指标无法量化,用间接指标替代。比如“Agent 的理解能力”无法直接量化,但可以用“用户主动纠正次数”、“多轮对话轮次”等间接指标
  3. 约定评估方式: 和研发一起定义一个可执行的评估方案——比如抽样人工评估 + 用户反馈打分
  4. PRD 中标注限制: 在 PRD 里说明“当前指标为近似量化,后续随技术能力提升再迭代”

15.“请谈你对 Agent 落地边界的理解,哪些任务适合 Agent 做,哪些任务目前还是需要人工干预?”

回答要点: 考察你对 AI 能力边界的判断力。

适合 Agent 的任务:

  • 信息检索和汇总(从海量内容中找答案)
  • 重复性高、规则明确的操作(格式转换、数据清洗、模板生成)
  • 辅助决策(提供选项和分析,但最终由人决定)

仍需人工干预的任务:

  • 高风险决策(涉及资金、法律、安全的操作)
  • 强情感交互(投诉处理、危机公关)
  • 创造性判断(品牌定位、内容调性把控)
  • 边界模糊的场景(Agent 无法确认自己是否理解正确时)

核心判断标准:“出错的代价有多高?” 代价低的任务可以大胆让 Agent 做,代价高的任务必须有人工兜底。

16.“你如何看待多模态对小红书 Agent 产品的潜在赋能价值?”

回答要点: 考察你对多模态技术和小红书业务结合的思考。

小红书是“图文 + 视频”为主的内容平台,多模态能力对 Agent 的赋能场景:

  1. 图文理解: 用户发一张穿搭照,Agent 能识别单品并推荐相似款——从“搜索”到“拍照问 Agent”
  2. 视频摘要: 长视频笔记自动生成图文摘要和关键帧,提升内容消费效率
  3. 跨模态检索: 用户描述一个场景(“秋天适合去哪拍照”),Agent 能从图片库中匹配相关笔记
  4. 创作辅助: 用户上传产品图片,Agent 自动生成种草文案 + 排版建议

多模态让 Agent 从“只能聊天”变成“能看懂小红书的世界”,这是小红书 Agent 和通用 Agent 最大的差异化机会。


三面:稳定性与价值观

这一轮主要看你的人格成熟度、自我认知和稳定性。

17.“为什么选择从法律转到 AI 产品方向?你转型的长期规划是怎样的?”

回答要点: 考察转型动机的真实性和规划的合理性。

回答要点:

  • 动机要真实: 不要说“AI 是风口”,要说你发现了 AI 产品和你之前经历的具体连接点。比如“法律背景让我对规则引擎和合规问题有天然的敏感度,而 AI 产品恰好需要这种能力”
  • 规划要具体: 不是“我想做 AI PM”,而是“短期希望在 Agent 产品方向积累实操经验,中期目标是能独立负责一个 AI 功能模块”
  • 展示已有行动: “我已经自学了 xx、做了 xx 项目、拿到了 xx 认证”——行动比规划更有说服力

18.“描述一次你面临的最具挑战性的任务,你是如何应对其中的压力和挫折的?”

回答要点: 考察抗压能力和逆商。

用 STAR 框架:

  • Situation: 什么背景,挑战在哪
  • Task: 你需要做什么
  • Action: 你具体怎么应对的(重点说你的心理调适 + 实际行动)
  • Result: 结果怎么样,你学到了什么

关键:面试官不想听“我克服了困难”这种空话,想听的是你在压力下的具体思维过程和行为方式。

19.“请分享你过去一个月内新学到的一个 AI 知识点,以及你获取信息的渠道。”

回答要点: 考察学习习惯和信息获取能力。

要说一个具体的、有深度的知识点——不是“我了解了 GPT-4”这种层面。比如:

  • “我最近在研究 MCP(Model Context Protocol),它让 Agent 能标准化地接入外部工具,我觉得这会改变 Agent 的插件生态”
  • “我关注到 Qwen3 支持思考模式切换,这意味着未来 Agent 可以根据任务复杂度动态调整推理深度”

渠道要真实:arXiv、Twitter/X、机器之心、YouTube 技术博主、GitHub Trending 都行,关键是说出你从哪个渠道看到了什么。

20.“你的合作过的伙伴通常如何评价你?如果他们要给你提一个缺点,你觉得会是什么?”

回答要点: 考察自我认知和人际洞察。

  • 优点部分: 说一个和工作直接相关的评价,比如“他们通常说我逻辑清晰、文档写得详细”
  • 缺点部分: 说一个真实的、不致命的缺点,而且要展示你知道这是缺点。比如“他们可能会说我有时候太纠结细节,在需要快速决策的时候反应偏慢——我也在有意识地改进,现在会给自己设‘决策时限’”

21.“这份实习你能保证多久的入职时间?每周能出勤几天?能否接受互联网大厂的工作强度?”

回答要点: 如实回答,不要过度承诺。

面试官问这个问题的核心关切是“你来了能不能产出”。如果你只能实习三个月每周三天,那就如实说——然后补充“虽然时间有限,但我会在入职前做好准备工作,确保上手快”。过度承诺然后做不到,比坦诚说时间有限更糟糕。

22.“在做产品决策时,你更倾向于直觉还是数据?如果数据和直觉相悖,你会怎么办?”

回答要点: 考察决策思维的成熟度。

好的回答不是选边站,而是说清楚两者的关系:

  • 数据是基础: 大多数情况下,数据比直觉靠谱。尤其是可以量化的决策(定价、功能优先级、A/B 测试),必须用数据说话
  • 直觉是补充: 当数据不足或者数据指向的方向违背用户常识时,直觉有参考价值——但直觉需要用“为什么我有这个感觉”来理性化
  • 相悖时怎么办: 先检查数据是否有问题(采集偏差、样本量不足、指标定义错误)。如果数据没问题,优先信数据,但可以设计一个小实验来验证直觉

23.“对我们团队或者这个岗位,有什么想进一步了解的吗?”

回答要点: 这不是客套,是最后的加分机会。

好的反问展示你的思考深度:

  • “目前团队在 Agent 方向的核心优先级是什么?是提升现有 Agent 的效果,还是探索新的 Agent 场景?”
  • “实习生在团队中通常会独立负责一个模块还是跟着导师做子任务?”
  • “小红书的 Agent 产品目前最大的技术瓶颈是什么?”

避免问薪资、福利、假期等纯 HR 问题——这些留给 HR 轮或 Offer 阶段。


面试总结

小红书 AI 产品实习面试有几个明显特点:

  1. Agent 是核心考察主题: 从工作流设计到效果评估到落地边界,几乎每道题都和 Agent 相关。如果你对 Agent 没有实操经验,会非常被动
  2. 重视数据验证能力: 不只是“你做了什么”,更关注“你怎么证明你做的有效”
  3. 业务感知要求高: 面试官期望你理解小红书的内容生态、社区特性和商业模式,而不是泛泛谈 AI
  4. 三面考察真实性: 转型动机、学习习惯、自我认知——这些没法准备“标准答案”,只能靠真实的积累

备考建议

  • 动手搭一个 Agent: 用 Dify 或 Coze 搭一个完整的 Agent 工作流,面试时能直接聊你的实操经验
  • 准备 2-3 个数据验证案例: 每个案例都要能说清楚“指标是什么、怎么验证因果关系、排除了哪些干扰因素”
  • 深度体验小红书的 AI 功能: 搜索、推荐、内容创作辅助——找到你觉得可以优化的点,形成自己的产品观点
  • 关注 Agent 行业动态: MCP、Function Calling、多 Agent 协作这些概念要能用自己的话解释
  • 准备好转型叙事: 如果你是跨专业背景,提前想清楚“为什么转”和“凭什么你能做好”