算法面试 / JD 面经
阿里即时物流运筹与因果推断面经
这篇基于一个典型 JD:算法工程师 - 运筹 & 因果推断(AI 物流智能决策)。
岗位关键词非常密集:即时物流、AI 智能决策、骑手排班、时间预估、骑手定价、骑手调度、因果推断、运筹决策、出价 / 流量机制、生成式、LLMxUplift、AI Agent。面试不会只问一个模型,而是会看你能不能把业务目标、建模抽象、优化约束、因果识别、在线实验和工程落地串起来。
JD 字眼怎么翻译成面试考点
| JD 字眼 | 面试官可能想看什么 |
|---|---|
| 即时物流核心引擎 | 你是否理解供需匹配、实时调度、履约时效、骑手体验之间的 trade-off |
| 骑手规划排班 | 你是否能把需求预测、产能配置、班次约束、成本控制建成优化问题 |
| 用户 / 骑手时间预估 | 你是否理解 ETA、到店时间、送达时间、延迟传播、特征穿越和校准 |
| 骑手定价 | 你是否理解供给激励、补贴效率、因果增量、预算约束和价格弹性 |
| 骑手调度 | 你是否能拆分为订单分配、路径规划、批量决策、滚动优化、实时重规划 |
| 因果推断建模 | 你是否知道为什么不能只看相关性,以及如何做 uplift、DID、PSM、IV、DR |
| 运筹决策算法 | 你是否能用 LP / ILP / matching / min-cost flow / heuristic 表达问题 |
| 出价 / 流量机制策略 | 你是否能把广告出价、补贴分发、流量调控类思路迁移到物流供给激励 |
| 个性化、实时化、智能化 | 你是否能讲清离线训练、在线服务、策略约束、实时特征和降级机制 |
| LLMxUplift / AI Agent | 你是否能理性回答大模型在决策系统里的边界,而不是空喊概念 |
一分钟自我介绍模板
如果你有相关项目,可以按这个结构讲:
我之前主要做过业务决策类算法项目,重点不是单纯训练模型,而是围绕业务目标做预测、归因和策略优化。项目里我会先定义核心指标,比如履约时效、供需匹配效率、转化率或补贴 ROI;然后拆数据链路和决策链路,判断哪些部分适合做预估模型,哪些部分需要运筹优化或因果评估;最后通过离线回测、A/B 实验和线上监控验证收益。这个岗位里的骑手排班、定价、调度,本质上也是预测 + 决策 + 约束优化 + 因果评估的组合,所以我希望重点往 AI 物流智能决策方向发展。
不要说“我熟悉算法和数据结构,会 PyTorch”。这只能覆盖 JD 的基础要求,不能命中岗位核心。
高频问题与理想回答
1. 你怎么理解“即时物流 AI 智能决策”?
理想回答:
即时物流的智能决策不是一个单点模型,而是一条实时决策链路。上游要预测需求、骑手供给、商家出餐、到店和送达时间;中间要做排班、定价、调度、路径和订单分配;下游要通过实验和因果方法评估策略是否真的提升效率。
核心难点有三类:第一是实时性,订单和骑手状态不断变化;第二是约束多,比如时效、距离、容量、骑手公平性、补贴预算;第三是目标冲突,比如用户体验、骑手收入、平台成本和商家履约不能只优化一个。
2. 骑手调度可以抽象成什么问题?
理想回答:
可以抽象成带约束的动态匹配和路径优化问题。给定一批订单、一批骑手和实时状态,目标是在满足时效、容量、距离、服务范围等约束下,最大化整体履约效率或最小化超时、空驶、等待和补贴成本。
简单版本可以做二分图匹配,边权是订单分给某个骑手的负成本。复杂版本要考虑多单组合、路径顺序、未来订单机会成本,就会接近动态 vehicle routing problem,可以用滚动时域优化、候选动作生成 + 打分、局部搜索或强化学习方法。
3. 如果让你设计骑手排班系统,你会怎么做?
理想回答:
我会分三层做。第一层是需求预测,按区域、时间粒度、天气、节假日、活动、历史订单预测订单量和履约压力。第二层是供给规划,把需求转成需要的骑手工时或班次数,考虑骑手可用时间、最小时长、班次连续性、区域覆盖、成本预算。第三层是在线修正,当实际需求偏离预测时,通过加价、临时召回、跨区调度做实时补偿。
建模上可以用整数规划:决策变量是骑手在某区域某时段是否排班,目标是缺口成本、冗余成本和排班成本的加权和,约束包括骑手可用性、班次长度、休息时间、区域需求覆盖等。
4. 骑手定价和广告出价有什么相似点?
理想回答:
两者都是在预算约束下用价格影响行为。广告出价影响流量获取和转化,骑手定价影响骑手接单、上线、跨区移动或高峰供给。都需要估计“价格变化带来的增量效果”,不能只看出价高的样本效果更好,因为存在选择偏差。
差异是物流定价的约束更强。它不仅影响短期接单,还影响骑手体验、公平性、长期留存和区域供需平衡,所以不能只用 ROI 最大化,还要加上时效、供给稳定性和预算平滑约束。
5. 为什么骑手定价需要因果推断?
理想回答:
因为价格或补贴不是随机发的,通常会给高峰、缺骑手、困难订单更高补贴。如果直接比较高补贴和低补贴订单的完成率,会把场景难度和补贴效果混在一起,得到偏差结论。
因果推断要估计的是“如果同一个订单或同一类骑手在同样条件下补贴不同,行为会发生什么变化”。可以用随机实验最直接;如果不能完全随机,可以用倾向得分、DID、断点、工具变量或 doubly robust 方法做估计。
6. Uplift 建模在这个岗位里怎么用?
理想回答:
Uplift 不是预测谁会接单,而是预测“给激励之后相比不给激励,接单概率或上线概率增加多少”。在骑手定价里,最有价值的人群不是本来就会接单的人,也不是怎么补贴都不接的人,而是对激励敏感的边际人群。
可以把 treatment 定义为某种补贴或价格策略,outcome 定义为接单、上线、到达目标区域或准时履约。模型输出个体级增量效果,再结合成本做 uplift / cost 排序,在预算内投放。
7. LLMxUplift 可能是什么意思?
理想回答:
我会理解成两类结合方式。第一类是 LLM 做特征和语义理解,比如从天气、活动、商圈、骑手反馈、异常事件中抽取上下文特征,辅助 uplift 模型识别异质性。第二类是 LLM 做策略解释和人机交互,比如解释为什么某区域需要加价、为什么某类骑手是高 uplift 人群。
但最终是否加价、加多少,不能直接交给 LLM 决策。核心决策仍然要经过可验证的 uplift 估计、预算约束和在线实验,LLM 更适合做信息抽取、策略辅助、异常归因和运营协同。
8. AI Agent 智能决策在物流里能做什么?
理想回答:
Agent 可以做决策编排,而不是替代底层优化器。比如它可以监控某区域履约压力,调用需求预测模型、供给预测模型、调度模拟器、补贴策略评估器,生成候选动作,再交给规则和优化模块做约束校验。
生产系统里需要非常谨慎:Agent 的动作空间要受限,关键决策要有审批或灰度,必须有回滚、审计、解释和安全边界。物流调度属于强约束实时系统,不能让 Agent 自由生成不可控策略。
9. ETA 时间预估怎么建模?
理想回答:
先拆目标:用户看到的是预计送达时间,系统内部可能还要预测商家出餐时间、骑手到店时间、取餐等待、配送路程、楼宇交付时间。每个阶段的误差来源不同,最好分阶段建模再组合。
特征包括订单、商家、骑手、路网、天气、时段、区域拥堵、历史履约、实时位置。模型可以从 GBDT / DeepFM / Transformer 时序模型做起。关键不是只追 MAE,还要看校准、分位数误差、超时召回和用户承诺时效下的风险控制。
10. ETA 预估的离线指标和在线指标分别是什么?
理想回答:
离线可以看 MAE、RMSE、MAPE、P50 / P90 误差、分桶校准、超时订单召回率。在线更关心承诺时效准确率、用户取消率、投诉率、骑手等待、调度效率和超时率。
如果离线 MAE 降了但在线体验没变,可能是优化了大量低价值样本,或者模型在高峰、恶劣天气、长尾商圈这些关键场景没提升。因此要分场景看指标。
11. 调度系统里的目标函数怎么写?
理想回答:
一个简化目标可以是最小化:
总成本 = 超时成本 + 骑手空驶成本 + 商家等待成本 + 用户等待成本 + 补贴成本 + 公平性惩罚
也可以把准时率、完成率、骑手收入稳定性作为约束,把成本最小化作为目标。实际系统里常用加权目标,但权重不是拍脑袋,需要根据业务优先级、A/B 实验和策略稳定性调。
12. 如果订单分配只看最近骑手,会有什么问题?
理想回答:
最近不等于最优。最近骑手可能正在送多单、方向不匹配、接单意愿低、去商家会等待很久,或者把他分走会导致未来区域缺供给。只看局部距离会造成全局效率下降。
更合理的边权要包括预计到店、出餐匹配、配送路径、骑手负载、未来机会成本、超时风险和公平性。
13. 你怎么做调度的候选动作生成?
理想回答:
不能对所有订单和所有骑手做全量组合,复杂度太高。一般先做候选裁剪,比如按距离、区域、骑手状态、可达时间、订单时效窗口筛出候选骑手;再生成单单、拼单、顺路单等候选动作;最后用打分模型或优化器选择。
候选生成要保证召回率,如果最优动作在候选阶段被剪掉,后面的模型再好也没用。所以要监控候选覆盖率、最优 oracle gap 和不同场景的候选规模。
14. 运筹优化和机器学习在这个岗位里怎么配合?
理想回答:
机器学习负责估计不确定量,比如订单需求、ETA、接单概率、出餐时间、价格弹性。运筹优化负责在这些估计的基础上做满足约束的决策,比如排班、分配、路径和预算。
两者的关键接口是预测值要服务决策。比如 ETA 模型不仅要准,还要能给风险或分位数;接单概率模型不仅要 AUC 高,还要在高补贴决策区间校准。
15. 如果模型预测很准,但调度效果不好,可能是什么原因?
理想回答:
可能是预测指标和决策目标不一致。比如 ETA 平均误差低,但高峰超时风险没预测准;接单率模型 AUC 高,但对边际补贴人群排序不准;需求预测总量准,但空间分布错。
也可能是优化器约束或成本函数设计不合理,比如过度惩罚距离导致骑手利用率低,或者没有考虑未来订单导致短视。需要做端到端决策回测,而不是只看模型离线指标。
16. 怎么做骑手补贴的 A/B 实验?
理想回答:
首先要明确实验单元。按订单随机可能会污染骑手行为,因为同一个骑手同时看到不同策略;按骑手随机可能影响区域供给;按区域随机又有跨区溢出。需要根据策略作用范围选择实验单元,常见是区域 x 时间片、骑手分层或城市分层。
指标要看完成率、准时率、接单率、补贴成本、骑手收入、用户体验和长期留存。还要关注干扰效应,因为物流是 marketplace,一个单元的供给变化会影响另一个单元。
17. 网络效应 / 干扰效应怎么处理?
理想回答:
传统 A/B 假设样本独立,但物流调度里一个骑手接了 A 单,就不能接 B 单;一个区域加价会吸引邻区骑手移动。这违反 SUTVA。
处理方式可以是 cluster randomization,把区域或城市作为实验单元;或者用 switchback experiment,在时间片上切换策略;也可以做地理隔离和溢出监控。分析时要看邻区指标,不能只看实验区。
18. 什么是 switchback experiment,为什么物流常用?
理想回答:
Switchback 是按时间片在同一市场内轮换策略,比如某城市每 30 分钟在 A 策略和 B 策略之间切换。它适合供需强耦合场景,因为同一城市不同时段共享相似结构,可以减少区域差异。
但要注意 carryover effect,上一个时间片的骑手位置和订单积压会影响下一个时间片,所以需要设置缓冲期或拉长时间片,并在分析时控制时段、天气、活动等因素。
19. 因果推断里 selection bias 在这个 JD 中怎么出现?
理想回答:
补贴通常发给更难履约的订单或更缺供给的区域,这些样本本来完成率就低。如果直接比较补贴和不补贴,会低估补贴效果。反过来,如果补贴发给高价值或更活跃骑手,也可能高估效果。
所以要识别 treatment 分配机制,控制混杂变量,或通过随机化、准实验、IV 等方法尽量构造可比样本。
20. PSM、DID、DR 分别适合什么情况?
理想回答:
PSM 适合在可观测混杂较充分时,为 treatment 组找相似 control 组,但依赖 unconfoundedness 假设。DID 适合有策略上线前后和实验 / 对照组时,要求平行趋势。DR 结合了 propensity model 和 outcome model,只要其中一个模型设对就有机会得到一致估计。
在物流补贴场景,如果有自然分区策略变化,可以考虑 DID;如果是历史日志里的非随机补贴,可以先做 PSM / IPW / DR;最可靠的还是设计随机实验。
21. 什么是反事实评估?
理想回答:
反事实评估是问:如果当时采用另一种策略,结果会怎样。调度和补贴系统不能只看线上已经执行的动作,因为日志只记录了历史策略选择过的动作。
可以用 IPS / SNIPS / DR 做 off-policy evaluation,但需要知道或估计历史策略选择概率。物流场景动作空间大、反馈延迟强,所以 OPE 难度高,通常要结合仿真器、回放和小流量实验。
22. 如果历史策略没有记录 propensity,怎么办?
理想回答:
会很难做严格的无偏 OPE。可以尝试重建 logging policy,估计当时各动作被选择的概率;也可以只在候选集和相似策略内做相对评估,避免外推太远。
工程上更好的做法是从现在开始记录候选动作、打分、约束过滤原因、最终选择动作和探索概率,为后续策略评估留日志。
23. 骑手排班里的需求预测怎么做?
理想回答:
按城市、区域、商圈、时间粒度预测订单需求,可以用历史订单、时段、星期、节假日、天气、活动、商家在线情况、用户流量作为特征。模型可以从 GBDT、时序模型、图时空模型逐步升级。
但排班不只看点预测,还要看不确定性。高峰预测偏低会严重影响履约,所以可以预测分位数或置信区间,用风险偏好决定冗余供给。
24. 排班预测错了怎么办?
理想回答:
要有在线补偿机制。需求高于预测时,可以临时加价、召回骑手、跨区调度、限制部分流量或延长承诺时效;需求低于预测时,要减少无效补贴,避免骑手空等。
系统设计上要做滚动预测和滚动优化,比如每 5 到 15 分钟刷新一次需求和供给状态,动态调整策略。
25. 你怎么评价骑手体验?
理想回答:
不能只看平台履约指标。骑手体验可以看收入稳定性、单位时间收入、空驶距离、等待时间、单量公平性、路线合理性、异常申诉、留存和活跃。
如果策略短期提升准时率但显著增加骑手等待或收入波动,长期可能伤害供给。因此目标函数里要有骑手侧指标,至少作为 guardrail。
26. 用户体验和骑手体验冲突怎么办?
理想回答:
先定义底线指标,比如用户超时率不能超过阈值,骑手单位时薪不能低于某个范围,补贴预算不能超。然后在可行域内优化主目标。
如果冲突长期存在,说明供需结构有问题,不能只靠调度算法解决,还需要排班、定价、商家出餐治理、用户承诺时效一起改。
27. 怎么处理多目标优化?
理想回答:
常见方法有三种。第一是加权和,把多个目标转成一个成本函数;第二是主目标 + 约束,比如最大化准时率但补贴成本不超过预算;第三是分层优化,先保证履约底线,再优化成本或体验。
面试里要说明权重不是随便设的,需要通过业务优先级、历史数据、敏感性分析和 A/B 实验调整。
28. 你会用强化学习做调度吗?
理想回答:
可以考虑,但不会一上来就用。调度有序列决策特征,当前分配会影响未来骑手位置和供给,所以 RL 有潜力。但真实系统动作空间大、约束强、探索风险高,直接在线 RL 不现实。
更稳妥的路线是先做 supervised scoring + 运筹优化,再用仿真环境或离线 RL 学未来价值函数,把 value 作为调度打分的一部分,小流量灰度验证。
29. Bandit 在骑手定价里怎么用?
理想回答:
可以把不同补贴档位作为 action,把接单、上线或履约提升作为 reward,在不同区域、时段、人群上做探索利用。Contextual bandit 可以利用上下文特征做个性化定价。
但要加预算、安全和公平约束,不能为了探索给骑手频繁变价造成体验问题。探索流量也要记录 propensity 方便后续因果评估。
30. 怎么设计物流调度仿真器?
理想回答:
仿真器需要复现订单到达、商家出餐、骑手移动、接单行为、配送路径、取消和超时。输入历史订单和骑手轨迹,给定一个策略,模拟执行后得到履约指标。
关键难点是行为模型和环境动态是否可信。仿真器不能完全替代线上实验,但可以用于策略初筛、极端场景压测和安全边界验证。
31. 线上部署这类算法要注意什么?
理想回答:
要有实时特征、低延迟服务、降级策略、监控告警和灰度发布。调度链路通常不能等复杂模型太久,所以需要候选生成、模型打分、优化求解都有耗时预算。
如果优化器超时,要能退化到简单规则或上一次稳定策略。还要监控输入分布漂移、模型输出异常、策略动作分布、履约指标和成本指标。
32. 如果 ILP 求解太慢怎么办?
理想回答:
可以从几个方向优化:缩小问题规模,先做候选裁剪;分区域或分时间窗口求解;用 LP relaxation、贪心、局部搜索、启发式替代精确解;设置求解时间上限,接受可行近似解。
工业系统里不一定追求数学最优,更多是稳定、低延迟、可解释、可控的高质量解。
33. 为什么“模型预估效果”和“决策精准度”是两个词?
理想回答:
模型预估效果是预测准不准,比如 ETA、接单概率、需求量。决策精准度是基于预测做出的动作是否真的提升业务目标,比如派谁、补多少、排多少人。
预测是决策的输入,但不是终点。一个 AUC 更高的模型,如果在关键决策区间校准差,可能让策略变差。所以要同时评估预测指标和决策指标。
34. 如何回答“你熟悉常用算法与数据结构吗”?
理想回答:
不要只说刷过题。可以说:我理解基础数据结构在工程决策系统里的作用,比如优先队列用于实时任务选择,哈希和倒排用于快速召回候选,图算法用于路径和网络流,二分图匹配用于分配问题,堆和滑动窗口用于在线统计。
然后补一句:如果笔试考常规算法,我会按复杂度、边界条件和可读性来写;如果业务面试,我会更关注这些结构怎么支撑低延迟决策。
35. PyTorch / TensorFlow 在这个岗位里会怎么问?
理想回答:
可能问模型训练、特征处理、loss、线上推理和工程部署。回答时不要停在“会用框架”,要说你能完成从样本构造、特征管道、模型训练、离线评估、导出推理、线上监控到回滚的闭环。
如果项目偏运筹,也可以说深度模型主要用于预估环节,优化求解和策略服务不一定都在深度学习框架里完成。
36. 如果问“你有什么大模型相关项目”,怎么贴这个岗位?
理想回答:
不要只讲微调模型参数。要往决策场景贴:大模型可以做异常归因、运营策略解释、自然语言配置策略、从文档和反馈中抽取结构化信号、生成仿真场景,或者辅助 Agent 调用预测和优化工具。
同时强调边界:强约束的调度、定价、补贴不能直接让大模型端到端决定,必须经过规则约束、优化器校验、实验验证和人工审计。
37. 如果问“你怎么看生成式 AI 在物流里的落地”,怎么答?
理想回答:
我会把它分成三个层次。第一是 Copilot,提高运营和算法同学分析效率;第二是 Agent 编排工具,自动调用预测、仿真、归因和监控模块;第三是生成候选策略或场景,但要由优化器和实验体系筛选。
短期最现实的是辅助分析和策略解释,中期是半自动策略编排,长期才可能在受控动作空间内做更自动化的决策。
38. 你怎么证明一个调度策略有效?
理想回答:
先做离线回放,看历史场景下策略是否改善超时、成本和骑手利用率。再做仿真压测,看高峰、恶劣天气、供给不足等极端场景。最后做小流量线上实验,用核心指标和 guardrail 判断。
还要做归因分析:是 ETA 更准、候选更好、匹配目标函数更合理,还是补贴策略更有效。否则只知道结果变好,不知道能否复用。
39. 如果线上指标下降,你怎么排查?
理想回答:
按链路拆:输入数据是否异常,实时特征是否延迟,模型分布是否漂移,候选生成是否漏召回,优化器是否超时,约束是否过严,实验分流是否正确,外部环境是否变化。
排查顺序先看监控和日志,再做分场景切片,比如城市、时段、天气、区域、商家类型、骑手类型。调度系统不要只看全局均值,局部长尾很重要。
40. 你有什么项目可以迁移到这个岗位?
理想回答:
如果你做过推荐 / 广告,可以强调“预估 + 排序 + 策略 + 实验”的迁移:CTR/CVR 预估对应接单 / 到达 / 履约概率预估,出价和预算控制对应骑手补贴和供给激励,多目标排序对应调度目标函数。
如果你做过运筹 / 数模,可以强调建模、约束、求解和敏感性分析。
如果你做过 NLP / LLM,可以强调信息抽取、异常归因、Agent 编排和策略解释。
如果你只做过课程项目,就要主动补一个物流调度 toy project,把订单、骑手、区域、时间窗、匹配、补贴和回放指标做出来。
面试官会抠的细节
“即时物流”和普通配送有什么区别?
即时物流更实时,订单到达不可提前完全确定,骑手状态变化快,用户等待敏感,调度决策影响后续状态。它不是一次性规划问题,而是连续滚动决策问题。
“骑手规划排班”和“骑手调度”有什么区别?
排班偏中长期供给规划,决定某个时间和区域需要多少骑手上线。调度偏实时决策,决定当前订单分给哪个骑手、按什么路径执行。排班解决供给够不够,调度解决供给怎么用。
“出价”和“定价”在物流里分别可能指什么?
定价可能指给骑手的激励、配送费、补贴或任务奖励;出价更像在多个供给或流量机会之间用价格机制做资源竞争。回答时要说清你理解的是哪一侧,不要混。
“个性化”体现在哪里?
不同骑手对补贴敏感度、区域偏好、接单习惯、工作时段不同;不同商圈的需求波动和履约难度不同;不同用户和订单的时效敏感度不同。个性化就是策略不再只按城市 / 时段粗粒度配置。
“实时化”难在哪里?
实时特征延迟、模型推理耗时、优化求解耗时、状态一致性、异常降级、频繁策略变化对体验的影响,都是难点。
“智能化”不要怎么答?
不要说“用大模型自动调度”。更好的说法是:智能化是预测、优化、因果评估、仿真和 Agent 编排的组合,并且必须有约束、安全和实验闭环。
开放 Case 题:如何提升某城市晚高峰准时率?
理想拆法:
- 先定义指标:准时率、平均延误、P90 延误、取消率、补贴成本、骑手收入。
- 切分问题:是需求突增、供给不足、商家出餐慢、调度不合理、ETA 不准,还是天气 / 交通异常。
- 对应策略:需求预测修正、提前排班、峰值补贴、跨区调度、商家等待惩罚、ETA 风险校准。
- 验证方式:历史回放 + 分区小流量实验 + guardrail。
一句话答案:
我不会先假设是模型问题,而会先做履约链路归因,确定晚高峰超时主要来自供给缺口、出餐等待还是路径调度;再分别用排班、定价、调度和 ETA 校准去解决。
开放 Case 题:如何降低补贴成本但不伤履约?
理想拆法:
- 找低效补贴:本来就会接单的人、补贴也不接的人、重复补贴区域。
- 建 uplift 模型:识别真正受补贴影响的边际骑手 / 订单 / 区域。
- 加预算约束:按 uplift / cost 排序投放。
- 保护履约:设置准时率、接单率、骑手收入 guardrail。
- 做实验:按区域时间片或骑手分层灰度。
一句话答案:
降本不是简单砍补贴,而是把补贴从低增量人群转移到高增量人群,用因果增量而不是相关性 ROI 指导投放。
开放 Case 题:如果某区域突然爆单,系统怎么决策?
理想回答:
先判断爆单是否真实,比如流量异常、活动、天气、商家集中出餐。然后估计未来 30 到 60 分钟供需缺口,动作包括临时加价、邻区骑手召回、延长承诺时效、限制低优先级流量、调整批量派单策略。
决策要有优先级:先保护已经承诺的订单,再处理新进入订单;先做低风险动作,再逐步提高补贴或调度强度。
简历项目怎么补
如果你要投这个方向,建议准备一个小项目:
项目题目
即时物流订单分配与骑手补贴仿真系统。
最小可行版本
- 模拟订单、骑手、商家、区域和时间窗。
- 预测每个骑手接某单的完成时间和超时概率。
- 用二分图匹配或 min-cost flow 做订单分配。
- 增加补贴档位,模拟补贴对接单概率的 uplift。
- 对比最近骑手规则、贪心规则、优化分配、uplift 补贴策略。
面试讲法
这个项目的重点不是复刻真实物流系统,而是把 JD 里的几个关键词串起来:ETA 预估、订单分配、补贴 uplift、预算约束和策略回放。通过这个项目,我能展示自己理解预测模型如何进入决策系统,也能解释为什么只看离线预测指标不够。
反问面试官
- 这个团队现在更关注排班、实时调度、定价补贴,还是时间预估?
- 当前策略优化更多依赖运筹求解、机器学习打分,还是仿真 / 强化学习?
- 因果推断主要用于补贴增量评估、策略实验分析,还是用户 / 骑手长期价值建模?
- AI Agent 在团队里是偏运营提效、异常归因,还是已经进入受控决策链路?
- 实习生进去后更可能做离线建模、策略实验、工程服务,还是数据分析和仿真?
最后总结
这个岗位的核心不是“会不会某个模型”,而是能不能把 预测、因果、运筹、实验、工程落地 合在一起讲清楚。
准备时优先补四件事:
- 会把排班、定价、调度抽象成优化问题。
- 会解释为什么补贴和策略评估需要因果推断。
- 会讲模型指标和业务指标之间的差异。
- 会说明大模型和 Agent 在强约束决策系统里的合理边界。
只要能围绕这些点回答,命中这类 JD 的概率会比泛泛准备“深度学习八股 + LeetCode”高很多。