快手大模型开发-日常实习LLM二面分享
快手大模型岗面经
继续来分享下之前的面经~欢迎友好讨论,信息共享
- SFT 之后常见的 Post-Training还有哪些?它们各自的设计目的是什么
- 什么是RAG它提升生成质量的核心原理是什么
- RAG与传统的检索 + 模型生成流程有何不同
- 如何构建评估体系来验证一个RAG系统是否真正Work?
- PPO和DPO在对齐阶段的主要区别是什么?
- 在进行DPO训练时,通常有哪些关键的注意事项?是否了解过GRPO
- 在Modular Agent中,多步规划是如何实现的?
- 针对多个工具的调用链路,你的调度策略是如何设计的
- Agent 评估体系包含哪些核心维度?如何量化衡量Planning能力与Hallucination Rate )?
- 在微调Qwen模型时,你是如何确定训练阶段和 Loss Function的?
- Prompt自动推荐模块应用了哪些优化策略?是否尝试过Prompt压缩或Embedding表示的方式?
- 假如Agent推理链路包含3个工具且请求频率极高,导致系统整体延迟较高,你会从哪些维度进行优化?
- 在记忆系统中,意图识别 承担什么职责?