【腾讯】-大模型开发-26校招,攒人品面经

腾讯大模型岗面经

攒攒人品!有面试过同岗的朋友欢迎交流

  1. 实习拷打
  2. 在微调大模型时,你使用过哪些框架?它们的优缺点分别是什么?
  3. CLIP 模型的 zero-shot 能力是如何实现的?它在多模态任务中的应用有哪些优势?
  4. Transformer 中 Pre-Norm 和 Post-Norm 的设计差异是什么?对模型训练稳定性和性能有何影响?
  5. 在生成式大模型中,为何通常采用 Decoder-only 架构而非 Encoder-Decoder 结构?
  6. 请描述大模型中自然语言理解模块的具体实现方案,包括语义解析和意图识别的关键技术。
  7. 针对 Transformer 模型推理过程,你会采用哪些优化手段?
  8. 请阐述RAG的核心原理,并说明如何通过 RAG 缓解大模型的幻觉问题。
  9. vLLM 框架的核心优化原理是什么?其在动态批处理和显存管理上有哪些创新设计?
  10. 请对比 RLHF、PPO、DPO 算法的技术差异、优缺点及适用场景。