【京东】大模型开发-攒攒人品,一面分享
京东大模型岗面经
- LoRA 微调原理:微调哪些层?常用训练参数设置:epoch、learning_rate 等。
- RAG 切片实现方法:如何设计和优化切片过程?
- 微调中的常见问题与解决方案:面试官特别关注实际踩过的坑和解决思路。
- Embedding 召回优化策略:如何提高召回效果和模型效率?
- 复读问题分析:原生模型复读不严重,微调后却复读明显,原因何在?感觉最近的模型不咋重复啊。
- 领域知识注入:LoRA 微调能否有效注入领域知识?效果如何?
- 大模型幻觉(Hallucination)解决方案:如何缓解模型幻觉问题,稳定输出?
- 优化器考点:Loss 除以 10 和学习率除以 10 有什么区别?
- Self-Attention 的线性变换 (QKV):为什么要做 QKV 线性变换?起初真懵了,为什么,你说为什么?
- 机器学习懂么?
- Self-Attention 中的 Softmax:为什么需要 Softmax?
算法题 题目: 给定两个字符串,比如 s1=acdk, s2=ckad,每次可以将 s1 中任意一个字母移到末尾,问最少移动次数使得 s1=s2。如果无法匹配,返回 -1。