站点图标 AI技术聚合

【面经:货拉拉算法工程师 1面】

【面经:货拉拉算法工程师 1面】

1 自我介绍

2 面试官问答

1.介绍一下常用的激活函数

参考【常用激活函数】

2. ReLU相对Sigmoid有什么优势

参考【常用激活函数】

3. 介绍一下Transformer的结构


参照【Attention机制讲解】

4. 介绍一下KL散度

KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。
它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。
机器学习领域的物理意义是衡量两个函数的相似度或相似度。

取值范围:,当两个分布接近相同的时候KL散度取值为0,当两个分布差异越来越大的时候KL散度值就会越来越大。当 p(x) 和 q(x) 的相似度越高,KL散度越小。

5. 有没有机器学习的相关项目经验

由于我是做知识图谱方向的,项目也是,可能不符合工作要求,所以有人问我有什么机器学习方向的项目,我回答说只是一个项目之前复制了太多标签分类,只需输入标签,即可实现正确分类。然后他没有再问任何问题。其实那个时候他做了很多事情,只是他看了半天就忘了💔所以大家还是需要回顾一下比较有用的项目。

3 笔试

Leetcode 3. 无重复字符的最长子串

文章出处登录后可见!

已经登录?立即刷新
退出移动版