当前位置: 首页 > 科技观察

微软人工智能面试题有多难?试卷在此

时间:2023-03-18 01:32:47 科技观察

大数据文摘编译:张南星、卫青、钱天培,微软这样的巨头能招到什么样的AI人才?是不是一定要在编码上高人一等,写个写意的AlphaGo呢?还是必须眼光毒辣,才能当场设想AI未来20年的发展前景?当然不是!今天,文摘君挑了几道微软AI面试题,同时给出了最基础的答案。(注意,这是最基本的答案,欢迎在文末留言给出你更好的答案。)神秘莫测的微软AI面试题其实非常平易近人。一起来答题!合并k个数字(例如,k=2)并对它们进行排序。代码如上。最简单的方法当然是冒泡排序法。虽然不是最有效的,但很容易描述和实施。L1/L2正则化指标有什么区别?L1范数损失函数也称为最小乘法(LAD)和最小绝对误差(LAE)。它主要在于最小化目标值(y_i)和预测值(f(x_i))之间的绝对差之和。公式1L2范数损失函数也称为最小二乘误差(LSE)。它主要在于最小化目标值(Yi)和预测值[f(xi)]之间的平方差之和。等式2对于较大的错误,L2给出比L1更大的惩罚。另外,加入L2正则化后,模型系数会收敛到0,但不会完全为0,而L1损失函数可以让部分系数完全为0。如何找到百分位数?以上面的问题为例:在过去的12小时内,共有1000人光顾了这个商场。请估计,到什么时候,购物中心将达到总客流量的30%?我们可以使用多项式回归或样条平滑等技术来制作下图。即30%的客流对应3000人,从Y值为3000的点画一条横线,与曲线相交时,画一条竖线,在横轴上找到对应的时间值。如何区分好的可视化和坏的可视化?对于这个问题,我们会有很多不同的答案。例如,不能很好地处理离群值的可视化不是好的可视化。例如,我们有一个包含一系列小数字的大数据([1,2,3,4,7777,5,6,9,2,3])的数组,当我们可视化这个数组时,将产生下图:右图→原图;中间图像→归一化值;左图→归一化值。我们如何才能更好地可视化这组数据?归一化后,得到的折线图仍然不能很好地代表这组数组。怎么做?欢迎留言发表您的看法。如何更快地计算逆矩阵?例如,可以考虑Gauss-Jordan方法。如果是2x2的矩阵就很简单了。逆矩阵为:ad-bc≠0只需要交换a和b,取b和c的负值,然后除以方阵ad-bc。定义方差方差是每个数据点与整个数据集的平均值之差的平方和。换句话说,它是数据的可变性。下图很好地解释了方差是什么。首先我们计算每只狗与平均身高的差值;为了计算方差,对每个差异进行平方、求和和平均。最后提供本文出现的所有代码:https://colab.research.google.com/drive/1DYimC5CEKeXdT15tbptifYL2v5MPkyHj相关报道:https://towardsdatascience.com/my-take-on-microsoft-ai-interview-questions-with-interactive-code-part-1-c271388af633【本文为专栏组织大数据文摘原创翻译,微信公众号“大数据文摘(id:BigDataDigest)”】点此查看更多好文由这位作者