当前位置: 首页 > 科技观察

谈谈机器学习的昨天、今天和明天

时间:2023-03-18 20:26:57 科技观察

机器学习今天,机器学习引以为豪的是其算法之一——深度学习的卓越性能,因为一提到机器学习,大家首先会想到深度学习,甚至有人认为机器学习就是深度学习。深度学习只是机器学习的一种算法。今天的深度学习用卷积神经网络和循环神经网络以及基于它们的网络在空间和时间任务上取得了优异的成绩,但机器学习任务不仅仅局限于这两个任务,还包括价格估计、金融量化、股票价格预测等.除了深度学习,还有很多机器学习方法,比如SVM、XGboost等简单易用的算法。进化算法搜索神经网络。深度学习的兴起有着海量的数据。神经网络的可扩展性越好,神经网络的可扩展性越好。调整神经网络的大小和深度,学习更多有用的信息,其他学习模型的计算能力就会有天花板。GPU的出现可以为大量并行矩阵运算提供可能。神经网络的大部分计算都是在GPU上运行的,尤其是在训练阶段,因为YoshuaBengio、GeffreyHiton、YannLeCun的不断努力和坚持,今天的深度学习是计算机深度学习应用领域想象。YannLeCun提出了covNet,然后AlexNet将精度提高了一大块。到2016年,神经网络在imageNet数据集中的错误率已经降低到3%,已经低于人类分类任务5%的错误率。现在神经网络在计算视觉方面已经进入了成熟阶段。现在有多少神经网络还在通过GAN使用ResNet和VGG作为基础网络?没有图片的生成,只有图片可以生成,机器才能真正理解图片的含义。在personnotexist网站上,该网站生成的人物图片可真可假。现在提出了胶囊网络和自适应神经网络。早期出现的自然语言模型可以用来处理时序问题。可以使用早期出现的自然语言模型。它用于处理时序问题。LSTM和GRU都加入了门控机制来解决循环神经网络中的梯度弥散问题。通过控制存储单元写入和读取,使循环神经网络更加合理和容易。利用self-attention实现循环神经网络可以从串行读取到并行,self-attention通过注意力的分配来控制当前的输出。对于序列中的那些值,它会更关注Transform和BERT。刷新当年GPT的所有自然语言列表-2、因为它的性能OpenAI认为它的性能太优越了,所以没有把它开源最近谷歌推出了XLNet,再次震惊了自然语言处理领域图卷积(GNN)深度学习在欧几里德空间解决了很多数据,但并非现实世界中的所有数字都存在于欧氏空间中,而是实体之间存在一定的关系。我们的人类信息存在于结构中。我们希望通过分析实体之间的关系来挖掘结构信息。现在它被用于推荐系统和社交网络。图卷积可以用在交通网络或物流中,可以为下游任务提供更多信息的数据。强化学习(RL)引起了公众对人工智能的关注。当AlphaGo完成人类世界冠军的时候,连我自己都开始为自己的前途担忧,也将大众的目光引向了人工智能。当我看到AlphaGo拿下人类世界冠军的时候,我什至开始为自己的前途担忧。帮助决策