简介:许多朋友询问有关人工智能成本意味着什么的问题。本文的首席CTO注释将为您提供一个详细的答案,以供所有人参考。我希望这对每个人都会有所帮助!让我们一起看看!
随着聪明的时代逐渐到来,一些基本概念并不知道它们确实过时了。作为一个积极学习的年轻人,我想总结一下便条。该注释将记录AI领域中许多AI领域的术语和概念。由于能力有限,我希望每个人都能启发我。如果您不需要遵循-up,我会慢慢改进它~~。目录在第一个字母的字典中进行了暂定分类。它可以用作目录,将来可以检查一下~~建议收集和喜欢哈哈哈
iSdividing Line ----------------------------------------------------------------------------------------------------------------------------------
A
准确性(帐户)
分类模型预测是准确的。
在第二个分类问题中,精度率定义为:准确性=(true Arientives +True负面)/所有样本
在多分类问题中,精度定义为:account = recriptpredicts/ash hast hast
活动功能
一个函数,将神经元第一层的第一层中所有神经元激活值的加权和输入输入到非线性函数中,然后将下一层神经元的输入(例如relu或乙状结肠
Adagrad
复杂的梯度滴算法,重新调整每个参数的梯度,并有效地为每个参数提供一个单独的学习率。
AUC(曲线区域下方)
所有可能的分类阈值的标准。ROC曲线下的区域表示类别随机预测该类别的真实类(误报)概率。
对抗示例(对抗样本)
对抗网络(对抗网络)
人工通用情报/AGI(通用人工智能)
注意机制(注意机制)
自动编码器(自我编码器)
自动摘要(自动摘要)
平均梯度(平均梯度)
平均水平(平均合并)
b
反向比例(反向传播/bp)
首先,在向前扩散的过程中计算每个节点的输出值的重要算法要减少。
基线(基线)
它用作比较模型的简单模型。
批次(批次)
模型培训中使用的样本集(指一个梯度更新)。
批量大小
批处理中的样品数量。例如,SGD的批次大小为1,而迷你批次的批次大小通常在10-1000之间。
偏见(偏见)
与原点的拦截或偏移。
二进制分类
一个类别任务,输出两个相互排斥类别之一,例如垃圾邮件检测。
单词袋/弓
基础学习者(基础学习者)
基础学习算法
贝叶斯网络
Bechmark
信念网络(信仰网络)
二项分布
Boltzmann机器(Boltzmann机器)
自助抽样方法 /可重复采样 /有背景抽样
广播
C
类别(类)
所有类似属性的目标值是标签。
分类(分类)
机器学习模型之一将数据分为两个或多个离散类别。
收敛
在训练过程达到的一定状态下,在每次迭代后的每次迭代中都确定了训练损失和验证损失。
CONCEX功能(概念)
在字母U形状或碗形状中大致出现的功能。但是,在退化的情况下,凸功能的形状就像一条线一样。
费用(成本)
损失同义词。深度学习模型通常定义自己的损失功能。
跨熵
促进对数损失函数在多种类别的分类中促进。交叉熵定量的两个概率分布之间的差异。
条件熵
有条件的随机字段/CRF
信心
共轭方向
共轭分布
共轭梯度
卷积神经网络/CNN
余弦相似
成本功能
曲线拟合
d
数据集(数据集)
样品采集
深层模型
一个包含多个隐藏层的神经网络。深度模型取决于可以训练的训练。用宽度模型(WideModel)对比。
辍学正规化
训练神经网络时的一种有用的正则化方法。Dropout的正则化过程是在单个梯度计算中删除在网络层中随机选择的固定单元。删除越多,正则化越强。
数据挖掘
决策树/判断树(决策树)
深神经网络/DNN
Dirichlet分布
区分模型
下取样(下取样)
动态编程
e
提早停止(提早停止)
一种常规的方法,请在训练损失完成之前停止模型训练过程。当验证设置的丢失开始上升时,当概括性能变得更糟时,应使用早期停止方法。
嵌入
一个是连续性特征的明确特征,通常是指将高维矢量转换为低维空间。
经验风险最小化(经验边缘)
选择最小化训练数据损耗函数的过程。与结构风速最小化相反。
合奏
全面考虑多个模型预测。您可以通过以下或几种方法创建一种集成方法:
设置不同的初始化;
设置不同的超级重塑量;
设置不同的整体结构。
深度和广度模型是一种集成。
样本(示例)
一系列数据集。一个示例包含一个或多个功能,或者可能是标签。请参见标签exkample和未平行的示例。
F
假阴性(FN)
模型错误的预测是一个负示例。例如,该模型推断电子邮件为非SPAM(负类),但实际上此邮件是垃圾邮件。
假阳性(FP)
模型错误的预测是一个正类别的示例。例如,该模型确定电子邮件为垃圾邮件(正),但实际上,此邮件是非SPAM。
误报率(FP率)
ROC曲线中的X轴。FP速率的定义是:误报率=假阳性数字/(假阳性数字+真实负数)
功能工程
训练模型时,挖掘模型效果的特征。
FedForward神经网络/FNN
G
概括(概括)
是指模型对新见过的数据进行正确预测性预测的能力,而不是用于培训的数据。
一般线性线性模型
最小佛法回归模型的促进/概括基于高斯噪声,并与其他类型的模型(基于其他类型的噪声,例如Poosheng噪声或类别噪声)进行了比较。
逻辑返回
多类别回归
最低王特朗普返回
梯度(梯度)
在机器学习中,梯度是模型函数的部分指南向量。梯度指向较陡的上升路线。
梯度剪裁
在梯度之前,修改值,梯度截断可以帮助确保值的稳定性并防止梯度爆炸。
梯度下降
为了最大程度地减少相关参数的梯度损耗函数和模型的损耗函数,该值取决于训练数据。调整梯度下降的参数,并逐渐接近权重和偏见的最佳组合,以最大程度地减少损失函数。
图(图)
图表示操作中的节点中的节点。节点的连接是指向操作的,表明操作的结果(一个张力)(一个张力)(一个操作号)给出了另一个操作。使用张紧板可视化tensorboard计算图。
高斯内核功能
高斯混合物模型
高斯过程
概括错误(概括错误)
生成模型
遗传算法/GA
吉布斯采样
Gini指数(Gini指数)
梯度下降
H
灵感(启发式)
问题的实际和非最佳解决方案可以从学习经验中取得足够的进步。
隐藏层
神经网络位于输入层(即特征)和输出层(即预测)之间的合成层中。一个神经网络包含一个或多个隐藏层。
超参数
在连续训练模型中可以扭曲的“旋钮”。例如,与模型的自动更新相比,学习率是带有参数的superstructure.compare。
硬利润
隐藏的马尔可夫模型/嗯
分层聚类
假设检验
我
独立且完全分布(I.I.D)
从不变的分布中获得的数据,并且获得的每个值并不取决于先前获得的值。是机器学习的理想情况 - 一种有用但数学结构,在现实世界中很有用。
推理
在机器学习中,通常是指将训练模型应用于无与伦比的BET的预测的过程。在统计数据中,可以推断出根据观察到的数据拟合分布参数的过程。
输入层(输入层)
神经网络的第一层(接收输入数据)。
国际协定
它用于衡量任务中人类分数的意见的指标。如果意见不一致,则可能需要改进任务描述。有时它也称为通道间协议或间误要求。
增量铅(增量铅)
独立组件分析/ICA)
独立的子空间分析
信息熵(信息熵)
信息增益
j
JS分散(Jensen-Shannondivergence/JSD)
k
内核支持向量机(kernelsupport矢量机/ksvm)
分类算法旨在通过最大化输入数据映射到更高维度的空间来最大化正面和负类别之间的边缘。例如,数据集的分类包含一百个功能。ksvm正和负类别的类别将特征从内部映射到一百万个维空间。KSVM使用的损耗函数称为铰链损失。
内核法
内核技巧
k折交叉验证(k折交叉验证)
k -meansclustering
K-Neirest邻居Gorithm/knn)
知识图
知识库
知识表示
l
L1损失功能(L1损失)
损耗函数是根据模型预测值的绝对值和模型真实值的差异来定义的。L1损耗函数对异常值的敏感性不如L2损耗函数。
L1正则化
正规化,根据权重的绝对值之和的总和。在依赖稀疏特征的模型中,L1正则化有助于促进(几乎)无关的特征接近0,从而从模型中删除了这些功能。
L2损失(L2损失)
看到正方形的损失。
L2正则化
正规化,根据权重总和的惩罚。L2正则化有助于促进异常值的重量接近0,而无需更接近0。。
标签(标签)
在监督学习中,示例的“答案”或“结果”。带有数据集标记的示例包含一个或多个功能和一个标签。在垃圾邮件的数据浓度中,特征可能包括主题,哪个电子邮件本身,标签可以是“垃圾邮件”或“非垃圾邮件”。
标记为示例
在监督培训中,从标记样本中学到了模型。
学习率
当梯度降低训练模型时使用的标量。在每次迭代中,梯度滴算法使学习率乘以梯度,并且产品称为梯度步骤。学习率是重要的上层结构。
最小二乘回归
通过L2损失训练的线性回归模型被最小化。
线性回归(线性回归)
输入功能的线性连接输出连续性的回归模型。
逻辑回归(逻辑)
将Sigmoid函数应用于线性预测,并为分类问题中的每个离散标签值生成模型。尽管逻辑回归通常用于二进制分类问题,但它也用于多类别分类问题(在这种情况下,在这种情况下,逻辑返回称为“多类逻辑返回”或“多项式回归”。
计算损失函数(对数丢失)
二进制逻辑回归模型中使用的丢失功能。
丢失(损失)
测量模型预测和标签距离的指标,它是模型有多糟糕的指标。要确定损耗值,该模型必须定义损失函数。例如,线性回归模型通常用作损失函数,逻辑回归模型使用许多损失函数。
潜在的dirichlet分配/LDA
潜在的语义分析(潜在语义分析)
线性判别分析/LDA
长期术语内存/LSTM)
m
机器学习
使用输入数据构建(培训)预测模型项目或系统。系统使用学习模型来预测与培训数据相同的新数据。机器学习还指与这些项目或系统有关的研究领域。
均方根错误/MSE
每个样品的平均正方形损失。可以通过平方损失来计算样品数量。
小批次(迷你批次)
一小部分随机选择在迭代中运行的整个样品的一小部分选择。小块的大小通常在10到1000之间。小批次数据的估计损失比计算所有训练数据的损失要高得多。
机器翻译/MT
马尔可夫链蒙特卡洛/MCMC
马尔可夫随机字段
多文件摘要(多文件摘要)
多层次感知器/MLP
多层进发神经网络
n
南陷阱
在训练过程中,如果模型中的一个数字变为NAN,则模型中的许多或所有其他数字最终成为NAN.NAN是“ Not Anumber”的缩写。
神经网络(神经网络)
该模型从大脑中获得灵感,由多层组成(至少一个是隐藏层),每个层都包含一个简单的连接单元或神经元,然后是非线性的。
神经元(神经元)
神经网络中的节点通常输入多个值以生成输出值。神经元通过将激活函数(非线性转换)应用于加权和加权输入值来计算输出值。
正常化
该值的实际间隔将转换为标准范围,标准间隔通常为-1至+1或0至1。将这些值标准化为间隔-1至 +1.查看葱。
numpy
Python提供了一个具有高效率数组操作的开源数学库。PANDAS基于Numpy。
天真的贝叶斯(公园贝叶斯)
天真的贝叶斯分类器
命名实体识别(命名实体识别)
自然语言生成/NLG(自然语言生成)
自然的Laanguage处理(自然语言处理)
规范
o
客观的
算法尝试优化目标函数。
单速编码(一式编码)
一个稀疏的向量,其中:一个元素设置为1,所有其他元素都设置为0。
一对(一vs.-all)
给定N可能的解决方案的分类问题。一对多溶液包括n个独立的二进制分类器 - 每个可能的结果具有二进制分类器。:
动物和非动物
蔬菜和不可蔬菜
矿物质和非电工
过度拟合
创建的模型与培训数据非常匹配,因此该模型无法预测新数据的正确预测
过采样(超采样)
p
熊猫
基于列的数据分析API.MANY机器学习框架,包括TensorFlow,支持PANDAS数据结构作为输入。请参阅PANDAS文档。
范围
例如,通过机器学习系统训练的变量。
性能(性能)
软件工程中的传统含义:软件运行的速度 /高效?
机器学习中的含义:模型的准确性是什么?也就是说,模型的预测有多好?
困惑
衡量完成模型任务的程度。例如,假设您的任务是阅读用户在智能手机上输入单词的前几个字母,并提供可能的完整单词的列表。此任务的混乱(p)是列出您需要列出的数量,其中包含用户实际想要输入单词的单词列表。
过程(管道)
机器学习算法的基础架构包括收集数据,将数据放入培训数据文件,培训一个或多个模型以及最终输出模型。
主成分分析/PCA(主要组件分析)
精度(检查率 /准确性)
先验知识(优先知识)
问
准牛顿法
r
召回率(召回)
返回模型
输出持续时间的模型(通常是浮点数 - 点号)。分类模型输出离散值。
正则化
对模型复杂性的惩罚有助于防止过度拟合。正则化包括不同的类型:
L1正则化
L2正则化
辍学正规化
早期停止(这不是正式的正规化方法,但可以有效限制)
正则率
标量顺序由lambda表示,是指常规函数的相对重要性。从以下简化损失公式,可以看到正则化率的作用:
最小化(损耗函数 +λ(正则化函数))
提高正则率可以降低过度拟合,但可能会降低模型的准确性。
重新定位
将数据映射到有用功能的过程。
主题工作特征曲线
它反映在不同分类阈值上实际速率和假阳性比率的曲线中。请参阅AUC。
复发性神经网络
递归神经网络(递归神经网络)
强化学习/RL(增强学习)
重新采样
压抑铅
随机森林算法(随机森林算法)
s
缩放(缩放)
功能工程中通常使用的操作用于控制特征值间隔,以使其与数据集的间隔匹配。1.赋予功能间隔为0到500,然后您可以通过除以500的每个值来放大特征间隔。请参阅正则化。
Scikit-Learn
流行的开源机器学习平台。URL:。
序列模型(序列模型)
输入具有序列依赖性的模型。例如,基于以前观看的视频序列预测下一个视频。
Sigmoid功能(Sigmoid函数)
SoftMax
提供多个类别分类模型中每个可能类的概率的函数。总概率为1.0。例如,SoftMax可以检测到图像为0.9,CAT的概率为0.08,马的概率为0.02。(也称为Full SoftMax)。
结构风险(结构风险最小化/SRM)
该算法平衡了两个目标:
建立最预测的模型(例如最小损失)。
使模型尽可能简单(例如强和正则化)。
例如,训练集中的最小损失 +正则化模型功能是最小结构风险算法。有关更多信息,请参见。阅读以最大程度地限制经验风险。
监督机器学习
使用输入数据及其相应的标签来训练模型。模拟学生从研究和相应的答案中学习。掌握问题和答案之间的映射后,学生可以为同一主题的新问题提供答案。您可以阅读非监督机器学习。
相似度度量(相似性)
奇异值分解
软边缘(软间隔)
软边缘最大化
支持向量机/SVM(支持向量机)
t
张量
TensorFlow项目的主要数据结构。张量的量为n维数据结构(n的值很大),通常是标量,向量或矩阵。卷可以包括整数,浮动 - 点或字符串值。
转移学习(迁移学习)
你
未标记的Exmple
包含功能但没有标签的样本。没有标签样品是输入的。在半佩斯学习和无监督学习的训练过程中,通常使用标签样品。
无监督的机器学习
训练模型以在数据集中找到模式(通常没有标签数据集)。不接受的机器学习最常用于将数据分为几个类似的样本。其他无监督的机器学习的例子是主要组件分析
w
单词嵌入(单词嵌入)
单词感觉歧义
这意味着费用,成本,成本;损失和诉讼成本,也可以用作人类名称。动词时的含义是...;花费;挣钱;赚很多钱(非正式);给...估值。这个词的英国发音语音象征是[k?st];美国发音语音符号为[k??st]。
动词时的用法是,在这里居住时必须花费很大的交易。我们希望一个必须能够计数的人。
扩展信息:
成本和支出之间的差异:
1.不同的主题。
支出的主题必须是一个人。通用语言的结构是...花时间(金钱),例如我在这个数学问题上花了两个人。这个数学问题花了我两个小时。成本的主题是对象或某种活动,例如新计算机花费很多钱。购买新计算机花了很多钱。
2.表达的含义是不同的。
一个人花费多少钱,花费多少钱;费用表示费用或时间或时间。
成本的固定短语:
1.任何成本的生活成本。
2.费用为...
3.以成本或原始价格以成本为代价。
4.生活成本。
参考信息来源:百度百科全书 - 成本
成本损失,造成损失并造成成本数量。
专注于词汇解释:
成本
n。成本,成本,成本;损失;诉讼费用
v。成本是...;花费;挣钱;赚很多钱(非正式);给...估值
双语示例:
生活成本增加了戏剧性。
生活成本大大增加。
费用用法:
成本的基本含义是支付结果,行为或结果的成本。它可以灵活地翻译成成本效益或丢失。扩展还可以表明估计的成本计算成本。成本侧重于成本,而不仅仅是声明。
成本主要用于和病毒。当支出支出成本时,就不会用于通过被动结构。主题通常是事物或事物。当接收名词或代词时,对象是金钱,时间和能量。当收到双边对象时,直接对象是金钱,时间,能量等,并且间接对象总是人。当估计计算成本时,主题必须是一个人,并且可以用于被动结构。
Costcost的过去和过去单词有两种形式。当成本损失时,使用成本。当估计的手段时,它会成本。
当成本是一个名词时,这意味着成本,成本,价格,成本。扩展可以指损失,牺牲,包括时间或能耗。
当成本意味着成本时,可以以单个数字或复数形式的形式使用它。当成本是成本时,通常使用单个数字表格。
成本支出。网络基础的成本意味着成本,即,公路高架度量/成本)度量是将路由协议网络与同一路由协议区分开的最佳方法。
成本
[k?st]
n。
价格,成本,成本
最后,我在Mod上购买了一部小说的电影权利。
最后,我以适度的价格购买了将小说改编成电影的版权。
成本,损失
我们必须在午夜之前完成所有工作。
无论价格支付多少,我们都必须在午夜之前完成这项工作。
vi。
价钱是;花费
沙发真的很重要。
沙发确实很有价值。
VT。
付费(费用),损失
多么珍贵的课程!
本课程的价格真的很棒!
估值
这个项目成本了吗?
这个项目估值吗?
人工智能将节省我们的成本
人工智能将节省我们的成本
结论:以上是有关首席执行官注释引入的人工智能成本含义的所有内容。我希望这对每个人都会有所帮助。如果您想了解有关此信息的更多信息,请记住收集并关注此网站。