简介:本文的首席执行官注释将介绍人工智能错误错误的相关内容。我希望这对每个人都会有所帮助。让我们来看看。
应该被一些非法关键字阻止。这种类别被一根棍子扫描,意外伤害的机会仍然很高。示例:他们(将被封锁此关键字),他们说要吃饭。所以它变成了一顿饭。这是例行公事。
那只是一个娱乐软件,欺骗。我下载了13个错误。什么是男人?什么是女人?
这个标题源于无人驾驶和人工驾驶交通事故率的比较。我们对两者的态度不同。我们可以容忍人类的错误,但是我们不能让机器人犯错。这是正确的吗?
人类是不完美的。同样,人工智能也不是完美的。我们必须接受人工智能是错误的事实。
首先,人类的各种问题。作为自然进化的产物,人类是不完美的,并且表现为疾病。他们具有身体,精神上的精神和混合。疾病是大自然在设计人类时产生人类的缺陷。以相同的方式,机器人是由人类设计的,也将有各种“疾病”。根据我目前的观察,人类设计的水平远低于自然。因此,自然界设计的人类将存在各种问题,例如疾病。那么,为什么人类要求机器人自己设计?
您的答案可能是机器人的结构很简单,因此可以误解。
这是真的吗?软件开发是第一个实现功能,然后通过连续迭代逐渐改善。大自然还设计了像这样的人类。如何确保这些模块是完美匹配的?不会存在矛盾,否则该功能是重叠的?您使用哪种方法来验证每个模块是否完全匹配而不是冲突?因此,在这三个模块之间,在四个模块之间和更多的模块之间?您可以说我已经在上网前验证了,没有问题。因此,您是否真的涵盖了所有可能性?测试情况是否完全覆盖了所有可能性现实吗?人胃可以消化所有食物,有时它可能会消化并引起胃溃疡。如何确保一组人工智能模块不会吞噬自己?
机器人的软件也基于硬件运行。硬件和真实环境将暴露于各种材料交换。如果有一种材料进入机器人的身体,则电路会发生变化,并发生异常行为。可以完全避免吗?
人类是不完美的。人类能力有限。最好让他们通过学习如何学习和允许他们犯错而发展。机器人如果您不犯错误?这个想法太自大了吗?
因为人类是不完美的,无法超越自然,所以有必要设计完美的人工智能。因此,最好接受这种现实,人工智能将不可避免地犯错,就像人类会生病一样,无需大惊小怪。
如果机器人生病该怎么办?只要他们给他们一定的“免疫力”并具有修复自己的能力,他们就可以纠正错误。我认为这可能是一个好的开始。
错误只是一个定义。一个孩子打破玻璃似乎是错误的,但是如果玻璃被打破以拯救人们,也许这个答案成为另一个含义。
因此,人工智能的进步与人类的发展相同,错误的定义不能成为人工智能进步的唯一标准。通过学习来克服错误,人工智能也可以通过自动学习克服错误。
人工智能的发展已经到来。您可以判断什么是正确的,有什么问题。
1.人工智能将取代我的工作
可以说,对人工智能的最常见和危险的误解是它将消除人类的工作。此外,大多数科学估计表明,人工智能驱动的自动化的就业机会可能超过其替代。而不是消除这些工作的需求。
2.人工智能的工作原理与人脑完全相同
这是人工智能中的一个常见错误,这是一个被广泛接受的事实。实际上,人工智能是一个非常简单的领域,具有非常基本的应用程序。官方智能无法理解或感知环境,他们也不能像这样“学习”环境人类。简而言之,我们必须有很长的路要走来完成人类最基本的事情,例如阅读或穿西装。
3.人工智能算法是中立和客观的过程
人工智能不是中立或客观的。人工智能的质量取决于创造它的人或公司。即使在商业案例中,AI的质量和可靠性也大不相同。尽管有许多不同的人工智能机器人,行业专家(行业专家(例如顶级外汇经纪人)仔细审查了他们作为交易工具的信誉。这一事实表明,并非所有人工智能都是中性或值得信赖的。有时人工智能很容易出售给那些对技术本身过多信心的人。
计算机和人工智能当然可能会犯错误,一旦犯错,它通常会导致巨大的危险。
如果一辆自动驾驶汽车认识到脸上的白卡车是白云,那么后果是无法想象的。避免这种悲剧,人工智能领域的研究人员必须对日常生活中最常见的事故有深刻的了解,使机器可以变得更聪明。这正是Google所做的 - 同时研究人脑和神经网络。不会承认。
自20年前以来,深蓝色击败了国际象棋的加里·卡斯帕罗夫几年。机器最终将比人类更聪明,但我们似乎并不真正理解这一时代的事件的影响。实际上,我们对人工智能的一些严重甚至危险的误解感到痴迷。
很难知道该相信什么。但是,借助计算科学家,神经科学和人工智能理论家,我们可以逐渐理解人工智能的更清晰的图片。以下是对人工智能的最常见误解和虚拟性。
首先,人工智能由于其高智力而不会犯任何错误。
理查德·洛斯莫尔(Richard Loosemore)在冲浪武士机器人人工智能研究人员和开发人员中认为,大多数假设的人工智能会破坏世界与逻辑非常不一致。大多数类似的假设总是认为人工智能会说:“我知道破坏人类文明是由人类文明造成的,是由设计失败,设计失败,设计失败引起的,但是我仍然想做。”Loosemore指出了这个想法是否如此矛盾,它将面临他一生中无数矛盾的逻辑推理,这将干扰其认知并变得非常愚蠢,与此同时,这还不足以对我们造成伤害。那些认为“人工智能只能完成程序设置的任务”的人就像那些说计算机在计算机刚刚发明时无法做出响应的人一样。
2.我们永远不会创造类似于人类智慧的人工智能
我们已经创建了可以与人类智慧相匹配的计算机,甚至比人类在某些游戏领域(例如国际象棋和股票市场交易和对话)中比人类更多。因此,赶上其他人类活动的计算机将只是时间问题。
当怀疑者说这是一个无法解决的技术问题时,或者有一些内在的独特性,它不是令人信服的。我们的大脑是生物机器,但最终分析仍然是机器。它们存在于现实世界中,并按照物理学的基本定律运行。未知。
3.人工智能将具有意识意识
机器智能的一个普遍假设是它是有意识和有意识的,也就是说,它会像人类一样思考。我们可以想象一个非常聪明的机器,缺少一个或多个属性。最终,我们可以建立一个非常聪明的机器,但是没有自我意识,无法主观或有意识地体验世界的人工智能。
这仅仅是因为一台通过图灵测试的机器来确认计算机和人类在智能上没有差异,这并不意味着它是有意识的。对于我们来说,先进的人工智能可能会导致幻觉,即机器似乎是有意识的,但是,就自我意识而言,它比岩石或计算器的自我意识更不可能。
第四,我们不应该害怕人工智能。
高度智能的系统可能能够理解特定任务所需的所有知识,例如解决头痛财务问题或入侵敌人系统。。
第五,一个简单的维修计划将解决人工智能的控制。
假设我们创造的人工智能比人类强,我们将面临严重的“控制问题”。未来主义者和人工智能理论家不知道如何限制和限制ASI(超级人工智能)。一旦创造了它,它就不知道如何确保它对人类友好。比这要复杂得多。
因此,从理论上讲,如果您一直在挑战AI不擅长的复杂选择国际象棋游戏,则可以找到AI的问题并引起合适的现象。如前所述,Li Shishi在AI.的第四场比赛不是因为这只手是正确的,但是因为这只手很奇怪。
简而言之,只要您继续行走以前从未见过的国际象棋游戏,您就可能使AI“错误”。即使现在在成熟的AI系统上,过度适合风险。要像其他器官一样张贴贴纸,例如脸部的脸,您可以轻松地使AI变得凌乱。
AI确实征服了许多问题,但是现在AI并不完美。我们需要了解其原理并利用其优势来使用它。就像当前的GO播放器一样,他们没有选择用“奇怪的国际象棋”来挑战AI的限制,并选择向AI学习以学习。这是与AI相处的方式。
结论:以上是首席CTO注释汇编的人工智能错误相关内容的相关内容。希望它对您有所帮助!如果您解决了问题,请与更多关心此问题的朋友分享?