人类一直梦想有一个无所不知、无所不能的小精灵来担当他们的工作。现在,由于实验室计算机科学家的辛勤工作,我们在人工智能中找到了答案,如果你也相信这一点,你的公司几乎可以做任何你需要它做的事情——至少是其中的一部分,在某一点。是的,人工智能的创新是惊人的。10到15年前,Siri、Alexa或GoogleAssistant等虚拟助手对时间旅行者来说似乎很神奇。你的话就是他们的命令,与1990年代的语音识别工具不同,他们通常会给出正确的答案——如果你避免问曲线球问题,比如有多少天使可以在别针上跳舞。尽管AI很神奇,但它们仍然依赖计算机编程,这意味着它们受到各种限制,阻碍了电子表格或文字处理器等更普通的代码。他们更擅长处理世界上变幻莫测的统计数据,但归根结底,他们仍然只是通过计算函数并确定某个数字是大于还是小于阈值来做出决策的计算机。在所有巧妙的神秘和复杂算法的下面是一组晶体管,它们可以做出“如果-那么”的决定。我们能接受吗?我们还有其他选择吗?随着人工智能在各行各业呼声越来越高,我们要开始学会接受人工智能下面的一些现实。你在AI中发现的很多东西是显而易见的对于AI科学家来说,最困难的工作是告诉你的老板,AI已经发现了一些众所周知的东西。也许它检查了100亿张照片,发现天空是蓝色的。但是如果你忘记在训练集中包含夜间照片,它就不会意识到晚上天黑了。但是人工智能如何避免这些显而易见的结论呢?数据中最强烈的信号对于在前线工作的任何人以及挖掘数据的计算机算法来说都是显而易见的。它们将是猎犬能够带回并落在你脚下的第一个答案。只是算法并不期待你的回报。利用微妙的AI洞察力可能不值得当然,当数据精确时,好的AI也会锁定微小的差异。但是,使用这些细小的见解可能需要对公司的工作流程进行深刻的战略转变。有些细微差别太微妙,不值得深究。但是计算机仍然在努力解决它。问题在于大信号通常很明显,而小信号可能只会产生很小的收益。神秘的计算机更具威胁性虽然早期的研究人员希望计算机算法的数学能够为最终决定带来正派的气氛,但世界上许多人都不愿意向逻辑之神投降。如果有的话,人工智能的复杂性和神秘性让任何对答案不满意的人更容易攻击这个过程。算法有偏见吗?黑暗中越是神秘和复杂,世界就越有理由怀疑和愤怒。人工智能主要是曲线拟合数百年来,科学家们一直在绘制一些嘈杂的数据并在这些点上画线。许多处于机器学习算法核心的人工智能算法就是这样做的。他们收集了一些数据并在其中画了一条线。大部分进步来自找到将问题分解成数千、数百万或数十亿个较小问题的方法,然后在所有这些问题之间划清界线。这不是魔术;它只是一条流水线,展示了几个世纪以来我们是如何进行科学研究的。那些不喜欢人工智能并发现很容易在其决策中找出漏洞的人关注的事实是,通常没有深刻的理论或哲学基础来为答案提供可信度。这只是对某条线斜率的猜测。收集数据才是真正的工作每个开始从事数据科学的人都开始意识到科学的时间已经不多了,因为找到数据才是真正的工作。人工智能是数据科学的近亲,也面临着同样的挑战。0.01%受文件格式启发,99.99%受缺失数据字段和字符代码启发。您需要大量数据才能得出更深入的结论有些答案很容易找到,但更深入、更复杂的答案往往需要越来越多的数据。有时数据量呈指数级增长。人工智能会让你对越来越多的信息贪得无厌。你将被你的数据偏见所困就像柏拉图洞穴中的居民一样,我们都受到我们所能看到和感知的限制。人工智能也不例外。他们显然受到训练环境的限制。如果数据存在偏差,AI就会继承这些偏差。如果数据中存在漏洞,人工智能对世界的理解也会出现漏洞。AI是一个电的黑洞大多数优秀的游戏都有一个最终级别或最终目标。然而,人工智能只会变得更加复杂。只要您愿意支付电费,他们就会不断推出具有更多节点、更多级别和更多内部状态的更复杂模型。也许这种额外的复杂性足以使模型真正有用。也许下次你去跑步时会有一些紧迫感。但也许我们需要一个更大的GPU集来运行一夜才能真正捕捉到这些效果。可解释的AI只是另一只乌龟AI研究人员最近花了更多时间试图解释AI实际在做什么。我们可以深入研究数据,发现经过训练的模型将严重依赖数据集特定角落的这些参数。然而,解释往往就像魔术师施展一种把戏来解释另一种戏法。回答“为什么”这个问题出奇地困难。你可以看看最简单的线性模型,盯着参数看,但通常你会不知所措。如果模型显示每年行驶的英里数乘以0.043255,您可能想知道为什么不是0.043256或0.7,或者可能是4110亿或100亿之类的惊人差异。一旦使用连续统,轴上的所有数字都可能是正确的。就像那个旧模型,地球就坐在一只巨大的乌龟身上。但这只乌龟站在哪里?在另一只乌龟的背上。下一站在哪里?乌龟一路下来。努力做到公平是一项挑战。您可以将身高排除在训练集之外,但您的AI程序很有可能会找到其他代理来标记高个子并为您的篮球队选择他们。也许这将是鞋码。或手长。人们梦想让中立的人工智能做出公正的决定,让世界变得更公平,但有时问题是如此根深蒂固,以至于算法无法做得更好。有时修复后甚至更糟。有没有真正的解决方案来迫使人工智能公平?有些人试图坚持认为人工智能产生的结果具有一定的预定百分比。他们把拇指放在秤上并重写算法以改变输出。然而,人们开始怀疑,如果你已经决定了你想要的答案,我们为什么还要费心去做任何培训或数据分析。人类才是真正的问题当风险很低时,我们通常对AI感到满意。如果你有1000万张图片要分类,如果某些AI在大多数时候都能产生相当准确的结果,你会很高兴。当然,可能会有问题和错误。一些故障甚至可能反映出AI偏见的深层问题,这些问题可能会写满200页令人毛骨悚然的论文。但人工智能可能不是问题所在。他们会按照要求去做。如果他们变得挑剔并开始生成错误消息,我们可以隐藏这些消息。如果训练集没有产生完美的结果,我们可以搁置抱怨结果并要求更多数据。如果准确率不高,我们可以将结果存档。人工智能将重新开始工作并尽其所能。然而,人类是一种完全不同的动物。人工智能是他们的工具,而人类是想要利用它们来发挥自己的优势并从中获利的人。其中一些计划相对来说是无辜的,但其他计划则是出于有预谋的、隐蔽的恶意。很多时候,当我们遇到不好的AI时,可能仅仅是因为它是某些人的傀儡,想从不良行为中获利。
