当前位置: 首页 > 科技赋能

算法正在创造一个无人能读懂的代码世界

时间:2024-05-22 12:13:50 科技赋能

近年来,以今日头条为代表的“算法分发”模式席卷全球互联网行业。

各界对算法的批评也逐渐出现。

有的认为是“计算不准确”,有的认为是“恶意推荐”,甚至还有“算法技术应该退出时代舞台”的说法。

事实上,对于科技公司来说,算法是一把双刃剑。

一方面,他们为业绩增长做出了巨大贡献,但另一方面,他们却“后患无穷”。

以今日头条为例。

该公司几乎完全依靠算法来快速超越传统门户网站的手动编辑模式。

优势极其明显。

但在判断内容质量和发现传播风险方面,该算法还处于起步阶段,能力还不是很强。

相信它。

总的来说,随着算法的发展,这种代码叠加技术正在逐渐创造出一个无人能理解的世界。

. . . . . 2018年3月18日,悲剧发生了,这是科技人所担心的。

那天晚上,一辆 Uber 自动驾驶汽车在自动驾驶状态下行驶,突然检测到前方有障碍物。

一系列雷达和激光雷达传感器检测到的数据允许车载算法计算出,假设障碍物保持静止并且车辆速度稳定在 43 英里/小时,则两者之间的距离现在只有 6 秒。

但道路上的物体??很少保持静止,因此更多的算法开始搜索可识别生物实体的数据库,寻找模型来得出完美的解决方案。

起初,计算机会空白几秒钟,然后决定“遇到”障碍物,希望它能自行离开。

然而,直到最后一秒,汽车才清楚地知道这是一个推着自行车的女人。

在这种情况下,汽车想要绕行,但由于它被禁止自行采取规避动作,计算机只能将控制权交还给人类。

不幸的是,安全员开小差,悲剧发生了:49岁的伊莱恩·赫茨伯格在车祸中丧生。

这一事件也给科技界留下了两个值得反思的问题:这种算法引发的悲剧是否不可避免?面对这些事件我们应该如何应对? “在某些方面,我们失去了控制。

当程序进入代码,代码进入算法,然后算法开始创建新算法,它变得越来越不受人类控制,软件进入一个世界没有人能理解代码世界。

”这句话听起来很可怕,事实也确实如此。

她是 20 世纪 70 年代以来著名的专业程序员,也是少数出版过编程书籍的人之一。

他们改进算法。

”但这并不是 Facebook 的工作方式,研究人员会自行学习、更改和运行。

Facebook定期参与其中,但他们确实无法控制这些算法,而且对于特定的算法,它们不仅仅是自主运行,而是调用数据库、深入操作系统等等。

“什么是算法?如今,很少有技术比算法更流行,但算法到底是什么?从根本上来说,算法是一个小而简单的东西,是自动处理数据的规则。

如果a发生,则执行b;如果没有发生,则执行c。

这就是经典计算的“if/then/else”逻辑。

计算机程序的核心是此类算法的捆绑,并向它们提供处理数据。

然而,近年来,出现了一种模糊的算法定义,它指的是任何大型、复杂的决策软件系统,它接受数据输入并根据给定的一组标准(或“规则”)对其进行快速评估,这已经彻底改变了算法的定义。

药品。

、科学、交通、通讯,使人们的生活各方面更加美好。

直到 2008 年,我们才开始对算法进行不同的思考,认为它们是基于对客观性的承诺。

算法决策扩展到贷款、保释、福利、工作面试,以及任何其他需要基于数学分离和缺乏我们不再接受的情感模糊性进行选择的事物。

一种算法的“推销术”。

凯茜·奥尼尔(Cathy O'Neil)在她的《数学毁灭性武器》一书中表示,算法不仅会巩固而且会放大人类偏见,而不是消除它们。

对此,她呼吁对任何直接影响公众的系统进行“算法审计”。

这是一个聪明的想法,但对于科技行业来说并不是一件好事,因为算法是他们的支撑,他们最不想做的就是透明。

好消息是战斗仍在继续,坏消息是人们的注意力集中在人工智能遥远的承诺和威胁上,很少有人注意到我们已经进入了算法革命的新阶段。

奥尼尔等人创建的算法是不透明但可预测的,它们就是我们所说的“愚蠢”。

目的是人工智能或AGI。

智能机器将能够根据直觉(我们可能认为是经验和知识积累)质疑自己计算的质量。

事实上,谷歌DeepMind创建的AlphaGo就是一个很好的例子。

计算机在特定任务上已经远远优于人类,但它们还需要时间才能与人类能力相匹配。

现实生活中的危险可以追溯到之前优步无人驾驶车祸的原因。

目前正在测试的自动驾驶汽车可能包含 1 亿行代码,并且考虑到没有程序员能够预测现实世界道路上所有可能的情况,它们必须学习并不断接收更新。

我们如何避免这种代码环境中的冲突,特别是当算法可能还需要保护自己免受黑客攻击时?二十年前,乔治·戴森在他的经典著作《机器中的》中预言了今天发生的大部分事情。

他说,问题在于我们正在构建超出我们控制范围的系统。

人们总是相信,如果一个系统是确定性的(按照固定规则行事,这是算法的定义),那么它就是可预测的,并且预测是可控的。

事实上,这两种假设都是错误的。

与以前的机电系统不同,新算法无法进行详尽的测试。

除非我们有超级智能的机器来为我们做这件事,否则我们将面临绝望的风险。

因此,就目前情况而言,重点是机器学习。

我们都知道,今年早些时候,Uber 的自动驾驶汽车曾发生过致命事故,因为该算法在对行人进行分类时犹豫不决。

这是由于编程不佳、算法训练不足,还是拒绝接受技术的局限性?真正的问题是我们可能永远不知道答案。

新南威尔士大学人工智能教授托比·沃尔什(Toby Walsh)表示,“我们最终会完全放弃编写算法,因为未来机器将能够比我们做得更好。

从这个意义上说,软件工程可能是一种它将“被机器接管。

”此外,他指出,这将使人们学习编码变得更加重要,因为随着我们与编程的距离越来越远,它的影响也会变得更大。

另外,在科技领域,道德是最重要的,毕竟有选择的地方,就有道德所在。

程序组可以被重写或更新,这样同样的情况就不会再次发生,这与人类不同,人类重复错误的倾向可能会误导机器。

尽管如此,虽然从长远来看自动化应该更安全,但我们现有的侵权法体系需要改变。

重新定制,这需要证明意图或疏忽。

事实上,上面描述的大部分问题也在寻找解决方案。

从长远来看,考虑到我们越来越依赖的算法系统的规模、复杂性和相互依赖性,将会有更多的猜测认为当前的编程方法不再足够。

作为回应,部分航空航天工业采用了一种称为“基于模型的编程”的新方法,其中机器完成大部分编码,并且可以随时进行测试。

然而,基于模型的编程可能不是万能的。

它不仅使人类进一步远离这个过程,而且人类也无法从代码本身推断出极端行为,即使是用大型、复杂的系统构建的。

当我们等待算法问题的技术答案时,也许采取一些预防措施是最重要的。