当前位置: 首页 > 科技观察

AI和ML潜在的五大致命威胁及解决办法_0

时间:2023-03-12 09:45:53 科技观察

AI和ML的五种潜在致命威胁及其解决方案虽然好处怎么强调都不为过,但我们也需要关注和了解AI和ML的潜在致命威胁。谁敢想象有一天机器的智能会超越人类?-未来学家称之为奇点。著名科学家和人工智能先驱艾伦·图灵在1950年提出可以像儿童一样训练机器。图灵问道:“机器能思考吗?”他在他的著名论文《计算机器与智能》中探索了这个问题和相关问题的答案。1955年,约翰·麦卡锡发明了一种名为“人工智能”的编程语言LISP。几年后,研究人员和科学家开始使用计算机编码、识别图像和翻译语言等。早在1955年,人们就希望有一天计算机可以说话和思考。机器人专家汉斯·莫拉维克(HansMoravec)、科幻小说作家弗诺·文格(VernorVinge)和雷·库兹韦尔(RayKurzweil)等伟大的研究人员更广泛地思考这个问题,即机器何时能够自行设计实现目标的方法。史蒂芬霍金等伟大思想家曾警告说,当人类无法与先进的人工智能竞争时,它可能意味着人类的终结。“我想说的是,我们不应该在不考虑潜在风险的情况下全力打造超级智能,”加州大学伯克利分校计算机科学教授StuartJ.Russell说。拉塞尔)说。以下是ML和AI可能存在的五种危险以及解决方法:1.机器学习(ML)模型可能存在偏差——本质上受人类影响。尽管机器学习和人工智能很有前途,但其模型也容易受到无意偏见的影响。有些人认为ML模型在做决定时是公正的,但他们忘记了训练这些机器的是人类——本质上我们不是人类。此外,ML模型在决策过程中处理数据时也可能存在偏差。当你提供本身不完整的数据(单边数据)时,机器是否仍会给出正确的结果?例如,您经营一家批发商店并希望建立一个模型来了解客户。所以你建立了一个模型,你想评估一个客户对一个项目的购买力;您还想在年底使用模型的结果来奖励客户。因此,您收集客户购买历史记录——那些拥有长期良好信用记录的客户。如果你最信任的买家群体碰巧欠了银行的债,没有及时站稳脚跟,他们的购买力就会急剧下降。但是,模型无法预测客户的不可预测程度。从技术上讲,如果你决定在年底输出结果,你就会得到有偏差的数据。注意:在机器学习方面,数据是一个脆弱的因素,为了克服数据偏差,请聘请专家来处理这些数据。另请注意,除了您之外,没有人记录有关客户的这些数据-可以这么说,您有发言权。数据科学家应该质疑数据积累过程中的任何问题;他们还应该积极寻找这些偏见可能在数据中体现的方式。它还取决于您创建的数据和记录的类型。2.固定模式。在认知技术中,这是开发模型时不可忽视的风险之一。不幸的是,大多数开发的模型,尤其是那些为投资策略设计的模型,都存在这种风险。想象一下,您花了几个月的时间开发投资模型。经过多次试验,还是得到了“准确的输出”。但是当你用“真实世界的输入”来尝试这个模型时,它可能会给你一个毫无价值的结果。为什么会这样?这是因为模型缺乏可变性。该模型是使用一组特定的数据构建的。它仅对设计时使用的数据有效。因此,具有安全意识的AI和ML开发人员在未来开发任何算法模型时都应该学会管理这种风险。通过输入所有形式的数据可变性,他们可以找到例如演示数据集(当然不是所有数据)。3.输出错误数据的解释可能很困难。输出错误的解释是机器学习未来可能面临的另一个风险。想象一下,在努力工作以获得良好的数据之后,您决定与另一个人分享结果——也许是您的老板。同样的数据结果,你老板的解读未必和你自己的观点一致。毕竟他的思维过程和你不一样,所以他的见地和你不一样。这种情况经常发生。这就是为什么数据科学家不仅在构建模型时要注意,而且在理解和正确解释任何设计模型的输出结果的“每一位”时也要注意。在机器学习中,没有错误和假设的余地——它必须尽可能准确。如果我们不考虑每个角度和可能性,我们就有可能让这项技术危及人类。注意:误解机器发布的任何信息会给公司带来厄运。因此,数据科学家、研究人员和任何相关人员都不应忽视这一方面。他们开发机器学习模型的意图应该是积极的,而不是相反的。4.AI和ML尚未得到科学解释。实际上,许多科学家仍在努力完全理解AI和ML到底是什么。尽管他们尚未在新兴市场站稳脚跟,但许多研究人员和数据科学家仍在努力了解更多信息。许多人仍然感到害怕,因为他们认为仍有一些未知的风险有待了解。即使像谷歌和微软这样的大型科技公司仍然不安全。人工智能聊天机器人TayAi于2016年3月23日由微软公司发布。它是通过推特发布的,目的是与推特用户互动——但不幸的是,它被认为是种族主义。它在24小时内关闭。Facebook还发现他们的聊天机器人偏离了原来的脚本,开始使用他们创造的新语言进行交流。有趣的是,人类无法理解这种新创造的语言。很奇怪,对吧?注:为了解决“生存威胁”,科学家和研究人员需要了解什么是AI和ML。此外,在正式向公众发布之前,他们还必须测试、测试和重新测试机器运行模型的有效性。5.就像一个控制欲很强的不朽独裁者。机器一直在运转——这是另一个不容忽视的潜在危险。AI和ML机器人不会像人类一样死去,它们是不朽的。一旦他们接受了完成一些任务的培训,他们就会日以继夜地工作,通常没有监督。如果AI和机器学习功能没有得到充分的管理或监控,它们可能会自行发展成为杀手级机器。当然,这项技术可能对军队有好处——但如果机器人无法区分敌人和无辜公民,无辜公民会怎样?该机型操作简单。他们了解我们的恐惧、厌恶和喜欢,并可以使用这些数据来对付我们。注意:AI创造者必须准备好承担全部责任,以确保在设计任何算法模型时都考虑到这种风险。结论机器学习无疑是世界上最具技术价值的能力之一,具有现实世界的商业价值——尤其是与大数据技术相结合时。正因为如此,我们不应忽视一个事实,即需要仔细规划才能妥善避免上述潜在威胁:数据偏差、固定模型、对错误输出的解释、不确定性和强烈的控制欲。原标题:ThePotential"HolyShit"ThreatsSurroundingAIandML,作者:EjioforFrancis