当前位置: 首页 > 技术突破

新兴语言:人工智能时代的常识

时间:2024-02-27 18:11:43 技术突破

  如果有一些人从我们的起源中描述了人类,那就是我们想以多种方式进行交流和交流的事实:看着因为他饿了而哭泣的孩子:雨或闪耀的员工间接加薪;我们中的任何一个人都可以上传一张Instagram照片,我们等待几秒钟才能得到追随者的反应(不一定是我们希望的那些);两个匿名骑自行车的人经过一排车线时,他们微笑着。阿尔塔米拉(Altamira)洞穴中的岩石绘画;赢得体育赛事时,欢乐的呼喊;或者,当她的研究产生预期的结果时,科学家在不眠之夜后感觉到的自由感:她的自动驾驶汽车可以在没有驾驶员的情况下开车,更重要的是,没有事故。

  智能机器时代的“常识”

  上面引用的每个示例都代表了我们交流的不同方式(并在上面提出更优点)的一个例子 - 我们表达情况,欲望,需求或提出对事实的吸引力等。

  将这些通信过程团结起来的是,在每种具体情况下,发出消息的人都使用通用语言来试图表达意图,而消息的收件人则应以相同的方式解释,以便进行有效的通信。这些沟通形式之一 - ?或通用语言 - 当我们的球队赢得比赛,在体育馆结合球迷时,可能是欢欣鼓舞的喊叫声,这与罗马马戏团的观众对他们在竞技场胜利的角斗士表达兴奋的方式并没有太大不同。如果一个球迷看到自己的团队获胜,那将是奇怪的,尽管当然也有欢乐的眼泪,但这并不是大多数人表达欢乐或欣快感的最典型或公认的方式。

团结所有通信过程的是,消息的发行人使用通用语言来表达意图。

  尽管如此,我们开幕列表中的最后一个例子仍然是关于自动驾驶汽车的一个例子,这并不是“正弦Qua non”(一个前提条件),它将在2019年促使行人在一辆由软件驾驶的汽车前乘坐街道,仅由软件驾驶过 -特别是因为“尤里卡的欢乐时刻”来自工程师正在编程车辆的一个实验室之一。这个例子试图对我们说什么?在可以将新的“智能”交流形式的新形式形式用于个人人类之前,必须给他们一种行为模式,该模式被公众广泛接受,设法将自己确立为对小组成员的标准意义。,社会或国家。

  可以这么说的是,公众共享的“常识”是等到这项技术保证道路的安全,即使不是100%,至少至少是一个足够高的水平,除了拥有适当的法律机制确保防止不当行为或事故。

  比看起来不太常见吗?

  试图指出常识所理解的内容的作者众多,并且来自广泛的学科。定义该术语的一些努力是在本文中汇编的,这些术语特别遵守了像亚里士多德,笛卡尔和务实主义者这样的哲学家所理解的哲学家。尽管如此,在关闭文章时,作者使用以下单词来描述定义此术语的复杂程度:

  “如果常识作为一个概念是有问题的,那是因为我们认为我们都过着相似的经验,因此假设我们都得出了类似的结论。在真理的那一刻,没有什么可以保证的。”

  现在,似乎我们拥有智能手机和消息平台,例如WhatsApp Offect(即使已经不到15年),我会邀请您进行一些实验。对于所有拥有90岁以上的家庭成员的人(要随机选择一个年龄),让他们戴上无线耳机(他们的影响力更大),并告诉他们在电话上口头询问电话上的虚拟助手他们正在用于一些音乐。

技术里程碑与“地狱装置”。

  毫无疑问,没有两个相同的反应,因为我们都以自己的方式表达了自己。但是,我几乎可以保证,我们的许多主题在欣赏一首歌的同时,可以说二十多岁时会使用类似于“魔术!”的表达方式。指的是“地狱装置”,或描述一种新的“技术里程碑”,使人类在地球上更加容易。

  从识别某些模式到人为创建它们

  所引用的例子似乎是为了自己说话,尽管如果我们隐喻地通过“社交显微镜”对它们进行分析,那么确认或驳斥有明确的常识并不容易,那就是某些某些东西允许我们 - 和继续允许我们发展……。或使用越来越多地占领技术科学世界的动词出现。正是这个术语及其影响力是流行的科学作者史蒂文·约翰逊(Steven Johnson)在他的书《出现:蚂蚁,大脑,城市和软件的互联生活》中讨论的。

  约翰逊使用“出现”来指代不仅与人类物种有关的“智能行为”,但也与蚂蚁殖民地,城市以及万维网有关,以引用他书中提到的一些例子。约翰逊用来解释低水平组成部分采用更高级别的行为,正是这组案例显然不是随机选择的。换句话说,蚂蚁创造了殖民地。城市人建立社区;软件程序创建了智能的互联网。

一只蚂蚁疯狂地寻找食物,而集体追求的寄托进行以有序的方式发生。

  这些行为模式中的每一种无疑都包含一种自己的语言,在许多情况下,这些语言既无法被人类理解,也无法解密,例如蚂蚁使用信息素,声音和触摸进行交流的方式。尽管我们还有其他案例,这些情况具有更复杂的性质,例如试图揭示为什么城市被明显的混乱所吸引的城市,但即使在高峰时段的交通拥堵数量可能完全表明相反的情况,也可以顺利地且有序地运行。

  似乎有一些相似之处加入了这些情况。这就是史蒂夫·约翰逊(Steve Johnson)所说的自组织,他将其描述为:“随着时间的推移会导致更明智的增长,其最终目标是响应其环境的特定和不断变化的需求。”他补充说:“我们开始在软件应用程序,视频游戏,艺术和音乐中构建自组织系统。我们建立了紧急系统,以推荐新书,识别我们的声音或寻找伴侣。

  只要复杂的生物一直活着,它们就生活在自我组织的定律下,但是近年来,我们的日常生活已随着人为的出现而超越。”

  使用人工智能来“编程”我们的常识

  但是,是否可以设计,编程和部署所有内容?在人工智能发展的什么时间点,伦理学开始发挥重要作用?显然,关键时刻之一是在2016年,因为本文报道

Google的自动驾驶汽车。学分:Smoothgrover/flickr

  此事件标志着一个转折点。它要求反思,并试图改变,纠正,甚至制定立法,以适应新的技术,社会和经济现实。解决这一新现实的努力必须被推断到可能影响的每个领域,直到那时似乎是科幻电影的领域,而不是可能在世界任何地方的公共公路。

  而且,正是这些极端的事件经常是戏剧性的,这迫使社会的结构(直到那一刻静态)发展。他们被视为彻底的灾难,在负责这些新场景的概念,实施和监管的专业人员之间既没有立法机制,也没有适用的对话。

  尽管在欧洲,人工智能法规是现实,但在其他国家,例如中国,关于解决这些新兴技术的法规存在法律真空或明显的晦涩。这个亚洲国家几个月前再次发布了新闻,当时它在各个学校推出了所谓的智能制服。以提高效率的名义,这些制服允许在此处描述的其他方面,还可以监控学生的启动和glo脚。

  “常识”的建筑师,是解决的悖论

  当我们信任软件驾驶汽车或飞机飞行的时间比我们信任人类更多时,也许会过去一天。我们无法说出这辆车是否已获得常识,但也许这项特定技术将达到一定程度的完美,以至于汽车事故(如今)仍然是世界上主要的死亡原因之一,将是过去的事情。

  同样,我想知道中国的人工智能系统是否已经受到了对其社区的极端监视的任务 - 是否可以设法开发这种期待已久的(对于机器,人类)的常识,从而能够辨别他们的水平正在监视他们的主题而不是观看他们,而不是损害仍然称为隐私的东西,而是拒绝向其创建者提供某些信息。这种未来的情况(目前几乎没有现实)将使人类和机器的未来成为双赢的关系。

  但是,这就是德国人所说的Zukunftsmusik,或者正如我们可能所说的“故事尚待讲述”。

  RosaeMartínPe?