当前位置: 首页 > 技术突破

软件,道德与可持续性

时间:2024-02-27 18:04:29 技术突破

  软件,无限运行我们的手机,计算机和服务器的数百万行代码已成为我们社会的基础。尽管不久之前,开发人员在很大程度上将自己视为技术领域的专家,但除了其他考虑之外,从社会角度来看软件的声音越来越强。

算法可能具有影响结果的种族和性别偏见。

  道德软件

  最公然的例子当然是机器学习的不加区分使用。据报道,今年夏天,英国政府使用这些工具根据多种变量来推断学生的最终成绩。结果:较低的成绩取决于您居住的社区和上学的类型。对于许多学生而言,这决定了他们是否可以上大学以及什么样的大学 - 毫无疑问,他们的未来是长期的。

  这些算法也具有种族和性别偏见。例如,职位的候选人可能仅仅是因为他们不是高加索人,或者接受较差的医疗服务。在线我们可以找到许多示例,说明软件如何无法识别有色人种的面孔,或者如何将拖把和演习的人归类为“清洁剂”或“木匠”。

面部识别软件还具有“偏见”。

  这些事实的解释很简单:这些系统会自动学习,是的,但是它们是根据程序员提供的大量数据来进行的。如果这些数据有偏见,例如,来自这所学校的学生往往会获得更高的成绩,那么拖把的女性往往是清洁工等,算法只会再现这些偏见。这就是为什么好的开发人员越来越多地努力确保使用完整的数据,并且人口的一部分并不代表过多。

  技术中也有过度自信的问题。这些自动化系统像建议一样工作;非常适合确定您想听的歌曲或穿什么衣服对您来说很好。但是,当算法负责决定谁可以得到社会援助或是否应该入狱时,我们将消除一个个性化的,或多或少的透明系统,并用不透明和不人道的人代替它。

  COVID-19跟踪应用程序的开发是时间变化的一个示例。在大多数欧盟国家(例如西班牙,德国和许多其他国家)中,该应用程序的源代码或有关其运作方式的说明是可供公众访问的。这意味着任何人都可以看到,学习和帮助开发它们:软件作为社会的一部分。

  接受该软件可以帮助社会意味着接受它可以修改我们的工作。Big Tech试图吸引我们的注意力和点击时,他们很好地理解了这一点。最近的纪录片《社会困境》为这个世界打开了大门。那些寻求不那么轰动的方法的人可以选择劳伦斯·莱斯格(Lawrence Lessig)的码号,以了解软件如何修改我们在当今社会中所看到的以及我们能做什么。几个月来,已经听到了更多的声音,这些声音在询问多大的薪水和几乎理想的工作环境应该使我们忘记某人开发的技术的最终目标。几年前,对于大多数程序员来说,在Facebook工作是梦想。现在人们在问更多问题。

接受该软件可以帮助社会意味着接受它可以修改我们的工作。

  可持续软件

  我们这一代人的最大问题,气候变化也没有与软件断开。毕竟,计算和发送信息使用电力。这就是为什么Google选择服务器的位置的原因,部分原因是电费。一些开发人员试图剪切代码,不仅使其更快,而且是为了减少其传输和处理所需的能量量。用简单的表情符号对这些电子邮件的全球变暖做出的贡献是在发射到大气中的大量二氧化碳中的。

  随着软件在我们的生活中变得无处不在,参与其发展的人越来越意识到我们周围的社会。通常,将程序员的键盘与后果分开的线非常短 - 太短了,无法忽略。道德,可持续性和责任已成为与我们职业过于疏远的词语。变化已经开始。

  亚历杭德罗·塞拉诺(Alejandro Serrano Mena)