当前位置: 首页 > 数码发展

将“道德”算法嵌入智能机器

时间:2023-12-20 15:38:42 数码发展

人工智能的应用可能是一场影响深远的社会伦理实验。智能机器应该通过算法嵌入人类的价值观和规范,使其具有与人类相同的伦理道德。

  不久前,包括特斯拉CEO马斯克在内的多位全球顶尖人工智能专家签署承诺书,呼吁不研发“人工智能自主武器”。这并不是业界第一次警告人工智能的潜在风险。尽管目前处理单一任务、完成人类指??令的“弱人工智能”的自主性还很低,但人们不能忽视新技术应用的潜在风险。

  高效智能的人工智能并不完美。例如,人工智能存在算法缺陷。这种缺陷往往源于机器学习过程的莫名其妙和不可理解。

它的判断有时是在黑匣子中完成的,缺乏透明度。当自动驾驶汽车决定左转或右转时,其转弯的过程并不完全清楚。除了传感器故障之外,人们甚至无法准确地找到问题的原因,这给有针对性地调整系统和确定责任带来了障碍。正因为如此,不久前生效的欧盟《通用数据保护条例》专门规定人工智能公司必须让人审查某些算法决策。

  既有眼前的忧虑,又有长远的忧虑。展望未来,人工智能的应用正在模糊虚拟世界与物理世界的界限,可能重塑人类的生存环境和认知形态,并引发一系列棘手的伦理、法律和安全问题。

与历史上其他技术创新相比,人工智能的伦理、法律等问题受到如此多的关注。一个重要原因是它在概念上期望实现可计算的感知、认知和行为,从而在功能上模拟人类智能。和动作,从而赋予机器准人格或准主体性质。人类现有的法律规范、概念框架和知识储备能否应对人工智能发展带来的新问题,是人们不得不面对的挑战。

  针对人工智能应用的潜在风险,国际社会从标准设计、伦理等方面提出了一系列控制智能机器系统的方案,并逐渐形成共识原则:嵌入人类价值观????通过算法在智能机器中建立规范,使它们具有与人类相同的道德、伦理、责任感和羞耻感。人们希望人工智能算法在完成人类难以完成的任务的同时,遵循“善法”,吸收人类伦理“善”的一面,从而控制机器风险。毕竟任何算法都只是实现目标的工具或手段,而“好的”结果才是人类追求的目标。   事实上,通过编写代码和算法来控制机器的想法并不新鲜。

70多年前,美国科幻作家艾萨克·阿西莫夫提出了“机器人三定律”,并构想通过内置的“机器伦理调节器”来设定机器人不得伤害人类的原则。如今,计算机专家、伦理学家、社会学家、心理学家等正在共同努力实现这一想法。   人类对人工智能发展的预见或许来得有点早,但未雨绸缪却体现了人类的智慧和洞察力。我们不能等到人工智能深度介入人类生活之后,才去思考如何与它相处。

与机器的和谐程度应该是人类开发和利用人工智能的重要标准。毕竟,人工智能的应用不仅是一次技术创新,更是一次影响深远的社会和伦理实验。   “人工智能的短期影响是由控制它的人决定的,而长期影响则取决于人工智能是否完全由人控制。

”这是著名物理学家霍金给人类留下的警告。我们不必被人工智能的风险吓倒,但在享受人工智能带来的好处的同时,我们也需要划清伦理、道德、法律规则等红线。