当前位置: 首页 > 网络应用技术

如何受到人工智能(人工智能监督和非诉讼)的监督

时间:2023-03-07 23:01:33 网络应用技术

  简介:今天,首席执行官指出,与您分享人工智能如何受到监管。如果您能解决您现在面临的问题,请不要忘记注意此网站。让我们现在开始!

  在动画片中,明星人通过卫星连接以监督人工智能。

  孩子们,但是您必须知道现实生活中没有外星人。

  1月7日,当地时间,白宫披露的一份文件提议了10个人工智能监管原则。防止联邦机构在人工智能应用中过度干预所需的原则,并强调了监督的灵活性。

  该文件称为“人工智能应用程序的指导”强调“鼓励人工智能的创新和发展”,并“减少了使用人工智能的障碍”。

  它指出:“ AL的部署有助于改善安全,公平,福利,透明度和其他社会目标。保持全球AI领导地位对于维持经济和国家安全至关重要……联邦机构必须避免阻碍创新和增长,这一职位至关重要。有可能阻碍创新和增长。无需进行监管或非监管行动。”“有必要考虑联邦控制对州和地方政府现有或潜在行动的影响。”

  该文件阐明了10个“ AI应用程序管理原理”。

  这10条原则延续了特朗普在2019年2月签署的行政顺序中的目标和原则,并基本上总结了当前人工智能申请部署的主要主要问题。

  这些问题包括公共信任,公众参与,科学完整性和信息质量,风险评估和管理,收入和成本,灵活性,公平性和非歧视性,开放性和透明度,安全与安全以及机构协调。

  1.公众对人工智能的信任:政府的监督和非AI的非监管方法必须促进可靠和可靠的AI应用程序。对隐私和其他风险的监督或非诉讼必须取决于风险和适当的救济措施的性质。

  2.公众参与:机构应为可行和法律范围内的公众提供足够的信息和机会,以参与规则制定的各个阶段。

  3.科学完整性和信息质量:根据科学完整性的原则,每个机构应为提供信息并促进公众对AL信任的信任的方式制定AL监管方法。

  4.风险评估和管理:应使用基于风险的方法来确定哪些风险是可以接受的,这可能会造成不可接受的损害,或者预期的损害成本大于预期收入。

  5.增加和成本:在遵守法律的情况下,机构应在考虑人工智能应用程序的开发和部署之前考虑全面的社会成本,收益和分配效果。

  6.灵活性:在大多数情况下,试图规定刚性董事会的人工智能应用程序规则是不现实且无效的,因为人工智能会以预期的速度发展,而代理商需要响应新信息和证据。美国创新,所有机构都应牢记人工智能的国际应用,并确保美国公司不会受到美国监管制度的不利影响。

  7.公平性和非歧视性:在某些情况下,AI申请可能会在现实世界中引入偏见以产生歧视性结果或决策,这将损害公众对人工智能的信任和信心。考虑到与该法规或非法方法有关人工智能的应用,所有机构均应考虑公平性和非歧视性问题,对人工智能应用程序的结果和根据法律的决定。

  8.公众和透明度:根据特定情况,适当的开放性和透明度取决于对潜在危害的评估,伤害程度,技术地位的现状以及人工智能应用的潜在利益。

  9.安全和担保:每个机构应特别注意现有的控制措施,以确保人工智能系统处理,存储和信息传输的机密性,完整性和可用性。

  10.机构之间的协调:每个机构都应相互协调并分享经验,以确保与人工智能相关政策的一致性和可预测性,以促进美国人工智能的创新和增长。在相同的时间和适当的时间,允许使用特定部门和申请的方法。

  该文件还引用了2019年2月的行政命令。提到,有必要考虑减少使用AL技术来促进创新的同时保护公民的自由,隐私和国家安全。

  根据《美国有线(Wired)》杂志的网站,公众可以在90天内就上述原则提交反馈。之后,联邦机构将有180天的时间研究如何实施这些原则。

  人工智能涉及多个主题来规范人工智能。首先,应重组和标准化的市场订单。强度宏观控制市场监督。

  其次,企业应履行其社会责任,并遵守经济和社会利益的统一。

  个人应该提高意识。使您的意识形态和道德质量以及科学和文化质量。

  人工智能不仅有助于金融机构提高运营效率,降低风险损失,改善用户体验,扩大销售渠道,还可以提高金融服务的包容性程度。但是,未成熟的人工智能也可能导致系统性风险并影响金融稳定可以看出,有必要监督金融领域的人工智能系统,但是当前对人工智能的监督仍然面临多个挑战。

  首先,责任方很难确定何时由人工智能提供的金融服务。在人工智能系统的设计和应用中,将涉及多个参与实体,包括使用人工智能提供服务的金融机构,培训师以及人工智能系统和设计公司的设计公司。当用户因人工智能提供或发生的服务而遭受或遇到其他问题时,他们没有监管法律责任方,并且尚未规定责任共享机制每个负责方。

  其次,人工智能提供与现有法律和法规分开的金融服务。以投资顾问为例,将人工智能应用于投资顾问,美国金融行业监管管理局(FINRA)指出,在没有人参与的情况下,投资顾问提供了投资顾问。根据美国证券监管委员会和美国证券监管委员会发布的“ 1940年投资顾问法”,人工智能不符合咨询顾问的标准。为投资者提供最合适的建议。但是,人工智能投资顾问无法对投资者帐户资产进行详细调查或详细咨询投资者,而投资者的关闭资产直接影响其全面的财务状况。在这种情况下,尚待质疑个性化投资是否最适合投资者。2016年4月1日,马萨诸塞州证券部门也发布了一份政策声明:由于人工智能投资顾问的缺陷,无法分析投资组合,这将导致它无法赢得客户的最大利益,即信托义务的失败,SOARTORTARDICSS Investment Investment Consultants不能用作受托人,也不能注册为马萨诸塞州的投资顾问。

  第三,没有统一的人工智能系统的信息标准。监管机构需要为人工智能系统制定信息披露标准,同时权衡过度披露和披露不足之间的矛盾。有两个要求人工智能信息披露的要求。一方面,有必要保护用户知道的权利,并充分披露人工智能系统的操作原则和操作;另一方面,需要保护人工智能系统的信息机密性,防止非法元素使用披露信息来“模仿”该系统,从而向金融机构或人工智能公司造成损失。人工智能过程是一个“黑匣子”。如何让公众理解人工智能的决策过程将很难披露信息。

  最后,人工智能提出了针对监管机构的新要求。对于人工智能的监督,监督人员需要掌握相关的人工智能知识。如果他们对与人工智能相关的知识一无所知,那么很难理解人工智能系统的运行,而且更难判断他们是否遵守监管要求。此外,监管机构需要评估该系统人工智能算法。仅在熟悉人工智能知识的基础上,调节器才能完成人工智能系统的评估过程,并确定评估方法是否合理。

  结论:以上是首席CTO注释如何监督人工智能的全部内容。感谢您阅读本网站的内容。我希望这对您有帮助。有关如何调节人工智能的更多信息,请在此站点上找到它。