该研究表明,通用人工智能工具的广泛采用给监管机构带来了他们可能难以应对的新挑战。事实上,如何规范OpenAI的聊天机器人ChatGPT等生成式AI工具,已经成为困扰全球决策者的一个问题。ChatGPT可以通过关键词生成任意类型的内容,通过输入大量的知识进行训练。它的解决方案将涉及评估风险,其中一些风险尤其应该受到密切监测。ChatGPT推出仅两个月后,AI聊天机器人就成为历史上增长最快的消费产品,仅1月份就有超过1亿活跃用户。这促使全球最大的科技公司纷纷关注或加速引入人工智能系统,为对话式人工智能领域带来了新的活力。微软正在其浏览器、搜索引擎和更广泛的产品线中嵌入对话式人工智能;谷歌计划对聊天机器人Bard以及Gmail和谷歌云中的其他集成进行同样的操作;百度等其他科技巨头正在推出自己的聊天机器人;Jasper和Quora等初创公司也在将生成式和对话式AI引入主流消费者和企业市场......它被用于医疗信息,它会导致误诊和医疗事故。如果用于填充模型的数据不多样化,也存在很高的偏差风险。虽然微软已经拥有更准确的再训练模型,并且AI21等供应商正在努力验证根据实时数据生成的内容,但生成“看起来真实但完全不准确”的人工智能响应的风险仍然很高。高的。欧盟内部市场专员ThierryBreton近日表示,即将出台的欧盟AI法案将包括针对ChatGPT和Bard等生成式AI系统的条款。“正如ChatGPT所展示的那样,人工智能解决方案可以为企业和公民提供巨大的机会,但它们也会带来风险。这就是为什么我们需要一个坚实的监管框架来确保基于高质量数据的可信赖人工智能。”他说。人工智能开发需要符合道德规范分析软件提供商SAS在一份名为《AI与负责任创新》的报告中概述了人工智能带来的一些风险报告作者柯克博恩博士说:“人工智能已经变得如此强大和无处不在,以至于越来越难以分辨真假和好与坏。”采用这项技术的速度明显快于监管。”SAS英国和爱尔兰数据科学负责人IainBrown博士表示,政府和行业都有责任确保AI被用于有益而非有害的用途。这包括使用道德框架来指导AI模型的开发,以及严格的治理以确保这些模型做出公平、透明和公平的决策。我们可以将AI模型与挑战者模型进行比较,并在新数据可用时对其进行改进。“其他专家认为,软件开发商将被要求降低其软件所代表的风险,只有风险最高的活动才会面临更严格的监管措施。”EdwardMachin,律师事务所Ropes&Gray助理数据、隐私和网络安全像ChatGPT这样似乎一夜之间出现的技术不可避免地会比法规更快地被采用,特别是在人工智能等已经难以监管的领域,他说。监管政策将陆续出台,监管方式和监管时机还有待观察。人工智能系统的供应商将首当其冲,但进口商和分销商(至少在欧盟)也将承担潜在的义务。这可能会使一些开源软件开发人员陷入困境。如何处理开源开发人员和其他下游各方的责任可能会对这些人创新和进行研究的意愿产生寒蝉效应。版权、隐私和GDPR法规Machin还认为,除了对AI的整体监管外,还存在与其生成的内容相关的版权和隐私问题。例如,目前尚不清楚开发人员是否能够轻松处理个人删除或更正请求(如果有的话),也不清楚他们如何以可能违反服务条款的方式从其网站上抓取大量数据纽卡斯尔大学在艾伦图灵研究所从事AI监管工作的法律、创新和社会教授莉莲·爱德华兹(LilianEdwards)表示,其中一些模型将受到GDPR法规的约束,这可能会导致删除命令训练数据甚至算法本身。如果网站所有者失去了人工智能搜索的流量,也会发生这种情况。意味着目前为谷歌等搜索引擎提供支持的互联网海量数据的终结。他指出,最大的问题是这些人工智能模型的通用性。这使得它们难以根据欧盟AI法案进行监管,该法案是根据所面临的风险起草的,因为很难判断最终用户将如何使用该技术。欧盟委员会正试图增加规则来管理此类技术。提高算法透明度可能是一个解决方案。爱德华兹说:“大型科技公司将开始游说监管机构,说,‘你不能将这些义务强加给我们,因为我们无法想象未来的每一种风险或用途’。有几种处理方法会有所帮助BigTech以一种或另一种方式,包括使底层算法更加透明。我们正处于困难时期,需要激励措施以实现开放和透明,以更好地了解AI如何做出决策和生成内容。她还说:“人们对更无聊的技术也有同样的问题,因为技术是全球性的,坏人无处不在,所以很难监管。”通用人工智能的行为很难与人工智能法规相匹配。AI咨询服务提供商DragonFly的首席技术官AdamLeonSmith表示:“世界各地的监管机构越来越意识到,如果不考虑AI技术的实际使用情况,很难进行监管。准确性和偏差要求只能在上下文中考虑在大规模采用之前,很难考虑使用、风险、权利和自由要求。“监管机构可以要求AI技术提供商的透明度和日志记录。但是,只有为特定目的操作和部署大型语言模型(LLM)系统的用户才能了解风险并通过人工管理或持续监控实施缓解措施。他加了。人工智能监管迫在眉睫。欧盟委员会内部就人工智能监管展开了大规模辩论,数据监管机构必须认真对待。最终,LeonSmith认为,随着监管机构越来越重视这个问题,AI供应商将开始列出该技术“不得使用”的用途,包括在用户登录前发布法律免责声明,将其淘汰基于风险的监管行动的范围。LeonSmith表示,目前管理AI系统的最佳实践几乎没有涉及大型语言模型,这是一个极其迅速的新兴领域。而且这个领域还有很多工作要做,很多公司提供这些技术,并不帮助定义它们。OpenAICTOMiraMuratti也表示,生成式AI工具需要监管,“对于像我们这样的公司来说,以可控和负责任的方式让公众关注这一点很重要。但她也表示,除了监管AI供应商,更多的投资需要人工智能系统,包括监管机构和政府。”
