广泛的伦理和社会问题。五位Gartner分析师在一份报告《2021年预测:人工智能对人类和社会的影响》中预测2025年将发生的变化,特别关注所谓的人工智能的次要后果,即新技术的意外后果。例如,生成式AI现在可以为实际上并不存在的人和物体创建非常逼真的照片。Gartner预测,到2023年,20%的账户将被此类AI生成的深度造假所接管。该报告指出:“可以创建和生成超逼真内容的人工智能能力将对人们对他们眼睛所见事物的信念产生变革性影响。”就如何应对和适应这些未来挑战提出了建议:到2025年,预训练的AI模型将主要出现在1%的供应商中,这将使负责任地使用AI成为社会关注的问题到2023年,20%的成功客户接管攻击将使用deepfakes,它将成为社会工程攻击的一部分到2024年,60%的AI供应商将缓解/滥用作为其软件的一部分到2025年,10%的政府通过使用合成AI来避免隐私和安全问题到2025年,75%的工作场所对话将被记录和分析以用于增加组织价值和评估风险工作场所的隐私。如何应对如果Gartner分析师的预测准确无误,那么对人工智能隐私和真相影响的担忧必将在未来几年占据主导地位,成功的企业将需要做好准备以迅速适应这些担忧。报告中的一个重要主题是在依赖人工智能的公司(无论是服务还是产品)中建立道德委员会。Gartner表示,这对于计划记录和分析工作场所对话并建立有员工代表的董事会以确保公平使用对话数据的公司来说尤为重要。Gartner还建议公司制定负责任的AI使用标准,并优先考虑“能够证明AI能够明确开发和解决相关社会问题的能力”的供应商。至于围绕deepfakes和生成AI的安全问题,Gartner建议组织组织有关deepfakes的培训。“我们现在正在进入一个零信任的世界,”报告称。“除非使用加密的数字签名进行身份验证,否则什么都不能信任。”从长远来看,Deepfake检测软件的识别率将达到50%的峰值。据预测,到2023年,美国一家大型公司将采用对话分析来确定员工薪酬。这些分析以及潜在的解决方案中有很多值得担心的地方。
