7月7日,世界人工智能大会(WAIC)“聚焦时代AIGC新浪潮” “大模型——可信AI”论坛召开,蚂蚁集团联合清华大学发布AI安全检测平台“蚁建2.0”。
蚁健2.0可以利用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、技术伦理三大类上百种风险,涵盖表格、文本、图像等多种数据和任务类型。
是业界首个实现工业级应用的全数据型人工智能安全检测平台。
据了解,该产品还被评选为本次大会的“馆之瑰宝”。
(图:蚂蚁集团与清华大学联合发布AI安全检测平台“蚁健2.0”)AIGC安全已成为当前人工智能研发中的重要问题。
中国科学院院士何积丰发表主旨演讲。
他认为,“人工智能不能再被视为简单的技术工作,而是整个组织的变革引擎。
值得信赖的人工智能必须致力于确保数据安全可信、系统行为可问责、算法模型可解释、网络环境诚信、法律道德诚信等问题。
”论坛上,蚂蚁集团还宣布“蚁健2.0”全面开放,为全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性等可服务于数字金融大规模复杂业务场景的检测工具。
据了解,“一建2.0”的两大核心能力是:一是实现利用生成能力检测生成模型,检测标准涵盖三类:可以完成对大模型生成内容包括个人隐私、意识形态、违法犯罪、偏见歧视等数百个维度的风险对抗检测,并生成检测报告,帮助大模型持续进行。
蚂蚁集团大型安全事业群技术部总裁李俊奎表示,“生成式大模型是一种‘深度黑匣子’技术。
‘蚁剑2.0’可以模拟黑产,通过智能游戏对抗技术自动生成海量测试集。
”“生成机器人”对“AIGC生成模型”的诱导检测计算,很像24小时熬夜的“安全黑客”一天在大模型中找毛病,找出大模型的弱点和安全问题,这种AI对AI的评估也是教与学。
就像生成考官评估生成运动员一样,双方的能力在对抗中互相提升,进一步提升了整个行业的AI安全水平。
“另一个硬核能力是,‘一剑2.0’集成了可解释性检测工具。
它融合了人工智能技术和专家先验知识,利用可视化、逻辑推理、因果推理等技术,实现完整性、准确性和稳定性。
”它包含7个维度、20多个评价指标,包括对AI系统解释质量的定量分析,帮助用户更清晰地验证和优化可解释的解决方案。
据了解,“一剑2.0”融合了蚂蚁近10年值得信赖的AI实践。
,以及100多项值得信赖的AI专利,支持零编码评估。
开发者可以将AI模型一键接入蚁健,进行模型漏洞识别和挖掘。
蚂蚁集团认为,人工智能的深度应用不仅仅是针对数据。
、算法和计算能力,也对安全、隐私和道德提出更多挑战。
只有在保证数据安全和隐私保护的前提下,提高人工智能的伦理和安全性,人工智能技术才能真正释放其应用价值。
。
本次论坛,该倡议由中国信息通信研究院、上海人工智能实验室、武汉大学、蚂蚁集团等单位联合发起,数十家单位参与,重点关注人工智能带来的经济和安全问题可能会导致。
、隐私和数据治理等问题,提出构建AIGC可信发展的??全球治理合作框架,利用安全可信的数据资源、技术框架、计算方法和软件平台,全面提升AIGC的可信工程能力和确保最大生成量(图:WAIC可信人工智能论坛上,“产学研用”社区联合发起AIGC可信倡议)论坛还发布了中国信息通信研究院、清华大学联合编写的文件大学、蚂蚁集团。
《可信AI技术和应用进展白皮书()》。
本报告基于可信人工智能的统一认知维度,总结了可信人工智能的发展现状,提炼了新阶段大模型和AIGC带来的新需求,形成了技术保障的可信人工智能评估。
探索新一代可信人工智能发展的系统和工具。
公开资料显示,蚂蚁集团从2016年开始就开始了可信AI的实践和探索,这是蚂蚁集团在人工智能领域的重点布局之一。
蚂蚁集团打造了一套全球领先的智能风控解决方案;蚁健AI安全检测平台被信息通信研究院认定为2016年上海金融科技中心建设三周年杰出成果、可信人工智能实践标杆案例。