前情回顾·大模型安全动态
大模型驱动的“网络安全军备竞赛”已经开启|RSAC 2023
安全大模型进入爆发期!谷歌云已接入全线安全产品|RSAC 2023
(资料图片)
安全响应进入AI竞速时代!微软推出基于大模型的安全运营助手
安全内参5月10日消息,美国白宫在上周四宣布,OpenAI、谷歌、Antrhopic、Hugging Face、微软、英伟达与Stability AI等顶尖人工智能提供商,将在DEF CON 31上共同参与对他们的生成式人工智能系统的公开安全评估。DEF CON是每年8月在拉斯维加斯召开的黑客大会,此次安全竞赛由人工智能黑客社区AI Village主办。
自去年开始,ChatGPT等大语言模型(LLM)迅速成为加快写作和交流任务的流行方式,但官方承认这些模型中也存在固有风险。混淆、越狱和偏见等问题给安全专业人士和公众带来了挑战。正因为如此,白宫科学、技术和政策办公室才支持对这些新的生成式AI模型进行极限测试。
白宫在声明中表示,“这项独立测试将为研究人员和公众提供关于这些模型的关键信息,并使得人工智能公司和开发人员能够采取措施以解决在模型中发现的问题。”声明还提到,此次活动符合拜登政府提出的《人工智能权利法案》和国家标准与技术研究院(NIST)的《人工智能风险管理框架》。
在AI Village发布的活动公告中,组织方Sven Cattell、Rumman Chowdhury和Austin Carson将其称为“有史以来规模最大的人工智能模型红队演习”。将有数千人参与对公共人工智能模型的评估,期间使用的评估平台由Scale AI负责开发。
所谓“红队”测试,是指安全专家尝试在组织系统中发现漏洞或缺陷,以提高整体安全性和弹性的过程。
AI Village创始人Sven Cattell表示,“只有让更多的人了解如何开展红队测试和评估人工智能模型,才能解决这些模型中的各种问题。”通过对人工智能模型组开展最大规模的红队演习,AI Village和DEF CON希望能培养出处理人工智能系统漏洞的研究者社区。
事实证明,大语言模型的锁定难度远超想象,部分原因在于所谓“提示词注入”技术。人工智能研究员Simon Willison详细介绍了提示词注入的危险,这种技术可以令语言模型偏离正轨,执行创建者想要回避的操作。
在DEF CON大会期间,参与者将通过主办方提供的笔记本电脑定时访问多个大语言模型。夺旗式积分系统将鼓励大家测试各种潜在威胁。最终,得分最高的参与者将获得英伟达高端GPU作为奖品。
AI Village公告中写道,“我们将公布从此次竞赛中得到的启发,帮助其他想要做类似尝试的人们。希望越来越多的人能知晓该如何使用大语言模型,了解这些模型的局限性。”
DEF CON 31将于8月10至13日在拉斯维加斯凯撒宫酒店举办。
参考资料:arstechnica.com
下一篇:最后一页
广告
X 关闭
广告
X 关闭
指数型基金怎么买?指数型基金和股票型基金有什么区别?
2023-04-27指数型基金指的是什么基金?指数型基金的选择标准是什么?
2023-04-27基金购买日确认日是多久?基金价格是按购买日还是确认日?
2023-04-27已知价原则是什么基金?已知价计算法是什么意思?
2023-04-27基金申购采取什么原则?为什么基金交易中采用未知价原则?
2023-04-27公司必须有资本公积吗?公积金转增股本后股价要除权吗?
2023-04-24资本公积金转增股本触发反稀释吗?资本公积金转增股本对股票有啥影响?
2023-04-24资本公积金转增股本是利好吗? 资本公积转增资本的作用是什么?
2023-04-24ROC指标是什么意思?ROC指标最佳参数指的是什么意思?
2023-04-21中国第一枚邮票是于哪年发行的?大龙邮票的是市场价值是多少?
2023-04-19