摘要:美国总统拜登在今年10月签署了一项关键的行政命令,标志着美国政府对生成式人工智能的首次监管。此举旨在确保AI系统不会引发化学、生物、辐射、核及网络安全风险。拜登政府正在积极实施这一命令的具体内容,着重于人工智能系统的安全和信任。 美国商务部下属的国家标准与技术研究院(NIST)在这个过程中扮演着核心角色。NIST正着手制定评估和测试人工智能系统的指导方针,并设定相关行业标准。该机构计划在2月2日前进行关键的AI测试,并征集公众及AI企业的反馈,以确保系统的安全。 美国商务部长吉娜·雷蒙多强调,这些措施是基于拜登10月的行政命令,目的是确保美国在负责任地发展和使用AI技术方面继续保持全球领先地位。NIST特别强调了所谓的“红队”测试的重要性,该测试由模拟真实世界攻击者的专家团队进行,旨在评估和提高系统安全性。今年8月,美国在一次重大网络安全会议上首次公开进行了人工智能“红队”测试,该测试吸引了AI行业的广泛参与,有助于更好地理解AI系统可能带来的风险。
美国总统拜登在今年10月签署了一项重要的行政命令,标志着白宫对生成式人工智能进行首次监管。这一举措旨在确保人工智能系统不会引发化学、生物、辐射、核以及网络安全风险。拜登政府现正着手实施这一命令的具体内容。
在这个框架下,美国商务部的国家标准与技术研究院(NIST)扮演了关键角色。NIST正在制定评估和测试人工智能系统的指导方针,并制定相关的行业标准。为了收集公众和AI企业的反馈,NIST计划在2月2日之前进行关键的AI测试,这对于确保AI系统的安全至关重要。
美国商务部长吉娜·雷蒙多(Gina Raimondo)强调,这些努力是基于拜登在10月的行政命令,并旨在确保美国在负责任地开发和使用人工智能技术方面继续领先世界。该命令的目标是制定围绕AI安全、保障和信任的行业标准。
NIST特别强调了所谓的“红队”测试的重要性。这种测试涉及由专家团队模拟真实世界的攻击者,以评估和增强系统的安全性。NIST计划在其测试指南中包含“红队”测试,并制定相关的最佳实践,以帮助评估和管理人工智能风险。
今年8月,美国首次在一次重大网络安全会议上公开进行了人工智能“红队”测试。这次活动吸引了数千名参与者,包括AI行业组织如AI Village、SeedAI和Humane Intelligence。参与者测试了他们是否能够使这些系统产生不良输出或以其他方式失败,这有助于更好地理解这些系统可能带来的风险。白宫强调,这种外部“红队”测试是识别新型人工智能风险的有效工具。
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任