据美国多家媒体日前报道,美国政府正考虑对人工智能(AI)模型在公开发布前实施安全审查,并酝酿通过行政令设立跨部门工作机制,研究相关监管方案。该动向被视为美国政府在AI监管方面的政策从“放松”趋向“收紧”,其背后有何考量?
据《华尔街日报》等媒体报道,美国政府5日宣布与谷歌、微软及xAI公司达成新的合作协议,使政府能够在相关AI模型正式公开发布前对其进行评估,并在模型发布后开展评估及相关研究工作。美商务部下属人工智能标准与创新中心将负责牵头实施。
《纽约时报》援引美国政府官员及知情人士的话报道说,白宫正在讨论签署一项行政令,成立由政府官员和科技企业高管组成的AI工作组,研究包括在新AI模型发布前引入政府审查机制在内的多种监管路径,以评估潜在安全风险。白宫已就相关设想与Anthropic、谷歌、开放人工智能研究中心在内的多家科技企业进行沟通。
自美国总统特朗普第二任期以来,美国政府对AI行业总体采取较为宽松的监管立场,强调减少干预、鼓励创新,并撤销拜登政府时期要求企业对高风险模型开展安全评估并上报的相关措施。
分析人士认为,推动特朗普政府在AI监管问题上态度转变的重要因素之一,是近期部分高性能模型显现安全隐患。Anthropic公司上月推出的新模型“克劳德神话”在识别软件漏洞方面表现突出,但可能会被网络攻击者利用。该公司以“网络安全风险过高”为由,宣布暂缓向公众开放“克劳德神话”预览版,仅向少数合作伙伴受控开放。舆论认为,这类技术突破使AI风险从潜在可能走向现实,监管紧迫性日益凸显。
与此同时,国家安全因素也在影响政策方向。美国政府还在评估新的AI模型能否带来对国防部和情报机构有用的网络能力。例如,美国国家安全局近期也在利用“克劳德神话”模型评估政府软件系统中的安全漏洞。
《纽约时报》援引特朗普政府官员及知情人士的话报道说,白宫希望避免因AI引发的毁灭性网络攻击而造成的任何政治后果。
在政策酝酿过程中,各方博弈逐渐显现。美国两党在AI风险问题上的共识有所增强,公众对AI在就业、能源价格、隐私及心理健康等方面潜在影响的担忧持续上升。但一些科技企业担心,过度监管可能削弱美国在AI领域的创新优势和技术竞争力;也有观点认为,在关键安全领域引入必要监管,有助于行业长期发展。
目前来看,美国政府相关政策仍处于酝酿阶段。分析人士认为,美国政府内部在监管方式和监管力度等方面仍存分歧,白宫仍在观察各方反应,为政策选项保留空间。未来一段时期,美国或将在促进技术发展与防范潜在风险之间寻求平衡。随着AI技术持续发展,其治理问题正成为影响网络安全和全球科技竞争格局的重要变量。
(文章来源:新华网)
