近日,备受关注的SB1047法案在加州州长Gavin Newsom的否决声中落下了帷幕。
这个被誉为《前沿人工智能模型安全创新法案》的法案,旨在通过明确的安全标准防止高风险AI模型被滥用或引发灾难性后果。
经过长时间的争议和讨论,最终被州长否决。
SB1047全称SafeandSecureInnovationforFrontierArtificialIntelligenceAct,其意图从模型层面对人工智能进行监管,适用于在特定计算和成本阈值之上训练的模型。
该法案的标准计算方式和成本阈值引发了广泛的争议。
按照法案的规定,现在市面上所有主流的大型模型都可能被视为存在潜在危险。
法案还要求模型背后的开发公司对其模型的下游使用或修改承担法律责任,这一规定引发了人们对开源模型发布的担忧,甚至被称为“寒蝉效应”。
在法案被提交给加州州长之前,围绕它的争论已经非常激烈。
许多科学家、研究人员以及业界人士对法案可能带来的影响表达了自己的观点。
其中,李飞飞、Yann LeCun和吴恩达等都持反对态度。
他们认为,该法案可能会给人工智能领域带来不必要的负担和限制,影响创新和进步。
而马斯克、Hinton和Bengio等人则支持该法案。
州长在做出最终决定时,考虑了多方面的因素。
他在声明中提到,SB1047夸大了关于部署AI可能带来的威胁的讨论,并且该法案的监管门槛设置存在问题。
声明还指出,作为全球AI领域的领导者,加州在监管这项技术时需要谨慎和平衡。
虽然保护公众免受技术威胁是重要的,但也需要考虑适应性、经验轨迹分析以及对技术和系统的实际风险评估。
值得注意的是,虽然SB1047被否决了,但这并不意味着加州对AI安全问题置之不理。
相反地,州长明确表示了他对AI安全的重视,并宣布了一系列旨在确保AI安全应用的措施。
其中包括建立AI安全研究所、制定国家安全风险指南以及对AI在关键基础设施领域的应用进行风险评估等。
他还强调了与科学家和研究人员合作的重要性,以确保决策的科学性和合理性。
针对SB1047存在的问题和争议点,加州政府已经采取了新的措施来推进AI的安全和负责任部署。
除了之前提到的措施外,州长还提到了他要求全球领先的生成式AI专家帮助加州开发部署生成式AI的可行护栏的计划。
这一计划旨在通过对前沿模型及其能力和风险进行科学的轨迹分析来确保AI的安全应用。
李飞飞、Tino Cuéllar和Jennifer Tour Chayes等人都是该计划的重要成员之一。
他们的工作将重点考虑如何对AI的风险进行科学评估和管理以确保公众的安全和利益。
总的来说虽然SB1047法案未能通过但并不意味着人工智能监管的讨论就此结束相反地它引发了更广泛和深入的讨论关于如何平衡人工智能的创新和安全监管成为了全球范围内的焦点问题在这一问题上需要政府、科学家、研究人员以及社会各界共同努力找到最佳的解决方案以保护公众的利益和安全同时也需要适应技术的发展和创新以适应未来社会的需求和挑战总之人工智能的未来需要更多的讨论和努力以推动其在安全和负责任的道路上不断发展并为人类社会带来更大的利益和发展机遇。
面对未来人工智能的快速发展和挑战我们必须保持开放的态度与审慎的眼光权衡其带来的利益与风险并采取有效的措施确保人工智能的应用符合道德和法律的要求同时也需要保持创新和进步的精神以应对未来可能出现的挑战相信在全社会的共同努力下我们能够推动人工智能的发展造福人类社会的进步和发展。
对于未来的人工智能监管之路我们期待更加科学、合理和全面的决策以确保人工智能的健康发展并为人类社会带来更多的机遇和挑战创造一个更加美好的未来。
本文地址: https://www.gosl.cn/hlzxwz/d8b4fe1fcc87c00e4f15.html
上一篇:一探前沿科技领域揭示未来机器人发展的无限...