吴恩达反对SB-1047法案:开源大模型与AI创新的潜在危机,生成式AI何去何从?

在7月12日的黎明时刻,国际知名AI专家吴恩达公开反对美国加州即将出台的SB-1047法案,指出其对开源人工智能模型的苛刻规定。他认为,该法案的根本错误在于试图监管开源大模型,而非基于这些模型的生成式AI产品。根据SB-1047,价值上亿美元的开源模型需提交年度安全报告,并对通过模型进行违法活动的开发者追究法律责任,这种类比于菜刀制造商因消费者犯罪而担责的法规被批评为荒谬。有趣的是,该法案意图限制中国使用Meta、谷歌等公司的开源模型参与生成式AI竞赛,但中国已有如阿里Qwen系列和零一万物Yi系列等受欢迎的开源大模型,其中Qwen-2性能超越Llama-3居首。

许多网友与吴恩达站在同一立场,认为SB-1047法案非但不能削弱中国在此领域的竞争力,反而可能阻碍美国的开源模型创新。法案看似针对大型公司如Meta,要求他们在发布时消除安全隐患,但可能忽视了其他闭源模型公司可能存在的问题。吴恩达提出,法案对于防止模型滥用和非法衍生产品的具体措施模糊不清,可能导致法律审查的恐惧。此外,StartupTrek创始人Stanley和加州大学伯克利分校教授Ion Stoica也表达了对法案的担忧,认为应监管AI应用而非模型本身。

SB-1047法案,即《前沿AI大模型安全创新法案》,自2月份提出以来经历了多次修订,即将进入关键投票阶段。科技界的反对声音强烈,OpenAI可能会从中受益,而图灵奖得主Yann LeCun则批评法案起草者,认为开源对于创新至关重要,法案将减缓生态系统的发展。

本文来源: ​ AIGC开放社区公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...