人工智能领域正经历着范式转变,基础模型(如GPT - 4、LLAMA 2)处于核心位置,驱动着技术创新和大量投资。这引发了对其监管的广泛需求。而在关于如何监管基础模型的讨论中,模型的发布过程至关重要。近日, 由斯坦福大学基础模型研究中心主任Percy Liang领导的论文《Considerations for Governing Open Foundation Models》发表在Science,对开源大模型治理与监管进行了深入探讨 ,今天我们就一起学习一下这篇重要论文吧!
一、基础模型的发布方式多样
基础模型的发布呈现出多维的态势。从完全封闭(如Google DeepMind的Flamingo,仅模型开发者可用),到有限访问(如OpenAI的GPT - 4,公众可使用但为黑箱模式),再到更开放的形式(如Meta的Llama 2,模型权重广泛可用,允许下游修改和审查)。截至2023年8月,英国竞争与市场管理局的数据显示,公开披露模型最常见的发布方式是开放发布。
二、开放基础模型的利弊分析
(一)优势显著
(二)风险存争议
三、政策对开放基础模型的影响
(一)政策现状
世界各地政府都在**与基础模型相关的政策。例如,美国行政命令要求国家电信和信息管理局为总统准备一份关于开放基础模型的报告;欧盟对计算量少于1025浮点运算的开放基础模型可能有豁免;英国的AI安全研究所将考虑开源系统等。此外,人工智能伙伴关系也提出了基础模型安全部署的指导方针,不建议对最强大的基础模型进行开放发布。
(二)潜在问题
四、治理建议
开放基础模型具有重要意义,政策制定应综合考虑其利弊,避免对其创新生态造成不良影响。
原文链接:
© 版权声明