Meta表示可能停止开发被认为风险过高的AI系统

Meta 发布《前沿 AI 框架》,提出对高风险和关键风险 AI 系统的限制政策,强调在网络安全、生化武器等领域的潜在威胁。Meta 表示,将基于内部和外部专家评估决定是否发布 AI 系统,而非依赖单一量化指标。高风险系统将被限制访问,关键风险系统则可能停止开发。此举旨在平衡 AI 技术开放与社会安全,回应对其开放策略的批评,同时与 DeepSeek 等公司形成对比。Meta 强调,通过风险与收益的权衡,确保 AI 技术的社会效益与风险可控。

来源:TechCrunch AI

Back to top button