Linux 对 AI 生成代码制定规则:允许使用 Copilot 等辅助工具,人类承担失误责任
Linux内核新规:允许使用Copilot等AI编程工具,但人类开发者需承担所有代码失误责任。了解开源社区如何平衡AI辅助与代码质量。
4 月 12 日消息,据科技媒体 Tom's Hardware 今天报道,经历数月争论后,Linux 内核维护团队为 AI 生成代码制定正式准则,允许使用 GitHub Copilot 等辅助编程工具,但所有 Bug、安全问题最终都要由提交代码的人担责。

在此援引 Tom's Hardware,这项政策出台前,开源社区围绕 AI 的争论已经持续很长时间,并在今年 1 月达到高潮。当时英特尔工程师 Dave Hansen 和甲骨文员工 Lorenzo Stoakes,就“是否严格限制 AI 工具”产生激烈争吵。
最终 Linux 创始人 Linus Torvalds 亲自下场终结这场争论,称全面禁止 AI 只是毫无意义的作秀。
Linus Torvalds 的立场非常纯粹,认为 AI 只是工具。他认为提交垃圾代码的人本来就不会遵守规则,因此与其限制开发者用什么工具,不如直接追究‘提交者’的责任。这种强调结果的现实主义,与部分开源社区“见 AI 就踩一脚”形成鲜明对比。
不过这项政策出台之前,各大开源项目的做法各有不同,NetBSD、Gentoo 直接禁止 AI 生成代码,后者甚至认为大模型生成内容在法律上属于“污染”,因为训练数据的版权来源并不明确。
这就带出了另一个争议焦点:原创声明(DCO)。它要求开发者必须确保自己提交的代码拥有所有权,但 AI 大模型训练时使用的很多代码都受 GPL 等许可证约束。等于说开发者无法完全保证 AI 生成代码的来源合法性。
除了合规问题,开源社区维护者现在每天都要看到一堆 AI 垃圾代码,其中 cURL 被大量幻觉代码淹没,被迫关闭漏洞奖赏计划。Node.js 和 OCaml 收到上万行 AI 补丁,引发内部争议。
并且,社区成员也非常反感隐瞒使用 AI 的行为,例如 Sasha Levin 曾在未披露的情况下提交 AI 生成的 Linux 补丁,虽然代码能跑但性能非常差,连 Torvalds 都承认评审不充分。
而 Linux 非常直截了当,新规并不禁止 AI,但要求所有开发者必须写明代码是否由 AI 生成,同时将失误责任划分给人类开发者,等于是将“谁签字,谁负责”换成了“谁点提交,谁负责”。
- 1正惊GIF:有点嚣张了!颜值超绝美女两部手机太招摇,看呆旁边小伙
- 2当年《暗黑3》靠一个资料片翻身,《暗黑4》能复制这条路吗?
- 3《魔兽世界》乌龟服已被判决,永久停止运营!
- 4八年老厂轰然倒塌!韩国游戏公司破产,三款游戏同时停运
- 5四月新游大爆发,多款情怀作新游上线,《龙之谷》IP新作上线韩服
- 6「DNF手游」“TOP5套装排名”火了!平民玩家首选、实战体验才是最大加分项!
- 7怀旧周报:《热血传奇》25周年为骨灰粉授勋,《冒险岛》怀旧服正式开放预约
- 8纯手工打造!外媒盛赞《影之刃零》“行业清流”
- 9虚拟主播切错摄像头,结果中之人只穿内衣!粉丝惊喜发现中之人跟皮套一样“大”
- 10《梦幻西游》4月大改爆料视频抢先看!大唐横扫休息还能出手?天机城这次赢麻了!


