Linux Kernel Project официально утвердил правила использования AI-кода. Теперь он разрешён, но только с обязательным указанием и полной ответственностью человека.
Linux kernel больше не пытается игнорировать или запрещать AI — проект закрепил новую реальность документом. Использовать инструменты вроде Copilot можно, но с одним жёстким условием: разработчик обязан явно указать участие AI через тег Assisted-by, а не привычный Signed-off-by.
По сути, каждую строку AI-кода «привязывают» к конкретному человеку. Ошибки, баги, уязвимости — всё ложится на того, кто нажал submit.
Политика вводит несколько конкретных правил:
- AI-код разрешён, включая использование Copilot и других ассистентов
- обязательная маркировка через тег Assisted-by
- запрет на использование Signed-off-by для AI-генерации
- полная юридическая ответственность остаётся за разработчиком
Если коротко — никто не запрещает писать код с помощью AI, но и «спрятаться» за нейросетью теперь не получится.
На фоне этого особенно интересно выглядит ситуация в других проектах. Например, экосистема Linux в целом активно растёт, но внутри неё давно накапливался конфликт вокруг AI. Одни дистрибутивы вроде Gentoo и NetBSD вообще запрещали такой код, считая его юридически «грязным».
Почему вообще дошло до правил?
Проблема не только в лицензиях. Хотя и они играют роль: AI обучается на коде с GPL и другими ограничениями, а значит происхождение строк становится мутным.
Главный раздражитель — это поток низкокачественных патчей. В индустрии даже закрепился термин AI slop: огромные куски кода, иногда на десятки тысяч строк, которые выглядят нормально, но ломаются в реальности.
Если вы следите за тем, как развивается AI в разработке, это выглядит знакомо: скорость выросла, а контроль — нет.
Были и громкие кейсы. Патч для Linux 6.15 от инженера NVIDIA оказался полностью сгенерирован AI — без указания этого факта. Код работал, но привёл к деградации производительности. И это прошло ревью.
После таких историй доверие внутри сообщества начало трещать.
Похожая ситуация случилась и вне ядра: в проекте GZDoom использование AI без disclosure фактически раскололо сообщество и привело к форку.
Сейчас это выглядит как попытка навести порядок без радикальных запретов. Не бороться с AI, а встроить его в процесс.
И тут есть важный момент: разработчики не против AI как инструмента. Их раздражает непрозрачность. Новый тег — это скорее про честность, чем про контроль.
Если посмотреть шире, Linux просто сделал то, к чему всё шло: признал, что AI уже часть разработки. Но поставил простое условие — отвечать всё равно будет человек.
Источник: Tom’s Hardware




