AI код Linux

Linux разрешил AI-код с маркировкой Assisted-by и полной ответственностью разработчиков

Linux Kernel Project официально утвердил правила использования AI-кода. Теперь он разрешён, но только с обязательным указанием и полной ответственностью человека. 

Linux kernel больше не пытается игнорировать или запрещать AI — проект закрепил новую реальность документом. Использовать инструменты вроде Copilot можно, но с одним жёстким условием: разработчик обязан явно указать участие AI через тег Assisted-by, а не привычный Signed-off-by.

По сути, каждую строку AI-кода «привязывают» к конкретному человеку. Ошибки, баги, уязвимости — всё ложится на того, кто нажал submit.


Политика вводит несколько конкретных правил:

  • AI-код разрешён, включая использование Copilot и других ассистентов
  • обязательная маркировка через тег Assisted-by
  • запрет на использование Signed-off-by для AI-генерации
  • полная юридическая ответственность остаётся за разработчиком

Если коротко — никто не запрещает писать код с помощью AI, но и «спрятаться» за нейросетью теперь не получится.

На фоне этого особенно интересно выглядит ситуация в других проектах. Например, экосистема Linux в целом активно растёт, но внутри неё давно накапливался конфликт вокруг AI. Одни дистрибутивы вроде Gentoo и NetBSD вообще запрещали такой код, считая его юридически «грязным».

Почему вообще дошло до правил?

Проблема не только в лицензиях. Хотя и они играют роль: AI обучается на коде с GPL и другими ограничениями, а значит происхождение строк становится мутным.

Главный раздражитель — это поток низкокачественных патчей. В индустрии даже закрепился термин AI slop: огромные куски кода, иногда на десятки тысяч строк, которые выглядят нормально, но ломаются в реальности.

Если вы следите за тем, как развивается AI в разработке, это выглядит знакомо: скорость выросла, а контроль — нет.

Были и громкие кейсы. Патч для Linux 6.15 от инженера NVIDIA оказался полностью сгенерирован AI — без указания этого факта. Код работал, но привёл к деградации производительности. И это прошло ревью.

После таких историй доверие внутри сообщества начало трещать.

Похожая ситуация случилась и вне ядра: в проекте GZDoom использование AI без disclosure фактически раскололо сообщество и привело к форку.

Сейчас это выглядит как попытка навести порядок без радикальных запретов. Не бороться с AI, а встроить его в процесс.

И тут есть важный момент: разработчики не против AI как инструмента. Их раздражает непрозрачность. Новый тег — это скорее про честность, чем про контроль.

Если посмотреть шире, Linux просто сделал то, к чему всё шло: признал, что AI уже часть разработки. Но поставил простое условие — отвечать всё равно будет человек.

Источник: Tom’s Hardware

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x