Похоже, дискуссия о том, наступил ли искусственный общий интеллект (AGI), выходит на новый уровень. Основатель Eliza Labs Шоу Уолтерс в интервью заявил прямо: по его мнению, человечество уже достигло AGI — просто в непривычной форме.
Я внимательно изучил его аргументы. И если отбросить хайп, заявление действительно звучит провокационно. Уолтерс считает, что современные модели ИИ уже демонстрируют «общий интеллект» — пусть и не похожий на человеческий.
AGI уже здесь? Аргументы разработчика
По словам Уолтерса, текущие флагманские модели соответствуют его определению AGI: они способны решать широкий спектр задач, обучаются, адаптируются и проявляют универсальность. «Это нечто совсем не похожее на нас, но это интеллект — и довольно общий», — отметил он.
Интересно, что он не верит в сценарий единственного доминирующего «AI-бога». Напротив, будущее он видит как экосистему множества вариаций интеллектуальных систем. Такой взгляд заметно отличается от популярных нарративов о сингулярности.
Уолтерс начал работать с агентами ещё во времена GPT-3, когда добиться структурированных ответов было крайне сложно. По его словам, настоящий прорыв произошёл после выхода GPT-4 — модели стали выдавать более стабильные и пригодные для автоматизации результаты. Именно тогда стало возможно создавать автономных агентов, способных выполнять реальные действия.
Сегодня AI-агенты уже интегрируются в криптоплатформы и цифровые сервисы. Некоторые получают доступ к кошелькам и инфраструктуре блокчейна. И вот здесь начинается самое интересное.
Риски автономных агентов и безопасность
По мере роста автономности систем усиливаются и угрозы. Уолтерс предупреждает: чем ближе ИИ к универсальности, тем больше он напоминает человека — а значит, может ошибаться. Абсолютно «непробиваемую» систему безопасности создать невозможно.
Речь идёт о таких рисках, как prompt injection, компрометация кошельков и неконтролируемые действия агентов. Особенно актуально это для Web3 и криптосервисов, где автономные системы получают root-доступ к активам.
Любопытно, что на фоне этого заявления в индустрии усиливаются споры о том, что считать настоящим AGI. Ранее я уже разбирал тему практического применения ИИ в материале о переходе OpenAI к прикладным моделям, и здесь видна общая тенденция — рынок всё меньше говорит о теории и всё больше о реальных инструментах.
Отдельный вопрос — безопасность плагинов и агентных фреймворков. На фоне недавних инцидентов, связанных с экосистемой OpenClaw, о которых я писал в статье о рисках плагинов OpenClaw, тема выглядит особенно актуально.
Лично я бы не стал утверждать, что AGI уже наступил в классическом понимании. Но очевидно другое: граница между «узким» ИИ и универсальными системами стремительно размывается. И если раньше вопрос звучал как «когда появится AGI», то теперь всё чаще — «как мы поймём, что он уже здесь?»
Именно этот сдвиг восприятия сейчас и происходит.
Источник: Decrypt




