искусственный общий интеллект AGI

Основатель AI-стартапа заявил: AGI уже наступил — но это не «ИИ-бог»

Похоже, дискуссия о том, наступил ли искусственный общий интеллект (AGI), выходит на новый уровень. Основатель Eliza Labs Шоу Уолтерс в интервью заявил прямо: по его мнению, человечество уже достигло AGI — просто в непривычной форме.

Я внимательно изучил его аргументы. И если отбросить хайп, заявление действительно звучит провокационно. Уолтерс считает, что современные модели ИИ уже демонстрируют «общий интеллект» — пусть и не похожий на человеческий.

AGI уже здесь? Аргументы разработчика

По словам Уолтерса, текущие флагманские модели соответствуют его определению AGI: они способны решать широкий спектр задач, обучаются, адаптируются и проявляют универсальность. «Это нечто совсем не похожее на нас, но это интеллект — и довольно общий», — отметил он.

Интересно, что он не верит в сценарий единственного доминирующего «AI-бога». Напротив, будущее он видит как экосистему множества вариаций интеллектуальных систем. Такой взгляд заметно отличается от популярных нарративов о сингулярности.

Уолтерс начал работать с агентами ещё во времена GPT-3, когда добиться структурированных ответов было крайне сложно. По его словам, настоящий прорыв произошёл после выхода GPT-4 — модели стали выдавать более стабильные и пригодные для автоматизации результаты. Именно тогда стало возможно создавать автономных агентов, способных выполнять реальные действия.

Сегодня AI-агенты уже интегрируются в криптоплатформы и цифровые сервисы. Некоторые получают доступ к кошелькам и инфраструктуре блокчейна. И вот здесь начинается самое интересное.

Риски автономных агентов и безопасность

По мере роста автономности систем усиливаются и угрозы. Уолтерс предупреждает: чем ближе ИИ к универсальности, тем больше он напоминает человека — а значит, может ошибаться. Абсолютно «непробиваемую» систему безопасности создать невозможно.

Речь идёт о таких рисках, как prompt injection, компрометация кошельков и неконтролируемые действия агентов. Особенно актуально это для Web3 и криптосервисов, где автономные системы получают root-доступ к активам.

Любопытно, что на фоне этого заявления в индустрии усиливаются споры о том, что считать настоящим AGI. Ранее я уже разбирал тему практического применения ИИ в материале о переходе OpenAI к прикладным моделям, и здесь видна общая тенденция — рынок всё меньше говорит о теории и всё больше о реальных инструментах.

Отдельный вопрос — безопасность плагинов и агентных фреймворков. На фоне недавних инцидентов, связанных с экосистемой OpenClaw, о которых я писал в статье о рисках плагинов OpenClaw, тема выглядит особенно актуально.

Лично я бы не стал утверждать, что AGI уже наступил в классическом понимании. Но очевидно другое: граница между «узким» ИИ и универсальными системами стремительно размывается. И если раньше вопрос звучал как «когда появится AGI», то теперь всё чаще — «как мы поймём, что он уже здесь?»

Именно этот сдвиг восприятия сейчас и происходит.

Источник: Decrypt

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x