Для создания AGI нужно сделать шаг назад

Для создания AGI нужно сделать шаг назад

Современные языковые модели демонстрируют впечатляющие способности к рассуждению, но остаются инструментами. У инструмента нет выбора. Основа LLM — предсказание следующего токена. Основа агентных систем — оптимизация внешней целевой функции. В обоих случаях цель задаётся извне. Система не может пересмотреть её самостоятельно.

Можно возразить, что всё сказанное — глупость. Но я хочу предложить альтернативу: «сознание» возникает не из сложности вычислений, а из архитектуры, в которой «Я» — не метафора в промте, а функциональный компонент системы.

Нам нужно построить субъектность с нуля.

Немного вводных

Специалисты разных областей всё чаще говорят, что экстенсивный рост в микроэлектронике и в разработке больших языковых моделей исчерпал себя. Яркий пример — заявление сооснователя OpenAI Ильи Суцкевера:

Мы переходим от эпохи скейлинга к эпохе исследований

Обнаружены фундаментальные ограничения: данные конечны, вычисления дорожают, а качественные прорывы в поведении моделей замедляются. Возникает вывод: для достижения AGI нужна не оптимизация текущей парадигмы, а новая архитектура. При этом необходимая вычислительная мощность уже достигнута.

Существуют автономные агенты, например OpenClaw. Но, несмотря на все успехи, это по-прежнему инструменты для выполнения задач. AGI — это субъект, способный сам определять и ставить задачи. Получается, разработчики в достаточной мере создали «тело» для AGI, но пока не могут наполнить его сознанием.

В этой статье я не расскажу, как построить сознание для машин. Но попробую сделать маленький шаг в этом направлении.

Заранее оговорюсь: идеи и определения, которые я приведу, могут оказаться ошибочными. Пока не создан прототип и не проверена его эффективность, делать окончательные выводы бессмысленно. Критика крайне важна — особенно если я изобретаю велосипед. Заранее благодарю за комментарии.

Теоретические основания

Одна из главных проблем в создании AGI — отсутствие ответа на вопрос: «Что такое сознание?». Возможно, приблизиться к ответу помогает меметика. Эта теория утверждает, что наряду с ДНК (генами) у людей существует ещё один репликатор — мем, единица культурной эволюции. Нас интересуют три положения:

  1. Мемы как автономные агенты. В работах Дэниела Деннетта и Сьюзан Блэкмор развивается идея, что человеческое «Я» — не источник идей, а фильтр. Мы не придумываем мысли, а выбираем их из потока, порождённого культурной эволюцией и средой.
  2. Эго-туннель. Томас Метцингер в своей книге «Эго-туннель» утверждает: сознание — это виртуальная реальность, создаваемая мозгом. Внутри неё формируется модель самого себя как субъекта. Эта модель настолько прозрачна, что создаёт иллюзию «Я».
  3. Теория фильтра Дональда Бродбента. Согласно ей, мозг — не источник сознания, а фильтр, отбирающий наиболее значимые сигналы.

Были проведены исследования и симуляции. Вот ключевые наблюдения:

Конкуренция за внимание: мемы конкурируют за ограниченный ресурс внимания агентов.

Эволюция сложности: простые мемы постепенно усложняются до многослойных конструкций.

Вариативность: новые структуры появляются чаще, чем отбираются.

Эффект ореола: привлекательность источника влияет на передачу мема.

Культурное наследование: агенты предпочитают мемы, схожие с их собственной историей.

Теорию меметики часто критикуют — и не без оснований. Пока не доказаны её ключевые положения, и не проведены симуляции, где мемы приводят к возникновению сознания. Также отсутствуют исследования с равным взаимодействием генов и мемов. Кроме того, в разных работах используются разные определения сознания, субъекта, агента и других ключевых понятий.

Размышления

Чтобы сдвинуться с мёртвой точки, выдвинем гипотезу, проверим её в экспериментах и сделаем выводы.

Гипотеза: сознание агента проявляется в определённой архитектуре среды, где существуют, функционируют и эволюционируют мемы, при накоплении контекста из внешнего мира или симуляции и при наличии субъектности у агента.

Эта гипотеза не отрицает необходимости определённого уровня вычислительной мощности и сложности среды. Но она требует описать модель сознания, которая порождает субъектность, в которой можно наблюдать эволюцию мемов и в которой сознание может существовать.

Таким образом, задача сводится к поиску подходящей архитектуры. Главным результатом эксперимента станет синтез или имитация субъектности агента. Важно: цель не в создании сознания в общем смысле, а в получении одного аспекта — субъектности. Другие аспекты, такие как интеллектуальность или индивидуальность, могут быть добавлены позже как дополнительные слои.

Какая архитектура позволит имитировать субъектность?

Модель сознания

Задача: имитировать часть человеческого сознания и дать агенту возможность получать субъективный опыт.

Субъективный опыт формирует субъектность — или субъектность формирует субъективный опыт?

Опираясь на нейробиологию, меметику и теорию агентов, введём определения:

  • Симуляция — упрощённая модель реального мира с заданными законами, в которой изучается поведение агентов.
  • Агент — автономная сущность, воспринимающая среду через сенсоры, обрабатывающая данные с помощью внутренней модели и воздействующая на мир через эффекторы. Агент состоит из «тела» и «сознания».
  • Тело агента — интерфейс для взаимодействия сознания с симуляцией. Это проекция сознания в мире.
  • Сознание агента — субъективный образ объективного мира, обеспечивающий ориентацию и саморегуляцию. Оно порождает конструкцию «Я».

«Я» можно понимать по-разному:

  • В широком смысле — всё, что связано с агентом: сознание, мысли, память, субъектность, состояние тела, след в симуляции, воспоминания о нём у других агентов.
  • «Я» как субъект — сознание и тело, мыслительный процесс и управление.
  • «Я» как сознание — если сознание управляет телом, можно ограничить «Я» до сознания.

Продолжим сужать понятие «Я». Информация из симуляции — не часть «Я». Можно сузить «Я» до сущности, принимающей решения. Если бессознательное и сознательное участвуют в формировании мыслей, они тоже не входят в «Я». Остаётся конструкция «ЭГО-фильтр», включающая:

  1. World Model — предсказание событий.
  2. Self Model — скрытое состояние: «Я» + оценка состояния тела.
  3. Value Network — оценка действий.
  4. Goal System — проверка обучаемости (насыщения) модели.

ЭГО-фильтр обучается не на зашумлённых данных из симуляции, а на тестировании гипотез и обратной связи через тело. Если показатели тела ухудшаются — «Я» делает неверный выбор. Фильтр обучается когерентности (согласованности с моделью мира), а не максимизации внешней награды.

Так агент сможет выучить симуляцию, оптимально решить задачу выживания, и тогда Goal System зафиксирует насыщение модели. Чтобы избежать стагнации, можно ввести штраф за отсутствие изменений — аналог «скуки». Цель изменится: вместо выживания агент начнёт искать новое. Новая цель будет формироваться на основе субъективного опыта, полученного в симуляции.

Это открывает поле для исследований девиантного поведения. Можно добавить старение, генетический алгоритм и взаимодействие «родитель-ребёнок». Но это — тема отдельных исследований.

Самое узкое определение: «Я» — фильтр мыслей, способный реализовать их в мире через тело. В архитектуре этот блок называется ЭГО-фильтром.

Главная задача — обучение ЭГО-фильтра.

Сознательное и бессознательное

Если поток данных для ЭГО-фильтра зависит от групп «Сознательное» и «Бессознательное», их нужно предварительно обучить на искусственном датасете. Архитектура сохраняется: сначала обучается «Бессознательное». Данные можно разделить: звук — одна сеть, местоположение — другая и т.д.

Возникает вопрос: нужно ли помечать данные, чтобы показать влияние агента? Скорее нет — ведь именно это мы хотим получить на выходе группы «Сознательное».

Группа «Сознательное» формирует цепочки мыслей, создавая имитацию субъективного опыта и логики взаимодействия с миром. Сети в этой группе аналогичны, но с разными весами — для генерации разнообразных комбинаций.

Время для сознания и агента различно

Возьмём реальный пример: пешая прогулка из пункта А в В (~30 минут). Пока тело выполняет задачу, сознание может размышлять о чём-то другом. Именно в такие моменты приходят озарения. Лишать агента такой возможности — значит ограничить его потенциал.

Нужно переосмыслить кратковременную память. В ней должна быть фиксированная область для действий «в процессе». В момент размышлений активируется контур «Сознательное + ЭГО-фильтр», позволяющий думать без вмешательства в симуляцию.

Определим «эпоху» в двух смыслах:

  • В машинном обучении — полный проход по обучающим данным.
  • В философском смысле — цикл восприятия и коррекции, при котором модель «проживает» данные, уточняя внутреннюю карту связей.

Логично привязать эпохи к шагам агента. Например, если агент идёт по знакомому пути длиной N клеток, он может «размышлять» N-1 раз.

Дополнения к архитектуре

Интересно дать группе «Бессознательное» прямое влияние на тело — имитация рефлексов. Но правильность такого подхода под вопросом.

Контур «Сознательное + ЭГО-фильтр» логичен в статичном мире. Но при появлении других агентов или динамических объектов необходимо постоянно обновлять входные данные — проверять, нет ли новых угроз или возможностей.

Всё это усложняет и без того сложную модель. Пока я остановлюсь на этих рассуждениях.

В этой статье представлена общая концепция ЭГО-фильтра. Конкретную реализацию и применение к прикладным задачам я опишу в следующих публикациях.

Модель симуляции

В качестве симуляции можно взять, например, мир RimWorld. Многое уже реализовано, но для обучения нужно внести изменения:

  • Упростить игру: убрать оружие, экипировку, здания и строительство. Цель — выявить простые паттерны поведения и способность к логическим цепочкам.
  • Ограничить видимость вокруг агента и реализовать запоминание карты («туман войны»). Чтобы выжить, агент должен помнить местоположение воды или других ресурсов.
  • Добавить звуки. Каждая клетка (вода, дерево, животное) издаёт звук. Для агента — это дополнительный канал информации. Логика проста: чем ближе к источнику, тем громче звук.

Такие изменения сделают мир более комплексным. Будет интересно наблюдать, как в модели формируются ассоциации: «слышу звук воды» → «источник — вода».

Я опираюсь на принципы воплощённого ИИ, чтобы синтезировать свою систему.

Заключение

В моей архитектуре пока больше вопросов, чем ответов. Подтвердить, дополнить или опровергнуть теорию можно только в ходе экспериментов. Это — тема будущих статей.

Читать оригинал