Что нам стоит мозг построить?

В этой статье в тезисной форме сравнивается энергоэффективность современных больших языковых моделей (LLM) и человеческого мозга.

Преамбула: разрыв в эффективности

Человеческий мозг эффективнее LLM в 10–30 миллионов раз по энергопотреблению на один когнитивный акт. Разница объясняется фундаментальными различиями в архитектуре, принципах обучения и физической реализации.

Цифры для понимания масштаба

Человеческий мозг:

  • Энергопотребление: ~20 Вт (всего)
  • Операций в секунду: ~10¹⁶ синаптических операций
  • Энергия на одну операцию: ~1–2 × 10⁻¹⁸ Дж (аттоджоули)
  • Энергоэффективность: 100 триллионов операций на ватт

Современная LLM (например, GPT-4):

  • Энергопотребление: ~1–3 МВт (тренировка) / ~1–10 кВт (инференс)
  • Операций в секунду: ~10¹⁵–10¹⁶ FLOPs
  • Энергия на одну операцию: ~10⁻¹²–10⁻¹⁰ Дж (пикоджоули)
  • Энергоэффективность: ~0,001–1 операция на ватт

То есть мозг выполняет в 100 миллионов раз больше «полезной работы» на единицу энергии, чем лучшие чипы, запускающие LLM.

Почему мозг так эффективен?

Причина 1. Аналоговые вычисления против цифровых

Мозг использует аналоговые процессы: нейроны интегрируют непрерывные градиенты ионных токов и мембранных потенциалов. Один синапс может выполнять сложные вычисления, для которых в цифровом мире нужны тысячи транзисторов.

LLM работают на цифровых чипах (GPU/TPU), где каждый бит требует отдельного транзистора. Умножение матриц требует миллиардов операций с плавающей запятой — это крайне расточительно.

Аналогия: мозг считает «на пальцах» с бесконечной градацией, а LLM перебирает гигантские таблицы умножения с 32-значными числами, даже когда нужно просто понять, что 2+2=4.

Причина 2. Рекуррентность и временная динамика

Мозг использует рекуррентные сети: один и тот же нейрон участвует в вычислениях многократно. Время становится ресурсом.

LLM на основе трансформеров статичны: каждый токен проходит через все слои за один проход. Чтобы обработать контекст из 1000 токенов, модель выполняет миллиарды операций.

Энергетический эффект: мозг «растягивает» вычисления во времени. LLM тратят энергию на параллельные операции.

Причина 3. Разреженность (sparsity)

В мозге одновременно активны лишь 1–10% нейронов. Это разреженное кодирование.

В LLM задействованы почти все параметры (например, 1,8 триллиона у GPT-4). Даже при инференсе активируется почти вся сеть.

Энергетический эффект: мозг включает только нужную подцепь. LLM греют всю планету, чтобы ответить на вопрос «как тебя зовут?».

Причина 4. Обучение один раз — использование многократно

Мозг обучается локально и постепенно. Для использования знаний не нужно обратное распространение ошибки (backpropagation).

LLM при обучении выполняют в 3–5 раз больше операций, чем при прямом проходе. Даже при инференсе они делают гигантское число умножений, которые мозг заменяет одной локальной операцией.

Энергетический эффект: мозг не делает «обратного хода» во время мышления. LLM выполняют ту же сложность, что и при обучении, только без изменения весов.

Причина 5. Использование физики для вычислений

Каждый синапс — молекулярная машина, работающая на энергии АТФ (~0,3 эВ). Переключение ионного канала требует ~10⁻²⁰ Дж — это уровень теплового шума. Мозг работает на пределе термодинамического минимума.

Транзистор в GPU переключается с энергией ~10⁻¹⁵ Дж — в 100 000 раз больше физического минимума. Умножение матриц требует миллионов таких переключений.

Ирония: природа за 3,5 миллиарда лет эволюции «вычислила», что химические градиенты и ионные токи энергетически выгоднее, чем электроны в кремнии.

Причина 6. Встроенная база знаний

Мозг — это не просто сеть, а сложная архитектура с врожденными структурами: зрительная кора, гиппокамп, мозжечок. Эволюция уже «заплатила» за них энергией.

LLM должны выучить всю структуру с нуля. Это требует сотен ГВт·ч на обучение (например, GPT-3), которые амортизируются, но остаются огромными.

Конкретный пример: ответ на вопрос

Задача: «В чем разница между метаном и этаном?»

Что делает мозг:

  • Активирует ~10 млн нейронов (из 86 млрд)
  • Проводит ~100 спайков каждые 100 мс
  • Изменяет ~10 синапсов (если запоминает)
  • Потребляет ~0,00003 Вт·ч (0,1 Дж)

Что делает GPT-4:

  • Загружает 1,8 трлн параметров
  • Выполняет 10¹⁶ операций умножения матриц
  • Ничего не меняет (инференс)
  • Потребляет ~10 кВт·ч (36 МДж)

Разница — в 360 миллионов раз.

Можно ли сделать LLM эффективнее?

LLM неэффективны по дизайну. Трансформер был создан для машинного перевода и оптимизирован под параллельность GPU, а не под энергоэффективность.

Но есть технологии, приближающие ИИ к мозгу:

  • Разреженные трансформеры: активируют 5–10% весов на токен. Работает, но сложно обучать.
  • Нейроморфные чипы (Intel Loihi, IBM TrueNorth, SpiNNaker): аналоговые вычисления, спайковые сети. В 10 000 раз эффективнее GPU, но не умеют обучать как LLM.
  • Квантование до 4–8 бит: уже используется. Снижает точность, но не критично.
  • Модели с «включением экспертов» (MoE): включают 10% параметров на токен. Используются в Mixtral, Gemini — в 5–10 раз эффективнее.
  • Жидкие нейронные сети (Liquid SNN): рекуррентные, с временной динамикой. На стадии исследований.

Но даже лучшие нейроморфные чипы в 1000 раз менее эффективны, чем мозг, потому что не используют биохимию (ионные каналы, молекулярные моторы).

Итог: можно ли догнать мозг?

Разница в энергопотреблении складывается из нескольких эффектов:

  • Аналоговые вычисления: ×10⁴ – 10⁶
  • Разреженность: ×10¹ – 10²
  • Рекуррентность: ×10¹ – 10²
  • Локальное обучение без backprop: ×10¹⁰ – 10¹⁴
  • Использование биохимии: ×10⁴ – 10⁵

Можно ли догнать? Теоретически — да. Если создать аналоговые спайковые чипы, работающие на пределе теплового шума, и научить их обучаться локально (например, по правилу STDP), то через 20–30 лет можно приблизиться к эффективности мозга.

Но для этого нужно отказаться от цифровой абстракции, 32-битной точности и backprop — то есть от всего, на чём построены современные LLM.

Пока LLM — это гигантский паровой молот, который забивает маленькие гвозди, потребляя энергию небольшого города.

Нейроморфные чипы: уже сейчас или ещё нет?

Короткий ответ: они уже существуют и доступны, но не для массового потребителя.

SpiNNaker2: нейроморфный суперкомпьютер с 5 млрд нейронов. Работает в Sandia National Laboratories и Дрезденском техническом университете. Доступен через облако. Полная конфигурация стоит несколько миллионов евро.

BrainChip Akida 2.0: чип для edge AI, работает на событийно-управляемых вычислениях. В производстве с 2026 года. Продает IP-лицензии производителям.

SynSense Xylo: ультранизкопотребляющие чипы (микроватты). Используются в носимых устройствах, IoT, медицинских BCI. Коммерчески доступны с 2023 года.

Innatera Pulsar: нейроморфный микроконтроллер с SNN и RISC-V. Доступен с 2025 года.

VectorWave: аналоговый ИИ-процессор для обработки RF-сигналов до оцифровки. Seed-раунд в 2026 году. Латентность — наносекунды.

Когда это станет доступно обычным людям?

Нейроморфные чипы не заменят ноутбуки и телефоны в ближайшие 5–10 лет. Три пути коммерциализации:

  • Облачные сервисы: аренда SpiNNaker2 — уже доступно.
  • Промышленные контроллеры: BrainChip Akida в роботах и датчиках — ближайшие годы.
  • Потребительские устройства: нейроморфные сопроцессоры в смартфонах — не раньше 2030 года.

Главные барьеры: отсутствие готового ПО, необходимость переобучать инженеров, масштабирование производства.

Рынок и стоимость

Рынок нейроморфных чипов:

  • 2025 год: $0,77 млрд
  • 2026 год: $0,87 млрд (рост 12,5%)
  • 2030 год: $1,38–1,92 млрд

Ключевой драйвер — робототехника. В 2023 году в Европе установлено более 92 тысяч промышленных роботов.

Оценка эксперта

Нейроморфные чипы — не технология будущего, а реальность. Но пока — в узких нишах: национальная безопасность, робототехника, умные датчики.

Обычный человек не купит такой чип в магазине в 2026 году. Но может арендовать нейроморфный суперкомпьютер в облаке — как AWS для GPU, только для спайковых сетей.

Главный барьер — софт. Спайковые сети плохо обучаются с backprop. Нужны локальные правила, как в мозге. Промышленного стандарта пока нет.

Переломный момент наступит, когда кто-то покажет LLM на нейроморфном чипе с той же производительностью, но в 10 000 раз меньшим энергопотреблением. По текущим темпам — это произойдёт в 2028–2030 годах.

Читать оригинал