Apple проиграла ИИ-гонку? Или выиграла ту, о которой никто не говорит?

Apple проиграла ИИ-гонку? Или выиграла ту, о которой никто не говорит?

Все говорят об ИИ-гонке — кто построит самую крупную модель, кто потратит больше на дата-центры и GPU. В центре внимания — OpenAI, Google, Microsoft, NVIDIA. Apple же в этих разговорах либо отсутствует, либо фигурирует как аутсайдер: мол, Siri устарела, ИИ-функций нет, рывка не видно.

Но, возможно, мы смотрим не туда. Apple не участвует в гонке за масштабом. Она решает другую задачу — эффективный, локальный ИИ-инференс на устройствах, которые у вас уже есть.

Проблема памяти и шин

Большинство ИИ-вычислений сегодня происходят на GPU, где данные передаются из памяти CPU в память GPU и обратно. Это медленно, энергозатратно и создаёт узкое место — как если бы вы каждый раз ездили на автобусе, чтобы перенести вещи из одного здания в другое.

Apple решила эту проблему с помощью собственных чипов серии M. Благодаря унифицированной архитектуре памяти CPU, GPU и Neural Engine используют одну и ту же память. Данные не копируются — они просто находятся рядом. Всё — в одном здании.

Neural Engine: специализация вместо универсальности

CPU универсален, GPU параллелит тысячи операций, но ИИ-инференс требует миллионы операций умножения матриц. Neural Engine оптимизирован именно под них.

В M4 он выполняет 38 триллионов операций в секунду. В M5 нейронные ускорители встроены прямо в ядра GPU. Это не универсальные вычисления — это специализированная машина для ИИ.

Энергия и стоимость: реальные преимущества

Дата-центровый GPU NVIDIA H100 потребляет более 700 ватт. Mac Studio с M4 Ultra — значительно меньше. И его можно поставить на стол.

Для непрерывных задач — автоматизация, обработка данных в реальном времени — разница в энергопотреблении быстро превращается в экономию тысяч долларов в год. M4 может использовать 400 джоулей на инференс, облачный GPU — в 10 раз больше.

Локальный ИИ: другая гонка

Apple не строит дата-центры и не тренирует гигантские модели. Но её чипы позволяют запускать модели на миллиарды параметров прямо на устройстве — без облачной инфраструктуры.

Это медленнее, чем H100, но для большинства практических задач — достаточно. И главное: это дешевле, безопаснее и доступнее.

Другая гонка, другой победитель

Обучение моделей и массовый облачный инференс останутся за дата-центрами. Но для локального развёртывания Apple создала альтернативу.

Самая мощная ИИ-инфраструктура для вашего сценария может стоять у вас на столе. Apple не проиграла ИИ-гонку — она участвует в другой. И, возможно, выигрывает ту, что важнее для реального мира.

Им не нужны свои модели или дата-центры. Им нужны только их чипы — и они уже здесь.

Читать оригинал