Сегодня в выпуске — сомнения в теории смешения Homo sapiens с неандертальцами и опасная иллюзия контроля человека над военным искусственным интеллектом.
Заблуждение о «внутреннем неандертальце»
Многие считают, что у современного человека есть «внутренний неандерталец» — отголосок древнего смешения Homo sapiens с их родственниками. Эта теория основана на находках следов неандертальской ДНК у нынешних людей.
Открытие стало одним из самых громких в изучении эволюции человека. Но в 2024 году два французских генетика пошатнули саму основу этой идеи.
Они предположили: то, что учёные принимают за признаки скрещивания, на самом деле может быть результатом структуры популяций — когда гены концентрируются в изолированных группах.
«Человек в петле» в ИИ-войне — это иллюзия
Искусственный интеллект уже влияет на реальные военные конфликты. Он в центре юридической битвы между Энтропик (Anthropic) и Пентагоном и играет всё большую роль в противостоянии с Ираном.
По правилам Пентагона, человек должен оставаться «в петле» — обеспечивать контроль, контекст и безопасность. Но эта идея скорее успокаивает, чем отражает реальность.
Главная угроза не в том, что машины будут действовать без контроля. А в том, что контролирующие их люди не понимают, что именно делает и «думает» система.
К счастью, наука может предложить пути решения — если начать действовать уже сейчас.
Главные новости дня
- Белый дом переговоривает о доступе к новой модели Энтропик, несмотря на её блокировку. Модель Мифос (Mythos) была признана слишком опасной для публичного выпуска. В то же время компания представила менее рискованную альтернативу — Клод Опус 4.7 (Claude Opus 4.7).
- Сэм Олтман (Sam Altman) вызывает вопросы из-за своих тёмных инвестиций. Его личные вложения могут влиять на решения в ОпенЭйАй (OpenAI). Тем временем суд скоро решит, нарушила ли компания свою первоначальную миссию.
- Сбой в Старлинк (Starlink) во время испытаний дронов вскрыл зависимость Пентагона от СпейсЭкс (SpaceX). Это уже не первый сбой, связанный с военными тестами ВМС.
- Задержки строительства дата-центров угрожают росту ИИ. 40% проектов этого года могут сорваться — отчасти потому, что никто не хочет крупные центры обработки данных рядом с домом.
- Alibaba представила собственную «модель мира» — Хэппи Ойстер (Happy Oyster). Это попытка расширить способность ИИ понимать физическую реальность. Но модели всё ещё не хватает понимания причинно-следственных связей.
- Гемини (Gemini) от Google теперь создаёт изображения на основе личных данных пользователей. Система анализирует активность в сервисах Google, чтобы сократить необходимость в детальных запросах.
- ОпенЭйАй улучшает свою систему автономного программирования. Обновлённый Кодекс (Codex) — прямой ответ на Клод Код (Claude Code). Однако не все верят в будущее ИИ-программирования.
- В Европе запустили бесплатное приложение для верификации возраста в интернете. Оно доступно для любой компании, желающей его использовать.
- Умные очки с ИИ-переводом вдохновляют корейские театры на мировую экспансию. Они помогают зрителям по всему миру понимать постановки в реальном времени.
- Глобальные дублёры борются с использованием ИИ в Голливуде. Их голоса используют для обучения моделей, которые в итоге их заменяют.
Цитата дня
«Сейчас и до какого-то времени в будущем преимущество будет явно на стороне наступательного ИИ».
— Роб Джойс (Rob Joyce), бывший директор по кибербезопасности Агентства национальной безопасности США, о новых угрозах со стороны ИИ.
Гонка за редкоземельными элементами
Доступ к редкоземельным элементам определит, какие страны смогут достичь целей по снижению выбросов и переходу на энергетику без ископаемого топлива.
Китай доминирует на рынке, а добыча в США ограничена. Из-за этого учёные и компании ищут нетрадиционные источники — от переработки до извлечения из промышленных отходов.
