Microsoft — или, как их ласково зовут в народе, «Микрослоп» — уже давно запихивает Copilot пользователям, агрессивно продвигая его как будущее профессиональной продуктивности. Однако такие издания, как TechCrunch, TechRadar, PCMag и другие, недавно раскопали, что в Условиях использования (Terms of Service) Microsoft чёрным по белому написано: Copilot предназначенисключительно для развлекательных целей. Интернет, мягко говоря, захлебнулся от хохота. К сожалению, всё гораздо хуже, чем думают люди, потому что это касается не только Copilot, а последствия куда глубже, чем кажется на первый взгляд.
Условия использования
Чтобы пользоваться Copilot, как и большинством современного софта, нужно согласиться сУсловиями использования. Итак, давайте разберёмся, что там на самом деле написано.
В разделе «Кодекс поведения» сказано:«Copilot предназначен исключительно для развлекательных целей. Он может допускать ошибки и работать не так, как задумано. Не полагайтесь на Copilot при принятии важных решений. Используйте Copilot на свой страх и риск».
Иными словами: Copilot недостаточно точен и надёжен, чтобы ему можно было доверить хоть сколько-нибудь важные задачи или использовать как источник информации. По сути, его следует воспринимать скорее как игрушку, а не как инструмент.
Но Microsoft на этом не остановился. В разделе «Важные предупреждения и раскрытия информации» написано:«Вы соглашаетесь освободить нас от ответственности и оградить от претензий (включая наших аффилированных лиц, сотрудников и прочих агентов) в связи с любыми исками, убытками и расходами (включая оплату услуг адвокатов), возникающими из или связанными с вашим использованием Copilot, включая, без ограничений, использование, распространение или публикацию любых запросов, ответов или созданных материалов, а также нарушение вами настоящих Условий или действующего законодательства».
Если перевести с юридического на человеческий: если вы используете Copilot как инструмент, а не просто для развлечения (ну знаете, именно так, как его рекламируют), то вы не имеете права предъявлять Microsoft претензии за любой ущерб, который он может нанести вам лично или бизнесу, в котором вы работаете.
Итак, давайте подведём итог. Этот инструмент, который преподносился как следующая великая революция в профессиональной продуктивности, настольконенадёжен, что Microsoft пришлось не только прямым текстом заявить, что это всего лишь развлечение, но и вынудить пользователей полностью отказаться от любого права привлечь компанию к ответственности за ущерб, причинённый этим ненадёжным, неточным ИИ, используемым в качестве профессионального инструмента. Что-то тут не сходится, правда?
Кто-то возразит, что эти Условия распространяются только на Copilot как персональный чат-бот и не касаются бизнес-инструментов Copilot. Но это так себе аргумент. Во-первых, многие компании всё равно используют эти индивидуальные версии Copilot как чат-ассистента. Во-вторых, люди используют Copilot как профессионального помощника и в личной, и в рабочей жизни — именно так его, собственно, и рекламировали. Ну и наконец, бизнес-инструменты Copilot построены на тех же самых ИИ-моделях, а значит, у них будут аналогичные проблемы.
И вот в чём штука: «Микрослоп» не одинок в этом юридическом словоблудии.
Кстати, об инструментах. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните наBotHub.
Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токеновдля первых задач и приступить к работе с нейросетями прямо сейчас!
Anthropic тоже в деле
Anthropic — компания, которая позиционирует себя как «менее злой» игрок в мире ИИ — занимается тем же самым. Их потребительскиеУсловияиспользования (при просмотре с европейского IP) гласят, что сервисы предназначены «только для некоммерческого использования» и что пользователи «соглашаются не использовать наши Сервисы в каких-либо коммерческих или деловых целях, и мы (и наши Поставщики) не несём перед вами ответственности за упущенную выгоду, потерю бизнеса, перебои в деловой деятельности или упущенные деловые возможности». Интересно, сколько разработчиков, увлечённо «вайбкодящих» с Claude Code, знают об этом.
Справедливости ради, Anthropic всё-таки получше Microsoft. Они не полностью снимают с себя ответственность за ущерб, который могут причинить их модели, — но жёстко ограничивают её. В Условиях сказано, что«совокупная ответственность Anthropic перед вами за любые убытки или ущерб, возникшие из или в связи с настоящими Условиями, будь то по договору, деликту (включая халатность) или иным основаниям, ограничивается бо́льшей из двух сумм: (a) сумма, уплаченная вами за доступ к Сервисам или их использование за шесть месяцев до события, повлёкшего ответственность, и (b) £100».
Сто фунтов. Сто. Фунтов. Вот во сколько Anthropic оценивает максимальный ущерб, который их ИИ может вам нанести. Сходите на них в кино.
Это ровно тот же трюк, что проделывает Microsoft. ИИ настолько неточен, что ему нельзя доверять серьёзные задачи, поэтому они заявляют, что его нельзя использовать в коммерческих целях (хотя именно так его преимущественно и рекламировали), а затем снимают с себя максимум ответственности за действия своего ИИ.
OpenAI не сильно лучше
В их Условиях использования нет запрета на коммерческое использование. Но, наверное, следовало бы, поскольку Copilot — это, по сути, перелицованный ChatGPT. Отсутствие такого запрета, скорее всего, объясняется не тем, что продукт лучше, а куда более безбашенным менталитетом Сэма Альтмана в духе «ломай всё и беги вперёд».
Зато в Условиях есть гигантский раздел, в котором пользователю тщательно разжёвывают, что доверять результатам ИИ не стоит. Например:«Результаты работы сервиса не всегда могут быть точными. Вы не должны полагаться на результаты наших Сервисов как на единственный источник истины или фактической информации, а также как на замену профессиональной консультации». Далее:«Вы обязаны оценивать результаты на точность и уместность для вашего случая использования, включая, при необходимости, проверку человеком, прежде чем использовать или распространять результаты работы Сервисов».
Другими словами: ИИ нельзя использовать для автоматизации чего-либо профессионального, а его результаты всегда должен проверять человек. Это практически означает «не для коммерческого использования» — просто без прямого произнесения этих слов.
А ещё они полностью снимают с себя любую ответственность за действия своего ИИ. В Условиях написано:«НИ МЫ, НИ НАШИ АФФИЛИРОВАННЫЕ ЛИЦА ИЛИ ЛИЦЕНЗИАРЫ НЕ НЕСЁМ ОТВЕТСТВЕННОСТИ ЗА КАКИЕ-ЛИБО КОСВЕННЫЕ, ПОБОЧНЫЕ, СПЕЦИАЛЬНЫЕ, ШТРАФНЫЕ ИЛИ ПОСЛЕДУЮЩИЕ УБЫТКИ, ВКЛЮЧАЯ УБЫТКИ ОТ ПОТЕРИ ПРИБЫЛИ, ДЕЛОВОЙ РЕПУТАЦИИ, ВОЗМОЖНОСТИ ИСПОЛЬЗОВАНИЯ, ДАННЫХ ИЛИ ИНЫЕ ПОТЕРИ, ДАЖЕ ЕСЛИ МЫ БЫЛИ ПРЕДУПРЕЖДЕНЫ О ВОЗМОЖНОСТИ ТАКИХ УБЫТКОВ».И вы можете быть уверены, что они это очень серьёзно имели в виду, потому что написали КАПСОМ.
Парадокс ответственности
Все три документа Условий использования говорят, по сути, одно и то же:
- ИИ ненадёжен, и ему нельзя доверять.
- Он может и будет причинять ущерб, если за ним не следить, и компании не несут за это ответственности.
- Этим ИИ нужно управлять в ручном режиме, проверяя каждый результат.
И тут возникает парадокс. ИИ позиционируется как инструмент продуктивности, способный дополнять или автоматизировать задачи и целые профессии. Но если он настолько неточен и опасен, что человеку приходится контролировать каждый его шаг, — каким, чёрт возьми, образом он может повысить продуктивность?
Я уже обсуждал эту тему в предыдущей статье, но множество исследований — например,работаМельбурнского университета — показывают, что ИИ слишком ненадёжен как инструмент продуктивности, потому что на микроменеджмент ИИ (отлавливание и исправление его бесконечных ошибок) уходитбольшевремени, чем он экономит.
Эти ИИ-компании пытаются и рыбку съесть, и на ёлку влезть. Якобы их ИИ настолько хороши, что могут заменить работников и вывести бизнес на новый уровень — именно этот нарратив накачивает пузырь ИИ-инвестиций. При этом они вынуждены предупреждать пользователей не доверять своим ИИ, потому что те опасно неточны, а заодно категорически отказываются нести ответственность за инструменты, которые выпускают в мир. Это одно из двух — нельзя получить и то, и другое одновременно.
Это не решается
Итак, какие из этого следуют выводы?
Начнём с того, что мы и так это знали. И ситуация не улучшится.
ВозьмёмисследованиеУниверситета Карнеги-Меллон, которое показало, что даже лучшие «агентные» ИИ проваливают базовые задачи в70 % случаев. Или другоеисследование, обнаружившее, что лучшие современные ИИ провалили97,5 %реалистичных фрилансерских задач из-за галлюцинаций и полных отказов. Мы знаем, что эти ИИ — всего лишь статистические модели; они не мыслящие машины, а значит, они будут статистически ошибаться и галлюцинировать с пугающей регулярностью. Не стоит удивляться, что мелкий шрифт ИИ-компаний предостерегает от коммерческого использования и умывает руки от любой значимой ответственности. Все это знают — включая сами ИИ-компании — что эти модели опасно неточны.
Но именно обещание, что когда-нибудь эти ИИ станут достаточно хорошими, подпитывает нынешний безумный уровень инвестиций. Чтобы создать ИИ-модели, способные заменить человеческих работников, гиперскейлеры буквально вливаютсотни миллиардов долларовв строительство всё более крупных дата-центров и обеспечение моделей всё бо́льшими вычислительными мощностями.
Вот только даже OpenAI знает, что это не сработает. В прошлом году ониопубликовалиисследование, которое показало, что наращивание вычислительной мощности или объёма данныхне способноснизить уровень «галлюцинаций» (частоту ошибок) ниже текущего порога. Более того, они не нашлиникакогоспособа уменьшить галлюцинации, что недвусмысленно намекает: эти модели обречены оставаться такими же ненадёжными, как сейчас. Недавняя работа Вишала Сикки и его сына Варина Сикки подкрепила эту идею, продемонстрировав, что ИИматематически неспособныбыть надёжными или выполнять вычислительные и агентные задачи сверх определённой сложности.
И что это говорит о сотнях миллиардов долларов, которые вливаются в ИИ ради «прорыва»?
Главный вывод
Если совсем просто: все эти факторы указывают на то, что генеративный ИИ —тупиковый экономический пузырь. Хайп и инвестиции совершенно не отражают реальность.
Эти документы Условий использования доказывают, что ИИ-компании, по крайней мере в какой-то мере, осознают это расхождение. Они знают, что их модели недостаточно хороши. Они знают, что те могут и будут причинять ущерб. Они знают, что значимого улучшения не будет.
И тем не менее, вместо того чтобы остановить безумие, они активно защищают себя юридически, продолжая раздувать хайп и накачивать пузырь — и всё ради того, чтобы набить свои и без того бездонные карманы.
Это история о жадности и обмане. И мы все знаем, чем она закончится.