Copilot — «только для развлечения»: что скрывает пользовательское соглашение Microsoft

Даже разработчики искусственного интеллекта напоминают пользователям: слепо доверять ИИ — плохая идея. И они сами это прописывают в условиях использования своих продуктов.

Microsoft, активно продвигающая Copilot среди корпоративных клиентов, оказалась в центре обсуждений из-за формулировок в пользовательском соглашении. В нём, как отмечают пользователи в соцсетях, до недавнего времени значилось: «Copilot — только для развлечения».

В документе компания предупреждает:

«Copilot может ошибаться и работать не так, как задумано. Не полагайтесь на него в вопросах, требующих важных решений. Используйте на свой страх и риск».

Представитель Microsoft сообщил изданию PCMag, что эти формулировки — пережиток прошлого. «С развитием продукта этот текст перестал отражать реальное использование Copilot и будет изменён при следующем обновлении», — пояснили в компании.

Не только Microsoft

Как отмечает Tom’s Hardware, Microsoft далеко не единственная компания, которая подстраховывается подобными оговорками. Другие крупные игроки рынка ИИ делают то же самое.

  • ОпенЭйАй (OpenAI) предупреждает, что её модели не следует использовать как «единственный источник правды или фактической информации».
  • иксАИ (xAI) Элона Маска заявляет: пользователи не должны воспринимать выводы ИИ как «истину».

Такие предостережения — не просто формальность. Они отражают ключевую проблему современных языковых моделей: даже самые продвинутые ИИ могут уверенно врать, если не контролировать их ответы.

Читать оригинал