Даже разработчики искусственного интеллекта напоминают пользователям: слепо доверять ИИ — плохая идея. И они сами это прописывают в условиях использования своих продуктов.
Microsoft, активно продвигающая Copilot среди корпоративных клиентов, оказалась в центре обсуждений из-за формулировок в пользовательском соглашении. В нём, как отмечают пользователи в соцсетях, до недавнего времени значилось: «Copilot — только для развлечения».
В документе компания предупреждает:
«Copilot может ошибаться и работать не так, как задумано. Не полагайтесь на него в вопросах, требующих важных решений. Используйте на свой страх и риск».
Представитель Microsoft сообщил изданию PCMag, что эти формулировки — пережиток прошлого. «С развитием продукта этот текст перестал отражать реальное использование Copilot и будет изменён при следующем обновлении», — пояснили в компании.
Не только Microsoft
Как отмечает Tom’s Hardware, Microsoft далеко не единственная компания, которая подстраховывается подобными оговорками. Другие крупные игроки рынка ИИ делают то же самое.
- ОпенЭйАй (OpenAI) предупреждает, что её модели не следует использовать как «единственный источник правды или фактической информации».
- иксАИ (xAI) Элона Маска заявляет: пользователи не должны воспринимать выводы ИИ как «истину».
Такие предостережения — не просто формальность. Они отражают ключевую проблему современных языковых моделей: даже самые продвинутые ИИ могут уверенно врать, если не контролировать их ответы.