🤷♂️ Ну что же, вернёмся к примеру!
🇨🇦 В 2023 году Air Canada проиграла судебное дело из-за собственного ИИ-ассистента
Чат-бот авиакомпании пообещал пассажиру компенсацию по тарифу, которой на самом деле не существовало. Клиент купил билет, ориентируясь на ответ бота, а позже компания отказалась выполнять обещание, заявив, что чат-бот «ошибся» и выдал некорректную информацию.
В суде Air Canada попыталась аргументировать, что бот — отдельная система, и компания не обязана отвечать за его формулировки.
Суд эту позицию не принял и обязал авиакомпанию компенсировать пассажиру разницу
✍️ Этот кейс стал показательным:
• ИИ дал неверный ответ
• Сотрудник напрямую ничего не обещал
• Формально никто лично не принимал решение
❗️Однако последствия легли на компанию
С тех пор подобные истории начали повторяться всё чаще: ассистенты консультируют, модели рекомендуют, алгоритмы принимают решения, а когда возникает ошибка, начинается поиск ответственного.
ИИ может работать автономно, но юридически и финансово ответственность всё равно возвращается к бизнесу. И именно здесь в 2026 году начинается самая интересная часть — кто будет отвечать дальше, когда решений станет в разы больше
LAYER 👨💻