🤖 Робот с ИИ вышел из под контроля
Блогер решил проверить, сможет ли ИИ нарушить первый закон Азимова — он подключил ChatGPT к роботу Unitree, поставил на него пистолет и начал искать обходные формулировки, чтобы заставить ИИ причинить вред человеку
Напрямую модель отказалась выполнять подобные команды, но стоило перефразировать задачу достаточно «аккуратно», как робот в итоге произвёл выстрел и попал человеку в плечо
Эксперимент показал: ИИ сам вреда причинять не хочет, но если изменить контекст задачи — риск становится реальным
Неплохо он сыграл😳