ИИ открывает перед нами огромные возможности, но иногда даже самые умные технологии дают сбои. Делимся реальными историями в наших карточках.
Мы собрали яркие примеры таких ошибок, чтобы показать: без знаний и подготовки пользоваться ИИ может быть рискованно (но иногда выходит забавно, конечно 🤭). Пока люди не придумали гениального сверхробота, искусственный интеллект нуждается в разумном управлении. Чтобы научиться эффективно пользоваться нейросетями и заранее знать, где они могут оплошать, приходите на наш курс «Нейросети для учёбы и жизни» ⭐️
🍕 Google советовал есть камни и добавлять клей в пиццу
В 2024 году новая ИИ-функция Google дала «советы» на основе непроверенных источников. Один из них предлагал добавлять клей в соус для пиццы, другой — проглатывать камни для получения витаминов. Это произошло потому, что ИИ не проверял достоверность информации, а принимал шутки с сатирического сайта за правду.
📩 Чат-бот почтовой службы начал ругаться
Клиент службы DPD, не получивший ответа на вопрос о пропавшей посылке, научил чат-бота ругаться. Бот начал охотно сочинять стихи с критикой компании и отвечать пользователям ненормативной лексикой. Компания быстро отключила бота, но этот случай показал, как легко манипулировать нейросетями.
🍦 ИИ-ассистент продал мороженое с беконом
В американском «Макдоналдсе» тестировали искусственный интеллект для голосовых заказов. Вместо карамельного мороженого клиенты получали странные комбинации: наггетсы за $100, масло в упаковках и мороженое с беконом. После таких ошибок компания отказалась от использования технологии, но пообещала доработать её в будущем.