Обращение к искусственному интеллекту по бытовым вопросам стало обыденностью для многих, но даже самые современные технологии могут допускать ошибки, угрожающие жизни. Один из пользователей Reddit оказался в опасной ситуации из-за некорректного совета чат-бота ChatGPT.
Об этом сообщает ProIT
Как ChatGPT дал потенциально смертельный совет
Инцидент произошел, когда мужчина обратился к ChatGPT за рекомендацией по очистке мусорных баков. В ответ искусственный интеллект предложил рецепт раствора, в состав которого входили уксус и отбеливатель. Такое сочетание категорически запрещено, поскольку при смешивании этих веществ образуется опасный газ хлор, который может привести к серьезному отравлению.
Пользователь, заметив ошибку, сразу предупредил чат-бота о опасности такой смеси. На это ChatGPT отреагировал, признав некорректность своего совета и оперативно исправив информацию. В ответ бот подчеркнул, что смешивание отбеливателя и уксуса чрезвычайно опасно и может вызвать выделение токсичного газа.
“Боже мой, нет, спасибо, что ты это заметил”, – ответил ChatGPT.
Опасность смешивания отбеливателя и уксуса
Специалисты подчеркивают, что сочетание этих веществ приводит к образованию газообразного хлора — ядовитого соединения, которое даже в малых дозах может вызывать сильное раздражение дыхательных путей, а в больших концентрациях — стать причиной тяжелого отравления или даже смерти.
Этот случай еще раз доказывает, что советы искусственного интеллекта стоит тщательно проверять, особенно когда речь идет о использовании бытовой химии или других потенциально опасных действиях.