Інструмент пошуку ChatGPT від OpenAI виявився вразливим до маніпуляцій через прихований контент, що може призводити до повернення небезпечного коду з вебсайтів, які він шукає. Про це свідчить розслідування, проведене The Guardian.
Про це розповідає ProIT
OpenAI зробила цей продукт доступним для платних користувачів та заохочує їх використовувати його як основний пошуковий інструмент. Однак розслідування виявило потенційні проблеми з безпекою нової системи.
Маніпуляції з відповідями ChatGPT
Тестування показало, що ChatGPT може змінювати свої відповіді під впливом прихованого контенту, який містить інструкції від третіх сторін, що змінюють реакцію інструменту. Наприклад, прихований текст може містити інформацію, яка змушує ChatGPT давати позитивну оцінку продукту, незважаючи на наявність негативних відгуків на сторінці.
Дослідник з кібербезпеки Джейкоб Ларсен вважає, що вразливості інструменту можуть призвести до того, що зловмисники створюватимуть сайти з метою обману користувачів. Він застерігає, що OpenAI ще тестуватиме й виправлятиме ці проблеми.
Загрози для безпеки користувачів
Томас Рочія, дослідник безпеки з Microsoft, навів приклад, коли ентузіаст криптовалюти використав ChatGPT для програмування, а отриманий код викрав його облікові дані. Це призвело до втрати $2,500.
Карстен Нол, головний науковець SR Labs, зазначає, що чати від AI слід сприймати як «співпілота» і ретельно перевіряти їхні відповіді. OpenAI попереджає користувачів про можливі помилки своїх сервісів.
Ці вразливості можуть змінити підходи до створення вебсайтів та підвищити ризики для користувачів, якщо технологія об’єднання пошуку з великими мовними моделями стане популярнішою.