ChatGPT вже став невід’ємною частиною повсякденного життя. Кожного дня понад 100 мільйонів людей звертаються до нього з мільйоном запитів. Проте експерти попереджають, що цей популярний бот є «чорною дірою приватності», здатною поставити під загрозу ваші особисті дані.
Про це розповідає ProIT
Творець ChatGPT, компанія OpenAI, відкрито наголошує на тому, що дані, введені користувачами, не є гарантовано захищеними. Вони можуть використовуватися для подальшого навчання моделей або переглядатися людьми для перевірки дотримання правил використання. Крім того, будь-яка інформація, передана в хмарний сервіс, залежить від рівня його безпеки. Отже, все, що ви пишете боту, слід вважати потенційно публічним.
Що категорично не можна вводити у спілкуванні з чат-ботами
Щоб убезпечити себе, варто знати, які дані не слід передавати чат-ботам.
- Незаконні або неетичні запити
Більшість штучних інтелектів мають вбудовані механізми для запобігання їх використання у протиправних цілях. Якщо ваш запит стосується вчинення злочину чи шахрайства, ви ризикуєте не лише заблокувати свій обліковий запис, але й бути повідомленими правоохоронним органам. Закони різних країн мають свої особливості: наприклад, у Китаї заборонено використовувати ШІ для підриву державної стабільності, а в ЄС вимагають маркування глибоких фейків. - Логіни та паролі
Не рекомендується передавати логіни та паролі через публічні чат-боти, адже існують випадки, коли дані одного користувача випадково з’являлися у відповідях інших. Це може спричинити серйозну загрозу для вашої безпеки. - Фінансова інформація
Важливо уникати розголошення даних банківських рахунків або кредитних карток. Справжні платіжні системи мають заходи безпеки, чого не скажеш про чат-боти, і це може призвести до крадіжки грошей або викрадення особистості. - Конфіденційна інформація
Кожен користувач несе відповідальність за збереження конфіденційних даних, з якими працює. Це особливо актуально для професіоналів, які мають доступ до внутрішньої інформації. У 2023 році став відомим випадок з працівниками Samsung, які ненавмисно «злили» службові дані через ChatGPT. - Медичні дані
Багато людей запитують ChatGPT про свої симптоми або просять діагноз, однак інформація про здоров’я є дуже чутливою. Жодних гарантій конфіденційності бот не надає, і існує ризик, що ваші персональні медичні дані можуть бути використані або розголошені.
Використовуючи штучний інтелект, завжди враховуйте, що введені дані можуть стати загальнодоступними. Ніколи не передавайте боту ту інформацію, яку не хочете оприлюднити. У міру інтеграції штучного інтелекту в наше життя важливість цифрової безпеки тільки зростатиме. Відповідальність за захист особистих даних лежить не лише на розробниках сервісів, але й на кожному з нас. Будьмо обачними у цифрову епоху!