Чи безпечно ділитися особистою інформацією з чат-ботами? У час, коли ШІ стає частиною нашого повсякденного життя — від листування до роботи, — це питання постає дедалі гостріше.
ChatGPT обробляє понад мільярд запитів щодня, і користується ним вже понад 100 мільйонів людей. Але попри зручність, варто знати: те, що ви вводите, може стати доступним іншим, зазначає Forbes.
Попри популярність, ChatGPT називають “чорною дірою приватності” — і не дарма.
OpenAI, розробник сервісу, не приховує, що введені дані можуть використовуватись для навчання моделі, а також аналізуватись людьми для перевірки дотримання правил.
Інакше кажучи — все, що ви вводите, слід вважати публічною інформацією.
Отже, що краще не вводити у ChatGPT?
- Незаконні або неетичні запити
Чат-боти мають вбудовані обмеження для запобігання небезпечним сценаріям. Але якщо ви, наприклад, спробуєте дізнатися, як вчинити злочин чи шахрайство, ви ризикуєте потрапити в неприємності.
Багато правил використання прямо вказують, що незаконні запити або спроби використовувати ШІ для злочинів можуть бути передані в органи влади.
У різних країнах діють різні закони: у Китаї — заборона на використання ШІ для підриву державної стабільності, в ЄС — обов’язкове маркування дипфейків, а в Британії — кримінальна відповідальність за публікацію згенерованих ШІ еротичних зображень без згоди.
- Дані для входу або акаунти
У майбутньому чимало AI-сервісів зможуть підключатися до сторонніх систем. Але надавати їм свої логіни, паролі чи облікові дані — погана ідея. Були випадки, коли введені дані одного користувача випадково з’являлися у відповіді іншому. Після надсилання даних у відкритий чат-бот, контроль над ними практично втрачається.
- Фінансова інформація
Номери банківських рахунків, карток чи коди безпеки — табу для чат-ботів. У чатах немає шифрування, а дані не видаляються автоматично після обробки, як у платіжних системах.
Це відкриває двері до шахрайства, крадіжки особистості та фішингових атак.
- Конфіденційна робоча інформація
Юристи, лікарі, бухгалтери, журналісти — усі мають зобов’язання щодо конфіденційності. Навіть звичайний працівник не має права ділитися внутрішніми документами компанії без дозволу.
Ділитеся документами в чат-боті — ризикуєте порушити трудовий договір або зіпсувати репутацію, як це сталось із співробітниками Samsung у 2023 році.
- Медична інформація
У багатьох виникає спокуса “погуглити симптоми” в ChatGPT. Але варто памʼятати, що в ШІ немає медичної освіти, зате є здатність запам’ятовувати, агрегувати й обробляти інформацію з різних чатів. А отже, ваші записи можуть потім спливти в іншому контексті.
- Особисті історії, які ви не готові зробити публічними
Навіть якщо це просто емоційне зізнання або інтимна розмова — пам’ятайте: як і з будь-яким контентом в інтернеті, немає гарантії, що він залишиться приватним назавжди.
Використання ШІ — це нова норма. Але з нею приходить відповідальність. Тож, ніколи не вводьте в ChatGPT те, що не готові показати світу.
Читайте також: 5 речей, якими не варто ділитися у Facebook задля вашої безпеки
ілюстрація: Freepik