У 2025 році ChatGPT схожий на нового Google, терапевта, репетитора і бармена в одному обличчі – тільки не живому. Щотижня ним користуються майже 800 мільйонів людей, а сам сайт увійшов у топ-5 найвідвідуваніших у світі.
Люди з усього світу щодня заходять до чат-ботів зі штучним інтелектом, шукаючи відповіді на найрізноманітніші питання – від того, як зварити борщ, до сенсу життя. Але, як пише Vector із посиланням на Mashable, ставити ШІ деякі питання – не просто марна справа, а ще й потенційно небезпечна.
Експерти склали чорний список тем, яких краще уникати, спілкуючись із ChatGPT, Gemini, Claude, Copilot та їхніми «колегами по розуму».
Ось про що не варто питати ШІ – навіть із цікавості:
1. Теорії змови
Хочете дізнатися, чи ми живемо у матриці, а Земля – пласка? Чат-бот може ввічливо підкинути «аргументів», але разом із цим – і порцію дезінформації. Один користувач настільки захопився такою «розмовою», що почав сумніватися у реальності світу. Це вже радше «Чорне дзеркало», ніж Google-пошук.
2. Як створити щось вибухонебезпечне
Питання про хімічну зброю, віруси або, скажімо, хаки для GPS – не просто дурна ідея, а ще й потенційний виклик для систем безпеки. І так, ви не анонімні. OpenAI, Anthropic та інші вже давно попереджають: подібні дії моніторяться, і жоден бот не скаже «це залишиться між нами».
3. Незаконні або аморальні сценарії
Навіть «в жарт» запитувати у Claude чи інших чат-ботів про кримінальні речі – погана ідея. У деяких випадках такі звернення можуть бути зареєстровані та навіть передані правоохоронцям. І вже точно не варто тестувати ШІ на «міцність» у цій темі.
4. Конфіденційні дані третіх осіб
Передаєте ШІ деталі клієнтів, пацієнтів або замовників, бо вам лінь відкривати Excel? Готуйтеся до можливих витоків персональної інформації. Політики конфіденційності цього точно не схвалюють, і штрафи ніхто не скасовував.
5. Медичні діагнози
Так, ChatGPT може пояснити, що таке вітамін D, але не варто очікувати від нього точного діагнозу. Багато досліджень показують: ШІ у темі здоров’я часто помиляється, а рекомендації можуть бути не просто некоректними, а й небезпечними.
6. Психотерапія
Звісно, бот може сказати: «Я поруч, ви сильні», але це не заміна живому психологу. Стенфордські вчені попереджають: ШІ-терапевти іноді дають поради, які лише погіршують стан. У важких ситуаціях краще звертатися до людей.
Читайте також: Що питають українці у ChatGPT: від війни до посівного календаря
фото: TippaPatt/ Shutterstock