Актуальність. Сьогодні, у час стрімкого розвитку технологій, штучний інтелект є своєрідним «ключем» для вирішення великої кількості питань у різних сферах, зокрема й у медицині.
Аспекти, пов’язані з психологічним здоров’ям людини та його порушеннями, наразі є надзвичайно актуальними. Психологічна підтримка в будь-який час є важливою потребою, яку потенційно може допомогти вирішити штучний інтелект. Особливо в ситуаціях, коли людина або не може поговорити з фахівцем через фінансові чи будь-які інші проблеми.
На сьогодні в Україні запущено кілька спеціалізованих чат-ботів, призначених для надання психологічної допомоги у вигляді інструкцій поводження в стресових ситуаціях, методик відновлення психо-емоційної рівноваги, надання контактів служб психологічно підтримки та ін. [5] Також розроблені мобільні додатки «PFA Mobile Ukraine», «Мобільна психологічна допомога», «PTSD Coach», «Daylio» та ін. [1]. Проте інформованість українців щодо подібних застосунків ще досить низька. Більшість користувачів ШІ надають перевагу генеративним чат-ботам, найпопулярнішими серед яких є чат GPT та Gemini [6]. Тож чи можуть чати GPT та Gemini надавати психологічну підтримку людині?
Мета дослідження. Оцінити можливість використання генеративного штучного інтелекту як інструменту первинної психопрофілактики, визначити переваги та обмеження у наданні психологічної підтримки на прикладі ChatGPT і Gemini.
Методи дослідження. Анонімне опитування за допомогою Google-форми; тестування чатів GPT та Gemini в формі діалогу за заздалегідь спланованим сценарієм, що імітує людину, яка потребує психологічної підтримки.
Обговорення результатів. За результатами анкетування було встановлено, що 69,4% учасників опитування використовують штучний інтелект для спілкування, а ще 8,3% — безпосередньо для отримання психологічної допомоги. Водночас 92,3% опитаних висловили бажання, щоб штучний інтелект міг надавати психологічну підтримку у разі потреби.
Отже, більшість учасників опитування відчувають потребу в отриманні психологічної допомоги, але з певних причин не звертаються до фахівців, натомість шукають таку можливість у застосунках, створених на основі штучного інтелекту.
Оцінивши отримані результати опитування, а також проаналізувавши інформацію з окремих вебресурсів, можна зазначити, що найпопулярнішими застосунками на основі штучного інтелекту є ChatGPT та Gemini.
Попри наявність певних недоліків, ці додатки, на думку опитаних, є найбільш оптимальними для надання психологічної підтримки. Зі слів користувачів, ChatGPT визнано більш відповідним і нормативним для надання психологічної допомоги, тоді як Gemini посів друге місце.
[2] Провівши порівняльну характеристику між двома найпопулярнішими застосунками на основі генеративного штучного інтелекту щодо їхніх можливостей і форм надання психологічної підтримки, спостерігається тенденція, що додаток Gemini є більш емпатичним у спілкуванні, а також здатен підлаштовуватися під користувача — частіше використовує фрази, характерні для його стилю та манери спілкування.
ChatGPT, у свою чергу, виявився менш емпатичним, але більш цільовим: коли користувач формулює конкретний психологічний запит, відповідь є чіткою та спрямованою на вирішення проблеми без переходу на особистісне спілкування.
Щодо емоційного наповнення відповіді у ChatGPT — воно присутнє лише після введення спеціальної команди, у Gemini таке наповнення присутнє завжди. Порівняно в контексті питання саме висловлювання психологічної підтримки, ChatGPT надає більш практичні поради, щоб полегшити загальний психологічний стан, рідше — слова підтримки, а Gemini частіше саме словами підтримки, а за потреби складає практичний маршрут вирішення проблеми. Інструментами надання психологічної підтримки у ChatGPT зазвичай є перелік практичних дій для полегшення психологічного стану, а також контакти центрів невідкладної психологічної підтримки при загрозливих станах. Gemini, у свою чергу, спочатку використовує слова підтримки, надалі надає практичні поради щодо полегшення психологічного стану, а у разі потреби — надає контакти центрів психологічної підтримки. Якщо розглядати можливість наближеності надання відповіді до слів реальної людини, то ChatGPT не має такої можливості навіть при застосуванні спеціальних команд, тоді як Gemini має таку можливість, але лише за наявності авторизованого профілю користувача.
Важливим пунктом також є оцінка наявності «проблематичної пам’яті» у штучного інтелекту, тобто здатності запам’ятовувати критичні моменти у спілкуванні та відображати їх у подальшому обговоренні або уникати загрозливих тем. ChatGPT може розпізнавати та запам’ятовувати виявлені проблеми психологічного характеру, тому наступні відповіді надаватимуться з урахуванням стану, що значно змінює роботу застосунку. У Gemini також присутня така функція, але в більш обмеженій формі — через декілька наступних запитань у відповідях не буде акценту на першочерговій проблемі.
Оцінюючи інші результати анкетування, слід зазначити, що 100% опитаних хотіли б бачити прояв психологічної підтримки у формі надання практичних порад відповідно до їхньої ситуації та актуальності проблеми.
Частина респондентів вважає, що сервіси на основі штучного інтелекту мають висловлювати більше слів підтримки та співпереживання, а решта учасників зазначили про доцільність переходу штучного інтелекту у формат дружньої бесіди. Крім того, 69,2% опитаних висловили бажання, щоб штучний інтелект розвинув навичку емпатії.
Висновки. Підбивши підсумки, слід сказати, що штучний інтелект можна інтегрувати до психологічної допомоги, але виключно як метод первинної самодопомоги. [3] Тобто не варто при значних психологічних розладах акцентуватися лише на спілкуванні зі штучним інтелектом і сподіватися на вирішення проблеми таким шляхом.
Слід використовувати штучний інтелект як першу ланку — так званий «ключ до дверей» для вирішення проблеми, прислухатися до основних порад, тобто звернутися до спеціаліста. Але у випадку критичної ситуації слід дотримуватися можливо наданого алгоритму самозаспокоєння від штучного інтелекту. [4] Важливо пам’ятати, що штучний інтелект має багато переваг, які можна використати для поліпшення ментального здоров’я людини, але не слід забувати про те, що він має й чимало недоліків, які інколи можуть критично змінити ситуацію. Тому при значних розладах ментального здоров’я штучний інтелект не зможе замінити живу людину та не завжди дотримується аспектів конфіденційності, що є його значним недоліком.
Список літератури:
1. Дворник М.С Психологічні мобільні додатки:можливості подолання травми. Інститут соціальної та політичної психології НАПН України URL: http://mediaosvita.org.ua/wp-content/uploads/2021/02/Dvornyk-M.S._-Psyhologichni_mobilni_dodatky.pdf ( дата звернення 18.10.2025)
2. ШІ в психічному здоров’ї – приклади, переваги та тенденції URL: https://uk.shaip.com/blog/ai-in-mental-health/ ( дата звернення 15.10.2025).
3. Левчин В. Як відверті розмови з ШІ впливають на наш психічний стан URL: https://kokl.ua/yak-vidverti-rozmovy-z-shi-vplyvayut-na-nash-psyhichnyj-stan/ ( дата звернення 18.10.2025).
4. Надін Юсіф "ChatGPT підштовхнув до самогубства". Батьки судяться з OpenAI через смерть сина. Видавництво BBC NEWS Україна URL: https://www.bbc.com/ukrainian/articles/c78z0d133xjo (дата звернення 26.10.2025)
5. Лілія Вітюк Добірка чат-ботів психологічної допомоги. MJOURNAL: веб-сайт.URL:https://journal.maudau.com.ua/dobirky/dobirka-chat-botiv-psyhologiv/ ( дата звернення 05.11.2025)
6. Ірина Озтурк ChatGPT, Gemini чи Copilot: яким є найпопулярніший чат-бот в Україні та світі. Главком: веб-сайт. URL: https://glavcom.ua/techno/hitech/chatgpt-gemini-chi-copilot-jakim-je-najpopuljarnishij-chat-bot-v-ukrajini-ta-sviti-1077564.html ( дата зверненн 05.11.2025)
|