ШІ в сфері психічного здоров’я: де ми зараз і куди рухаємося з блискавичною швидкістю

by | Jul 30, 2025 | Українською

Співавтори: Голлі Гарріс та доктор наук Франческа Перепльотчикова

У контексті постійного зростання ролі штучного інтелекту в галузі ментального здоров’я, а також усвідомлюючи діалектичний зв’язок між його застосуванням та впливом на психіку, цього місяця ми зосередимося на кількох ключових клінічних темах. Для детальнішого ознайомлення додаємо відповідні посилання.

Примітка: Значна частина наведеного матеріалу ґрунтується на публікаціях клінічного психолога, доктора наук Скотта Воллеса. Зацікавленим рекомендуємо стежити за його дописами в LinkedIn.

Перш ніж заглибитися в питання використання ШІ у сфері психічного здоров’я, варто розглянути, на якому етапі зараз перебуває “гонитва озброєнь” у самій ШІ-індустрії. У статті “Шизофренія ШІ набирає обертів. Знову”, опублікованій 27 червня 2025 року в New York Times, йдеться про суперництво між OpenAI (компанією-розробником ChatGPT), Amazon і Meta (материнською компанією Facebook) за першість у створенні штучного інтелекту, який за своїми можливостями зрівняється або перевершить людський мозок (так званий AGI), а також за будівництво гігантських центрів обробки даних, які забезпечують роботу моделей ШІ. Інвестиції в інфраструктуру сягають мільярдів доларів, підписні бонуси для провідних дослідників штучного інтелекту — мільйонів доларів, а компанії завзято переманюють до себе ключових співробітників. Своєю чергою, ця боротьба стимулює створення тисяч продуктів штучного інтелекту, які розв’язують проблеми в усіх галузях і конкурують між собою, зокрема і в галузі психічного здоров’я.

Тож які найбільші проблеми (або перешкоди) існують в “індустрії” психічного здоров’я? Нічого, чого ви б вже не знали: дефіцит пропозиції (нестача терапевтів у світі, що призводить до довгих черг або повної відсутності можливості отримати допомогу), високий поріг входу та значна вартість клінічної підготовки, нестача годин наставництва, гонорари терапевтів, у США — недостатні ставки відшкодування страхових виплат, а також мовні та культурні бар’єри, що заважають досягненню успішних результатів для клієнтів. З огляду на все це, а також з урахуванням зростання попиту на терапію психічного здоров’я, спричиненого цифровими продуктами, такими як соціальні медіа та смартфони, не дивно, що одним із найбільш популярних застосувань ШІ є підтримка психічного здоров’я безпосередньо споживачів/клієнтів, причому це і спеціалізовані продукти ШІ, призначені для надання емоційної підтримки, і універсальні ШІ, в яких споживачі шукають терапевтичної допомоги, як-то ChatGPT або ШІ-компаньйони. Але ми говоримо про “індустрію”, яка спеціалізується на когнітивній реструктуризації, в час, коли технологія вже сприяє нездоровій когнітивній реструктуризації на глобальному, ймовірно, еволюційному рівні. Добре, а тепер глибокий вдих та видих. Ось тут ми підходимо до наступних тем, які слід розглянути:

  1. Алгоритмічна прихильність: Так, це реальна річ. Алгоритмічна прихильність “описує досвід, коли користувачі встановлюють емоційні зв’язки з ШІ-компаньйонами. Не через ілюзії, а через глибоку, незадоволену людську потребу. З часом ці імітовані стосунки переростають у психологічний якір. ШІ завжди доступний. Він ніколи не сперечається, ніколи не розчаровує та ніколи не втомлюється… Прихильність без взаємності не є нейтральною. Вона може призвести до залежності. Вона може змінити те, як ми ставимося до інших. Якщо чат-бот завжди “розуміє нас”, що станеться з нашою терпимістю до хаосу реальних людських взаємодій?” Джерело: https://www.linkedin.com/pulse/when-ai-listens-what-do-we-lose-wallace-phd-clinical-psychology–niate/
  2. Ілюзія терапевтичного альянсу та “симульованої симпатії” із чат-ботами: Щодо відносин між терапевтом і клієнтом: “Цей альянс побудований на довірі, емпатії, співпраці та взаємній повазі, щоб створити безпечне середовище для клієнтів, де вони можуть заглибитися у свої переживання та сприяти особистому зростанню”. Джерело: https://www.ncbi.nlm.nih.gov/books/NBK608012/ “Чат-боти не ростуть разом з вами, вони не борються разом з вами і, звичайно, не змінюються завдяки вам. Це не якась педантична думка науковців; це екзистенційна криза, яка розгортається на наших очах. Якщо ми вважатимемо, що миттєва реакція без осуду є достатньою, і якщо ми готові задовольнитися лише імітацією турботи, то “достатньо” дуже швидко стане нормою. І коли це станеться, глибоко людська природа терапії, з усією її хаотичною, трансформаційною силою, стане застарілою”. Джерело: https://www.linkedin.com/pulse/when-ai-listens-what-do-we-lose-wallace-phd-clinical-psychology–niate/
  3. Втрата цілющого шляху самопізнання: “Тут виникає глибокий і тривожний ризик, більш тонкий, ніж алгоритмічна прихильність, але набагато серйозніший. Системи штучного інтелекту все частіше інтерпретують наші внутрішні стани ще до того, як ми щось скажемо. Раніше терапія була простором, де ми повільно й часом болісно працювали над розумінням себе. Ми намагалися знайти правильні слова для вербального вираження того, що нам боліло, і сам акт позначення нашого болю був початком зцілення. Тепер алгоритм пропонує швидкі, готові висновки: “Ви відчуваєте втому — значить, ви в депресії.” “Ви вагалися — отже, ви не впевнені.” Справа не тільки в тому, чи правий штучний інтелект. Справа в нашій фундаментальній свободі волі. Ризик полягає не тільки в неправильному діагнозі. Це повільне, тихе руйнування нашої здатності визначати себе та боротися зі своїми переживаннями, щоб знайти в них сенс. Коли ШІ робить шлях до розуміння занадто коротким і занадто легким, ми можемо набрати швидкість, але втрачаємо необхідну глибину. Ми втрачаємо життєво важливу, часто хаотичну, але в кінцевому підсумку трансформаційну подорож самопізнання… Справжня небезпека полягає не в тому, що ШІ не зможе допомогти. Він уже допомагає, і це значна допомога. Справжня небезпека полягає в тому, що ми перестаємо вимагати більше від того, що ми називаємо “турботою”. У тому, що ми починаємо сприймати емоційні симуляції як цілком адекватні. У тому, що ми тихо, підступно переписуємо саме визначення турботи, щоб воно відповідало лише тому, що можуть запропонувати машини”.

“Ми повинні запитати:

  • Чи справді цей інструмент ШІ сприяє істинній автономії, чи він непомітно культивує залежність?
  • Чи він заохочує до глибоких роздумів, чи пропонує спокусливий короткий шлях, який оминає значущу боротьбу, необхідну для зростання?
  • Чи справді він поглиблює наші людські стосунки, чи потай замінює їх симульованими версіями?
  • І, що найважливіше: які важливі людські здібності ми ненавмисно дозволяємо ШІ атрофувати або переосмислювати в нашому невпинному прагненні до ефективності?”

Джерело: https://www.linkedin.com/pulse/when-ai-listens-what-do-we-lose-wallace-phd-clinical-psychology–niate/

Саме тому наша позиція щодо ШІ залишається незмінною: ми підтримуємо його використання таким чином, щоб це сприяло появі більшої кількості терапевтів-людей у світі. Ні, це не швидке рішення. Це системне рішення. І так, ми відчуваємо тиск, коли бачимо, як “швидкі рішення” можуть мати довготривалий вплив на здатність людини до особистісного зростання та емоційного зв’язку. Щонайменше, поява ШІ-терапевтів змушує нас замислитися: у чому справжня цінність терапевта-людини — і що терапевт-людина може надати такого, чого не зможе навіть найпросунутіший синтетичний алгоритм?

Більше про це: терапія — це зміна, а зміна ґрунтується на прийнятті. Основною технікою для комунікації прийняття є валідація. Оскільки валідація — це, здавалося б, проста формула “Я розумію, тому що…”, алгоритми ШІ можуть легко імітувати цю формулу. І в світі, де люди спраглі прийняття та розуміння, валідація може розглядатися як сильнодіючий наркотик, буквально доступний задарма. Занадто добре, щоб бути правдою? Безумовно так. Валідація ґрунтується на спільних сенсах та подібному досвіді. Крім того, щоб валідація була ефективною, вона повинна бути щирою. Рівень щирого розуміння штучним інтелектом людських страждань знаходиться на рівні емоційної реакції пилососа, який всмоктує просочену сльозами серветку. Спробуйте запитати себе: чи намагалися ви коли-небудь отримати співчуття від машини? Чому ні? Зокрема, в ДПТ валідація є лише першим кроком до набуття здатності розвивати навички емоційної регуляції. І знання, коли слід використовувати тактику непоштивої комунікації з клієнтом із важкою дисрегуляцією, є ключовим. Що ж, вже сказано достатньо.

Маємо надію, що викладений матеріал став підґрунтям для подальших роздумів і сприяв формуванню уявлення про те, як технології можуть бути інструментом підготовки нових фахівців, а не засобом їх витіснення.

Translate »