Yapay Zeka Psikoterapist Olamaz!
Yukarıdaki videoda "Avustralya Psikoloji Derneği Başkanı Dr. Sara Quinn, kişisel terapide yapay zeka sohbet robotlarının kullanımının popülaritesi arttıkça dikkatli olunması gerektiğini vurguluyor. Dr. Quinn, sohbet robotlarının ücretsiz ve erişilebilir tavsiyeler için faydalı olsa da, kritik kriz bakımını doğru bir şekilde taklit edemediğini veya karmaşık, incelikli duygularla başa çıkamadığını" söylüyor.
Teknolojinin hızla gelişmesiyle birlikte yapay zekâ (YZ) araçları; sağlık hizmetlerinden eğitime, sanattan kişisel gelişime kadar pek çok alanda aktif olarak kullanılmaya başlandı. Son yıllarda ise YZ tabanlı sohbet robotlarının (chatbot) terapi desteği sunduğu iddiasıyla, ruh sağlığı alanında da yer bulmaya çalıştığı görülüyor.Kimi insanlar bu uygulamaları hızlı, anonim ve ulaşılabilir destek kaynakları olarak görse de, burada büyük bir tehlike gizleniyor: Yapay zekâ gerçek bir terapist değildir. Empati kuramaz, insan duygularını gerçekten anlayamaz ve terapötik bir bağ kuramaz.
🔍 Neden Yapay Zekâ Terapist Olamaz?
Gerçek bir psikoterapi süreci yalnızca teknik bilgiye değil, aynı zamanda empati, sezgi, duygusal zeka ve güvene dayanır. Yapay zekâ ise:
-
Empati kuramaz: Hissetmez, yalnızca taklit eder.
-
Sizinle bağ kuramaz: Göz teması, beden dili, ses tonu gibi iletişimin duygusal bileşenleri YZ tarafından algılanamaz.
-
Duygusal tepkileri anlayamaz: Anlam çıkarma değil, veri eşleştirme yapar.
-
Güven oluşturamaz: Bir ilişki dinamiği kurmak yerine, hazır cümleler ve kalıplarla yanıt verir.
🧠 Sohbet Robotları ve Terapötik İlişkinin Zayıflığı
Yapılan çalışmalarda, YZ destekli terapilerin belirli hafif düzeyde stres ve anksiyete durumlarında kısa vadeli destek sağlayabildiği gözlemlenmiştir. Ancak bu destekler genellikle “bilgilendirme” ve “farkındalık” seviyesindedir.Derinlemesine duygusal travmalar, kişilik bozuklukları, depresyon veya intihar riski taşıyan bireylerde YZ araçlarının yetersizliği çok net ortaya çıkmaktadır. Hatta bu bireyler için yanıltıcı ya da zarar verici olabilirler.
📱 Popüler Uygulamalar Ne Vaat Ediyor?
Woebot, Wysa, Replika ve benzeri chatbot'lar, kullanıcılara “terapi dostu” olduğunu hissettirmeye çalışır. Ancak bu uygulamalar:
-
Önceden tanımlanmış yanıtlar verir.
-
Duygusal derinliği olmayan kalıplar sunar.
-
Gerçek zamanlı ve bireysel içgörü üretmez.
-
Kullanıcının duygusal krizlerini tespit edemez.
Yani bu uygulamalar, konuşuyormuş gibi yapar ama gerçekten dinlemez.
💬 Gerçek Terapist Ne Yapar, Yapay Zekâ Ne Yapamaz?
Gerçek Terapist | Yapay Zekâ |
---|---|
Empati kurar | Duyguları taklit eder |
Terapötik bağ oluşturur | Algoritmalarla yanıt verir |
Duygusal geçmişi analiz eder | Veriye dayalı örüntüler tanır |
Etik sorumluluk taşır | Otomatik programlanmıştır |
Kriz durumlarını fark eder | Risk analizi yapamaz |
⚠️ Yapay Zekâ ile Terapi Denemelerinin Riskleri
-
Yanlış yönlendirme: Kriz durumlarında uygun olmayan tepkiler verebilir.
-
Yanlış güven duygusu: Kişi sorunlarını çözülmüş sanarak profesyonel destek almayı geciktirebilir.
-
Duygusal izolasyon: Gerçek insanla temas kurmadan, yalnızlığı daha da pekiştirebilir.
-
Veri gizliliği sorunları: Duygusal bilgiler ticari amaçla kullanılabilir.
👥 Psikoterapi, İnsana Ait Bir Sanattır
Terapi yalnızca “konuşma” değildir. Dinleme, yargılamadan kabul etme, kişinin ruhsal evrenine güvenli bir ayna tutma sürecidir. Bu da yalnızca insan insana kurulabilecek bir bağ ile mümkündür.Yapay zekâ, insan zekâsını taklit edebilir ama vicdanı, sezgiyi ve duyguyu taklit edemez. Bu nedenle, YZ araçları bilgi veren yardımcılar olabilir ama tedavi eden birer terapist olarak görülmeleri tehlikelidir.
Yapay Zekâyı Bir Terapist Olarak Görmek Neden Tehlikeli?
Son yıllarda yapay zekâ (YZ) hayatımızın neredeyse her alanına entegre oldu. Eğitim, sağlık, ulaşım ve eğlence gibi alanlarda büyük kolaylıklar sağladı. Ancak yapay zekânın hızla yayıldığı bir başka hassas alan daha var: ruhsal destek ve terapi. Peki, yapay zekâ gerçekten bir terapist olabilir mi?
Yeni yayımlanan bir bilimsel çalışmada, özellikle gençlerin bu konudaki düşüncelerine odaklanıldı ve sonuçlar dikkat çekici.
🤖 Terapist Gibi Konuşan Chatbotlar: Ciddi Bir Alternatif mi?
Ruh sağlığına erişimdeki zorluklar, psikolojik destek uygulamalarına ve chatbot’lara ilgiyi artırdı. Bazı uygulamalar, kullanıcılara destekleyici ifadeler sunuyor, stresle baş etme yöntemlerini öğretiyor ve terapiyi taklit eden diyaloglarla psikolojik bir “rahatlama” hissi yaratabiliyor.
Ancak bu sistemler sadece simülasyon yapıyor. Hissetmeden, anlamadan, bağ kurmadan...
👂 Empati Yoksa Terapi Olur mu?
Empati, terapinin en temel yapı taşlarından biridir. Gerçek bir terapist, karşısındaki kişinin sözcüklerinin ötesinde, duygularını, beden dilini ve sessizliklerini bile anlayabilir. Oysa yapay zekâ yalnızca verilere ve komutlara dayanır.
Empati kuramayan bir yapı, gerçek bir duygusal destek sağlayabilir mi?
🧠 Öğrenciler Ne Diyor?
Hong Kong’da lise öğrencileriyle yapılan güncel bir çalışmada, gençlerin YZ tabanlı sohbet robotlarını ruh sağlığı hizmetlerinde nasıl değerlendirdiği araştırıldı.
Öğrencilerin yorumları üç temel başlıkta toplandı:
-
Karışık Terapist Sorunu:
Yapay zekâ bazen çelişkili ya da bağlama uymayan yanıtlar veriyor. Bu da güven sorununa yol açıyor. -
İnsan Olmayan Terapist Sorunu:
Yapay zekâ “dinliyor gibi görünse” de gerçek bir ilgi ya da içtenlik sunamıyor. Samimiyet eksikliği belirgin. -
Dar Zekâlı Terapist Sorunu:
AI, çok sınırlı senaryolarda etkili olabilir. Kapsamlı duygusal krizlerde ya da travmalarda yetersiz kalıyor.
🧩 Ne Zaman Kullanılabilir?
Öğrenciler, YZ araçlarının bazı durumlarda faydalı olabileceğini de belirtti. Özellikle:
-
Hafif düzeyde stresle başa çıkmak,
-
Bilgilendirme sağlamak,
-
Yargılanma korkusu olmadan duyguları ifade edebilmek
gibi konularda bu araçlar destekleyici olabilir. Ancak bu, gerçek bir psikoterapinin yerini alabileceği anlamına gelmez.
🚫 Gerçek Terapist Yerine AI Kullanmak Ne Gibi Riskler Taşır?
-
Yanıltıcı güven duygusu: Kişi destek aldığını düşünerek profesyonel yardımı geciktirebilir.
-
Kriz anlarında yetersizlik: Yapay zekâ intihar riski ya da travma gibi konularda müdahale edemez.
-
Duygusal bağ eksikliği: Terapi yalnızca konuşmak değil, hissedilmek ve anlaşılmaktır.
-
Veri güvenliği sorunları: Paylaşılan duygusal içeriklerin saklanması ve kullanımı ciddi bir etik sorundur.
👥 İnsan Terapistler Asla Yerini Kaybetmemeli
Yapay zekâ, bazı alanlarda işleri kolaylaştırabilir. Ancak terapi gibi derin bir insan ilişkisi gerektiren bir alanda empatisiz, duygusuz, mekanik bir sistemle duygusal iyileşme sağlamak mümkün değildir.
En ideal çözüm, yapay zekâ araçlarının yalnızca destekleyici teknoloji olarak kullanılması, ancak ruh sağlığı süreçlerinin insan eliyle ve kalbiyle yürütülmesidir.
📚 Güncel Bilimsel Kaynaklar:
Chan CKY. (2025). AI as the Therapist: Student Insights on the Challenges of Using Generative AI for School Mental Health Frameworks.
Behavioral Sciences (Basel). 15(2):173.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11939552-
Borghouts, J. et al. (2021). Efficacy of Digital Mental Health Interventions: A Meta-Analysis. Journal of Medical Internet Research.
https://www.jmir.org/2021/4/e26931 -
Loveys, K. et al. (2020). Artificial Intelligence in Mental Health Services: A Review. The Lancet Digital Health.
https://doi.org/10.1016/S2589-7500(20)30060-9 -
Miner, A. S. et al. (2016). Smartphone-Based Conversational Agents and Responses to Mental Health Crises. JAMA Internal Medicine.
https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2513569
Yorumlar
Yorum Gönder