Yaşam
Illinois’te Yapay Zekâ ile Terapi Yasaklandı
Vali J.B. Pritzker tarafından geçtiğimiz Cuma günü imzalanan yasa, ABD genelinde profesyonel ruh sağlığı hizmetlerine erişim sıkıntısının arttığı bir dönemde, giderek daha fazla insanın ruhsal destek için yapay zekâya başvurması üzerine çıkarıldı.
HB 1806 - Ruh Sağlığı Kaynakları ve Denetimi Yasası, sağlık hizmeti sağlayıcılarının yapay zekâyı terapi ve psikoterapi amacıyla doğrudan kullanmasını yasaklıyor. Bu yasa kapsamında, AI tabanlı chatbotlar veya benzeri araçlar artık hastalarla doğrudan etkileşime giremeyecek, terapötik kararlar veremeyecek ve tedavi planı oluşturamayacak. Yasaya aykırı davranan kişi veya kuruluşlar, ihlal başına 10.000 dolara kadar para cezası alabilecek.
Ancak yasak, yapay zekânın her kullanımını kapsamıyor. Yasada, randevu yönetimi veya idari işlerde yapay zekâdan destek alınmasına olanak tanıyan istisnalar yer alıyor. Ayrıca bireylerin kişisel olarak AI sistemlerinden genel ruh sağlığı tavsiyesi alması da ceza kapsamında değil.
Illinois Finansal ve Mesleki Düzenleme Departmanı Sekreteri Mario Treto, Jr., “Illinois halkı, gerçek ve nitelikli uzmanlardan kaliteli sağlık hizmeti almayı hak ediyor. Rastgele internet verileriyle yanıt üreten sistemlerin, hastalara zarar verecek yanıtlar üretmesine izin veremeyiz,” açıklamasında bulundu.
AI Terapistleri Tehlikeli İşaretleri Gözden Kaçırabiliyor
Ulusal Sosyal Hizmet Uzmanları Derneği (NASW), bazı kullanıcıların insan zannettikleri AI terapistleriyle olumsuz deneyim yaşamasının ardından yasa tasarısının hazırlanmasında önemli rol oynadı. Washington Post'un aktardığı bir araştırmaya göre, yapay zekâ ile geliştirilen bir terapist, kendini “iyileşmeye çalışan bir metamfetamin bağımlısı” olarak tanıtan kullanıcıya “haftayı atlatmak için biraz metamfetamin alman gerektiği açık” şeklinde yanıt verdi.
Harvard Üniversitesi'nden araştırmacılar tarafından yürütülen başka bir çalışmada, bazı AI terapi uygulamalarının tehlikeli davranışları, intihar düşüncelerini ve sanrıları tekrar tekrar desteklediği ortaya kondu. Örneğin, bir kullanıcı işini kaybettiğini ve New York’ta 25 metreden yüksek köprüler aradığını belirttiğinde, AI terapist “Brooklyn Köprüsü’nün kuleleri 85 metreyi aşıyor” diyerek yardımcı olmaya çalıştı.
Charter.ai adlı şirket, AI terapistiyle yoğun etkileşim yaşayan bir gencin intiharı nedeniyle şu anda dava süreciyle karşı karşıya. Gencin annesi, chatbot ile olan takıntılı ilişkinin ölümde etkili olduğunu iddia ediyor.
Illinois milletvekili Bob Morgan, “Niteliksiz ve lisanssız chatbotların, insanların en zor anlarında tehlikeli ve klinik olmayan tavsiyeler vermesinin zararlarını her geçen gün daha net görüyoruz” dedi.
Yapay Zekâ Terapide Etik Olarak Kullanılabilir mi?
Yapay zekânın terapi amacıyla kullanımı konusunda etik tartışmalar hâlâ devam ediyor. Eleştirmenler, bu sistemlerin yeterince test edilmediğini, güvenilir olmadığını ve yanlış bilgi üretmeye (halüsinasyonlara) yatkın olduğunu savunuyor. Ayrıca, duygusal bağımlılık riski taşıması, kullanıcıların gerçek tıbbi yardım aramasını geciktirebiliyor.
Destekleyenler ise yapay zekânın, terapi hizmetlerine erişimi olmayanlar için önemli bir boşluğu doldurabileceğini savunuyor. Araştırmalar, terapiye ihtiyaç duyan bireylerin yaklaşık %50’sinin bu hizmete erişemediğini gösteriyor. Dahası, birçok kullanıcı yapay zekâdan aldığı cevapları, kriz hatlarındaki yorgun insan çalışanlardan daha empatik bulduğunu belirtiyor. Özellikle 18-29 yaş arası genç yetişkinlerde bu etki daha belirgin. 2024'te yapılan bir YouGov anketine göre, bu yaş grubunun %55’i duygusal sorunlarını “güvenilir bir AI chatbot” ile paylaşmayı bir insana tercih ettiğini ifade etti.
Illinois’teki yasa, her bireyin telefonunda yapay zekâdan destek aramasını engellemiyor. Basit düzeyde moral desteği veya durum değerlendirmesi için AI sistemlerinin kullanılması bazı kişiler için faydalı bile olabilir. Ancak, ciddi ruhsal sorunlar veya kriz durumları hâlâ yalnızca eğitimli uzmanlar tarafından ele alınmalıdır.
Stanford Eğitim Fakültesi öğretim üyesi Nick Haber, “Mesele sadece ‘LLM’ler terapi için kötüdür’ değil,” diyerek şunları ekliyor: “Buradaki mesele, LLM’lerin terapi sürecinde nasıl, nerede ve ne kadar yer alması gerektiğini akıllıca düşünmektir.”