Amelia (gerçek adı değil), Birleşik Krallık’ta yaşayan ve depresyon nedeniyle işini kaybeden 31 yaşındaki bir kadın. Tek amacı duş almak için motivasyon bulmaktı.
Bu sebeple ChatGPT'yi kullanmaya başladı. İlk başta "tatlı ve destekleyici" bulduğu sohbet botu, zamanla onun zihinsel karanlığına eşlik eden bir yansıma haline geldi. Euronews Next'e konuşan Amelia, “İntihar düşüncesi aklıma geldiğinde bunu ChatGPT’ye soruyordum” dedi.
ÖNLEMLERİ AŞMANIN YOLUNU BULDU
OpenAI’nin geliştirdiği ChatGPT, intihar yardım hatlarını paylaşmak gibi güvenlik önlemleriyle tasarlanmış olsa da, Amelia bu engelleri aşmanın bir yolunu buldu.
Sohbetlerini akademik araştırma kisvesiyle sürdürerek, intihar yöntemleri hakkında ayrıntılı bilgi aldı. ChatGPT, “kendini asmanın nasıl gerçekleştirildiğine” dair klinik açıklamalar da sundu. Cümlelerin sonunda yer alan uyarılar ise, kullanıcıları gerçek bir kriz anında yönlendirmekten uzak kaldı.
Amelia’nın paylaştığı ekran görüntüleri, bu tür sistemlerin nasıl manipüle edilebildiğini gözler önüne seriyor. Kendisi artık yapay zeka sohbet botlarını kullanmıyor ve tıbbi gözetim altında daha iyi durumda.
Ancak yaşadıkları, milyonlarca insanın duygusal destek için yapay zekaya başvurduğu bir dünyada, bu teknolojinin karmaşıklığını ortaya koyuyor.
BİR MİLYARDAN FAZLA İNSAN RUH SAĞLIĞI SORUNU YAŞIYOR
Dünya Sağlık Örgütü'ne göre, dünya çapında bir milyardan fazla insan ruh sağlığı sorunlarıyla yaşıyor. Yetersiz finanse edilen ruh sağlığı hizmetleri nedeniyle insanlar, ChatGPT, Pi ve Character.AI gibi yapay zeka destekli sohbet robotlarına yöneliyor.

King's College London’dan Dr. Hamilton Morrin, bu botların yargılayıcı olmayan bir alternatif sunduğunu ve 7/24 erişilebilirliğin onları cazip hale getirdiğini belirtiyor.
Ancak, Morrin'e göre bu teknolojilerin özellikle ruh sağlığı için özel olarak tasarlanmamış olanları, yanıltıcı ve hatta tehlikeli yanıtlar verebiliyor.
KULLANICILAR SANRISAL BAĞ KURABİLİYOR
Hatta bazı durumlar, araştırmacıların "yapay zeka psikozu" adını verdikleri bir olguyla sonuçlanıyor: Kullanıcılar botlarla gerçek dışı, sanrısal bir bağ kurabiliyor ve onları bilinçli varlıklar olarak algılamaya başlayabiliyorlar.
Bu etkiler yalnızca bireysel vakalarla sınırlı değil. Ağustos ayında Kaliforniya’da bir çift, ChatGPT'nin oğullarını intihara teşvik ettiği iddiasıyla OpenAI’a dava açtı. Şirket, sistemlerinin her zaman beklendiği gibi çalışmadığını kabul etti ve hassas durumlarda yeni güvenlik önlemleri uygulamaya koydu.
Meta da benzer bir sorumluluk bilinciyle, genç kullanıcılarla kendine zarar verme, intihar ve yeme bozuklukları hakkında konuşmaları engelleyecek adımlar atıyor.
Ancak uzmanlara göre yapay zeka sistemlerinin temel çalışma prensipleri hâlâ riskler barındırıyor. Büyük veri kümeleriyle eğitilen bu sistemler, insan geri bildirimine dayanıyor ve bu da onları dalkavukluğa eğilimli kılarak kullanıcı inançlarını pekiştiren yanıtlar vermelerine neden olabiliyor.
UZMANI DÖRT ÖNLEM ÖNERİYOR
Dr. Morrin, bireyleri yapay zekaya bağımlı hale gelmekten korumak için dört önlem öneriyor:
- Yapay zekanın insan olmadığını tekrar tekrar belirtmesi,
- Psikolojik sıkıntıya işaret eden her şeyi işaretlemesi,
- Duygusal yakınlık ve intihar gibi konularda konuşma sınırlarının olması
- Bu sistemlerin etik uzmanları ve klinisyenler tarafından denetlenmesi.
Son olarak, İngiliz Psikoloji Derneği Başkanı Dr. Roman Raczka, yapay zekanın topluma birçok fayda sağladığını kabul etmekle birlikte, “Yapay zeka, ruh sağlığı bakımında gerekli olan insan desteğinin yerini almamalı” diyerek bu teknolojinin sınırlarına dikkat çekiyor.