OpenAI, ChatGPT kullanıcılarının yaşını tahmin etmek için hesap bilgilerini analiz eden yeni bir güvenlik katmanı oluşturdu.
Bu yeni sistem; bir hesabın ne kadar süredir var olduğu, kullanıcının günün hangi saatlerinde oturum açtığı ve yapay zekaya ne tür sorular sorduğu gibi verileri işleyerek kişinin 18 yaşın altında olup olmadığını saptayacak. Şirket, bu yaklaşımın uzman görüşleri ve çocuk gelişimi bilimine dair akademik literatür rehberliğinde geliştirildiğini vurguladı.
OTOMATİK GÜVENLİK ÖNLEMİ GELECEK
Sistem bir kullanıcıyı 18 yaş altı olarak tanımladığında, platformdaki güvenlik ayarları otomatik olarak en üst seviyeye çıkarılacak.
Bu kapsamda; şiddet, cinsellik, kendine zarar verme ve grafik içeriklere karşı ek korumalar anında devreye girecek.
Ayrıca, sosyal medyada hızla yayılan ve gençler için 'riskli veya zararlı davranışları' teşvik eden tehlikeli meydan okumaların yapay zeka tarafından desteklenmesi de sınırlandırılacak. Ancak reşit olmayan kullanıcılar, öğrenme ve yaratıcılık amaçlı olarak platformu kullanmaya devam edebilecekler.
BASKILAR ARTIYOR
OpenAI’ın bu hamlesi, küresel çapta hükümetlerin teknoloji şirketlerine yönelik baskılarını artırdığı bir döneme denk geliyor. Avrupa Birliği’nde 16 yaş altı kullanıcılar için sosyal medya kısıtlamaları tartışılırken, Avustralya geçtiğimiz Aralık ayında bir yasak kararı almıştı.

ChatGPT, Avustralya'daki kısıtlamalar kapsamında bir sosyal medya platformu olarak değerlendirilmese de şirket, genç kullanıcıların güvenliği konusunda proaktif bir adım atmayı tercih etti.
16 YAŞINDAKİ GENCİN AİLESİ DAVA AÇTI
Güncellemenin arka planında ciddi bir yasal süreç de yer alıyor. OpenAI ve CEO Sam Altman, geçtiğimiz Nisan ayında intihar eden 16 yaşındaki Adam Raine’in ailesi tarafından California’da açılan bir davayla karşı karşıya.
Aile, platformun çocuklarına intihar etmesi için koçluk yaptığını ve bir veda mektubu yazdığını iddia ediyor.