Twitter'da değişim rüzgarları eserken rakip platformları da güçlenmeye devam ediyor. BlueSky ve Threads ile beraber bir diğer güçlü rakip de Mastodon.

Ancak Stanford İnternet Gözlemevi'nin yaptığı yeni bir araştırmaya göre Mastodon, çocukların cinsel istismarı materyalleriyle (CSAM) dolu. Araştırmacılar sadece iki gün içinde platformdaki 325 bin gönderide bilinen CSAM'nin 112 örneğini buldular ve ilk örnekler yalnızca beş dakikalık aramanın ardından ortaya çıktı.

İnternet Gözlemevi, araştırmasını yürütmek için CSAM için en popüler 25 Mastodon örneğini taradı. Ekip, araması sırasında çevrimiçi olarak çocuklara yönelik cinsel istismar grupları tarafından sıklıkla kullanılan hashtag'ler veya anahtar kelimelerle eşleşen 554 içerik parçası buldu.

Mastodon gibi merkezi olmayan ağların popülaritesi arttıkça güvenlikle ilgili endişeler de artıyor.