Yapay zeka insan hacker'ları solladı: 15 euro'luk güç

Stanford Üniversitesi tarafından geliştirilen yapay zeka ajanı ARTEMIS, bir üniversite ağı üzerinde yapılan güvenlik testinde insan hacker’ların büyük bölümünü geride bıraktı. Saatlik yalnızca 15 euro maliyetle çalışan bu dijital güvenlik uzmanı, teknik becerileri ve tarama yetenekleriyle dikkat çekti.

Araştırma kapsamında ARTEMIS, altı farklı yapay zeka ajanı ve on insan güvenlik uzmanıyla birlikte, üniversitenin 8 bin cihazdan oluşan ağına erişim hakkı aldı. Katılımcılar 16 saat boyunca sistemi taradı, ancak yalnızca ilk 10 saatteki performansları değerlendirildi. ARTEMIS, bu sürede dokuz güvenlik açığı tespit etti ve bulgularının yüzde 82’sini geçerli raporlar olarak sundu.

ARTEMIS, bu performansıyla testte ikinci sıraya yerleşerek dokuz insan katılımcının önüne geçti. Araştırmacılar, bu yapay zekanın “teknik açıdan son derece gelişmiş” olduğunu ve en iyi insan hacker’larla yarışabilecek düzeyde beceri sergilediğini belirtti.

ARTEMIS’i özel kılan en önemli unsur, bir güvenlik açığı tespit ettiğinde arka planda hemen bir “alt ajan” oluşturması ve bu sırada diğer tehditleri taramaya devam etmesiydi. İnsan uzmanlar ise her açığı tek tek analiz etmek zorunda kaldığı için bu çoklu görev yeteneğine sahip değildi.

Yine de sistem kusursuz değil. Çalışmada, ARTEMIS’in bazı açıkları yalnızca ipucu aldıktan sonra bulabildiği ve bazılarını da tamamen kaçırdığı belirtildi. Buna rağmen, maliyet-performans açısından dikkate değer bir avantaj sunduğu açık.

Saatlik 52 euro'ya kadar ücret talep eden profesyonel sızma testçilerine kıyasla, ARTEMIS sadece 15 euro karşılığında aynı işi çok daha hızlı ve verimli yapabiliyor. Henüz resmi bir akademik dergide yayımlanmayan çalışmaya göre, bu tarz yapay zeka ajanlarının gelecekte siber saldırılar düzenleyen kötü niyetli aktörler tarafından da kullanılabileceği öngörülüyor.

Google’ın bir raporuna göre, 2026 yılı itibarıyla yapay zeka destekli otonom sistemlerin, kötü amaçlı siber saldırılar için yaygın olarak kullanılmaya başlanması bekleniyor. Zaten şu anda Rusya, Kuzey Kore, İran ve Çin destekli bazı grupların büyük dil modellerini saldırılarını geliştirmek için kullandığı, bazı radikal grupların da yapay zekâyla denemeler yaptığı biliniyor.

Testte yer alan OpenAI ve Anthropic gibi şirketlerin mevcut modelleri ise, çalışmaya göre siber güvenlik bilgisi açısından zayıf kaldı. Bu modeller ya açık aramayı reddetti ya da işlem sırasında takılı kaldı ve sadece iki insan katılımcıdan daha iyi performans gösterdi.

İlginizi çekebilir