Yapay Zekâya Distillation Saldırısı
Google Threat Intelligence Group, 2025’in son çeyreğinde yapay zekânın siber saldırılarda daha sistematik şekilde kullanıldığını açıkladı.
Google Threat Intelligence Group (GTIG), 2025’in son çeyreğine ilişkin yayımladığı raporda tehdit aktörlerinin yapay zekâyı saldırı yaşam döngüsünün her aşamasına entegre ettiğini açıkladı.
Rapora göre özellikle “model extraction” ya da diğer adıyla distillation saldırıları dikkat çekici biçimde arttı. Bu yöntemle saldırganlar, yasal API erişimi üzerinden büyük dil modellerini sistematik olarak sorgulayarak modelin mantığını ve akıl yürütme süreçlerini kopyalamaya çalışıyor. Google, bu girişimlerin çoğunun özel sektör aktörleri ve araştırmacılar tarafından gerçekleştirildiğini, devlet destekli APT gruplarının ise henüz frontier modellere doğrudan saldırı gerçekleştirmediğini belirtiyor.
Bununla birlikte İran, Çin, Kuzey Kore ve Rusya bağlantılı tehdit aktörlerinin keşif, hedef profilleme, kimlik avı metni üretimi ve kötü amaçlı yazılım geliştirme süreçlerinde LLM’leri aktif biçimde kullandığı gözlemlendi. Özellikle çok adımlı, kültürel olarak uyumlu ve kişiselleştirilmiş oltalama senaryolarının üretiminde yapay zekâ önemli bir hızlandırıcı rol oynuyor.
Raporda ayrıca HONESTCUE adlı zararlı yazılım ailesinin, ikinci aşama yükünü oluşturmak için Gemini API üzerinden C# kodu üretmeye çalıştığı; COINBAIT adlı phishing kitinin ise yapay zekâ destekli kod üretim platformlarıyla geliştirilmiş olabileceği belirtiliyor. Google, bu faaliyetlere karşı ilgili hesapları devre dışı bıraktığını ve model güvenlik katmanlarını güçlendirdiğini ifade ediyor.
GTIG’ye göre henüz “oyun değiştirici” bir kırılma yaşanmış değil; ancak tehdit aktörlerinin AI’yi üretkenlik artırıcı bir araçtan operasyonel bir bileşene dönüştürmesi, savunma tarafında daha proaktif güvenlik mimarilerini zorunlu kılıyor.