2025 yılı itibarıyla yapay zeka (AI), siber saldırıların evriminde kritik bir kırılma noktası oluşturdu. Geleneksel yöntemlerle gerçekleştirilen saldırılar yerini artık otomatikleştirilmiş, hedefe özel ve son derece ikna edici yapay zeka destekli saldırı tekniklerine bırakıyor. Avrupa Birliği Siber Güvenlik Ajansı ENISA’nın 2024 son çeyrek raporuna göre, tespit edilen siber saldırıların %32’sinde yapay zekâ tabanlı unsurlar yer aldı.
Yeni Nesil Tehditler: LLM’ler, Klon Sesler ve Deepfake CEO’lar
Büyük Dil Modelleri ile Gerçekçi Phishing Saldırıları
Saldırganlar, hedef kişinin sosyal medya geçmişini, paylaşımlarını, iş e-postalarını analiz ederek büyük dil modelleri (LLM) ile kişiselleştirilmiş phishing e-postaları üretiyor. WormGPT ve FraudGPT gibi filtrelenmemiş LLM sistemleri sayesinde, hedefin pozisyonuna göre yazılmış profesyonel görünümlü sahte e-postalar sadece saniyeler içinde hazırlanabiliyor.
Bir sistem yöneticisine, “Log4j zafiyetine yönelik acil yama” başlığıyla gelen e-posta, şirket içi birimden gelmiş gibi görünüyordu. Ekteki .zip dosyası içerisinde, kullanıcı haklarıyla çalışan Python tabanlı bir RAT (Remote Access Trojan) yer alıyordu. Mail, FraudGPT tarafından yazılmış ve içeriği GPT-4’ün güvenlik filtrelerinin kaldırılmış türeviyle oluşturulmuştu.
Ses Klonlama ile Sesli Kimlik Doğrulamanın Aşılması
Sadece 60 saniyelik bir ses kaydıyla, hedefin sesinin birebir klonlanması mümkün. ElevenLabs, Descript ve Resemble.ai gibi platformlar üzerinden üretilen ses dosyaları; çağrı merkezleri, bankalar ve hatta devlet kurumlarının sesli doğrulama sistemlerini aldatmakta kullanılıyor.
Bir Avrupa bankasında, dolandırıcılar bir müşterinin eski telefon kayıtlarını kullanarak sesini klonladı. Kişisel verilerle yapılan kimlik doğrulama ardından, klon sesle verilen komutlarla 1.2 milyon Euro başka hesaplara aktarıldı. İşlem yalnızca 3 dakika sürdü.
Deepfake CEO Dolandırıcılığı
Yapay zeka tabanlı video üretim teknolojileri, yöneticilerin görüntü ve seslerini birebir taklit ederek sahte toplantılar düzenlenmesine yol açıyor. Çin’de yaşanan bir olayda, CFO ile CEO arasında geçen deepfake video görüşmesi sonucunda 25 milyon Euro’nun başka bir hesaba aktarılması sağlandı (Kaynak: Forbes, 2024).
Hangi Araçlar Kullanılıyor?
WormGPT / FraudGPT Otomatik zararlı içerik üretimi
ElevenLabs Ses klonlama
DeepFaceLab / FaceSwap Deepfake üretimi
AutoGPT, AgentGPT Otomatik istihbarat toplama ve hedef analizi
Savunma Cephesinde AI’ya Karşı AI
AI Destekli Anomali Tespiti (UEBA)
User & Entity Behavior Analytics sistemleri, kullanıcının rutin davranışlarını öğrenerek şüpheli aktiviteleri (gece saatlerinde sistem erişimi, olağandışı dosya hareketleri) tespit ediyor. Geleneksel antivirüslerin aksine, davranış temelli koruma sunuyor.
Zero Trust Mimarisi
“Hiç kimseye güvenme, her şeyi doğrula” yaklaşımı artık standart olmalı. Segmentasyon, MFA, kimlik politikaları ve sürekli denetim ile içerden gelen tehditler de kontrol altına alınabiliyor.
Tersine LLM Kullanımı
OpenAI, Anthropic gibi sağlayıcıların modelleri ile SOC ekipleri; şüpheli e-postaların içerik analizini, zararlı komut dosyalarının kod taramasını ve tehdit tespitini hızlandırıyor. Örneğin, bir mail içeriği GPT-4’e “Bu dolandırıcılık olabilir mi?” şeklinde sorularla test edilebiliyor.
Dijital Güvenlikte Yeni Dönem: Regülasyon, Eğitim ve Ortak Mücadele
AB’nin Yapay Zeka Yasası (AI Act) ve Dijital Hizmetler Yasası (DSA) gibi düzenlemeleri, teknoloji şirketlerine şeffaflık ve filtre sorumluluğu getiriyor. Ancak saldırganların karanlık web, VPN ve anonim platformlar aracılığıyla hareket ettiği bir ortamda yalnızca düzenleme yetmiyor.
Kurumsal güvenlik stratejilerinde şu 3 unsur artık kaçınılmaz:
• Sürekli Farkındalık Eğitimi
• AI Güvenlik Analistleri ile Donanımlı SOC Birimleri
• Uluslararası Tehdit İstihbaratı Paylaşımı
AI, Bilgisiz Ellerde Bir Siber Silah Olabilir
Siber güvenlik artık yalnızca antivirüs ve güvenlik duvarlarından ibaret değil. Bugünün tehdidi, kendi kodunu yazan, kendi konuşmasını yapan ve kendi yüzünü taklit eden bir yapay zekâ. Ve bu tehdit; en az onun kadar gelişmiş, sürekli güncellenen, AI tabanlı savunma mekanizmaları ile karşılık bulmalı.
Diğer yazılarımıza buradan ulaşabilirsiniz.
Leave a Comment