Anasayfa » Yapay Zeka Destekli Siber Tehditler Artıyor

Yapay Zeka Destekli Siber Tehditler Artıyor

2025 yılı itibarıyla yapay zeka (AI), siber saldırıların evriminde kritik bir kırılma noktası oluşturdu. Geleneksel yöntemlerle gerçekleştirilen saldırılar yerini artık otomatikleştirilmiş, hedefe özel ve son derece ikna edici yapay zeka destekli saldırı tekniklerine bırakıyor. Avrupa Birliği Siber Güvenlik Ajansı ENISA’nın 2024 son çeyrek raporuna göre, tespit edilen siber saldırıların %32’sinde yapay zekâ tabanlı unsurlar yer aldı.

Yeni Nesil Tehditler: LLM’ler, Klon Sesler ve Deepfake CEO’lar

Büyük Dil Modelleri ile Gerçekçi Phishing Saldırıları

    Saldırganlar, hedef kişinin sosyal medya geçmişini, paylaşımlarını, iş e-postalarını analiz ederek büyük dil modelleri (LLM) ile kişiselleştirilmiş phishing e-postaları üretiyor. WormGPT ve FraudGPT gibi filtrelenmemiş LLM sistemleri sayesinde, hedefin pozisyonuna göre yazılmış profesyonel görünümlü sahte e-postalar sadece saniyeler içinde hazırlanabiliyor.


    Bir sistem yöneticisine, “Log4j zafiyetine yönelik acil yama” başlığıyla gelen e-posta, şirket içi birimden gelmiş gibi görünüyordu. Ekteki .zip dosyası içerisinde, kullanıcı haklarıyla çalışan Python tabanlı bir RAT (Remote Access Trojan) yer alıyordu. Mail, FraudGPT tarafından yazılmış ve içeriği GPT-4’ün güvenlik filtrelerinin kaldırılmış türeviyle oluşturulmuştu.

    Ses Klonlama ile Sesli Kimlik Doğrulamanın Aşılması

      Sadece 60 saniyelik bir ses kaydıyla, hedefin sesinin birebir klonlanması mümkün. ElevenLabs, Descript ve Resemble.ai gibi platformlar üzerinden üretilen ses dosyaları; çağrı merkezleri, bankalar ve hatta devlet kurumlarının sesli doğrulama sistemlerini aldatmakta kullanılıyor.


      Bir Avrupa bankasında, dolandırıcılar bir müşterinin eski telefon kayıtlarını kullanarak sesini klonladı. Kişisel verilerle yapılan kimlik doğrulama ardından, klon sesle verilen komutlarla 1.2 milyon Euro başka hesaplara aktarıldı. İşlem yalnızca 3 dakika sürdü.

      Deepfake CEO Dolandırıcılığı

        Yapay zeka tabanlı video üretim teknolojileri, yöneticilerin görüntü ve seslerini birebir taklit ederek sahte toplantılar düzenlenmesine yol açıyor. Çin’de yaşanan bir olayda, CFO ile CEO arasında geçen deepfake video görüşmesi sonucunda 25 milyon Euro’nun başka bir hesaba aktarılması sağlandı (Kaynak: Forbes, 2024).

        Hangi Araçlar Kullanılıyor?
        WormGPT / FraudGPT Otomatik zararlı içerik üretimi
        ElevenLabs Ses klonlama
        DeepFaceLab / FaceSwap Deepfake üretimi
        AutoGPT, AgentGPT Otomatik istihbarat toplama ve hedef analizi

        Savunma Cephesinde AI’ya Karşı AI

        AI Destekli Anomali Tespiti (UEBA)

          User & Entity Behavior Analytics sistemleri, kullanıcının rutin davranışlarını öğrenerek şüpheli aktiviteleri (gece saatlerinde sistem erişimi, olağandışı dosya hareketleri) tespit ediyor. Geleneksel antivirüslerin aksine, davranış temelli koruma sunuyor.

          Zero Trust Mimarisi

            “Hiç kimseye güvenme, her şeyi doğrula” yaklaşımı artık standart olmalı. Segmentasyon, MFA, kimlik politikaları ve sürekli denetim ile içerden gelen tehditler de kontrol altına alınabiliyor.

            Tersine LLM Kullanımı

            OpenAI, Anthropic gibi sağlayıcıların modelleri ile SOC ekipleri; şüpheli e-postaların içerik analizini, zararlı komut dosyalarının kod taramasını ve tehdit tespitini hızlandırıyor. Örneğin, bir mail içeriği GPT-4’e “Bu dolandırıcılık olabilir mi?” şeklinde sorularla test edilebiliyor.

            Dijital Güvenlikte Yeni Dönem: Regülasyon, Eğitim ve Ortak Mücadele

            AB’nin Yapay Zeka Yasası (AI Act) ve Dijital Hizmetler Yasası (DSA) gibi düzenlemeleri, teknoloji şirketlerine şeffaflık ve filtre sorumluluğu getiriyor. Ancak saldırganların karanlık web, VPN ve anonim platformlar aracılığıyla hareket ettiği bir ortamda yalnızca düzenleme yetmiyor.

            Kurumsal güvenlik stratejilerinde şu 3 unsur artık kaçınılmaz:
            • Sürekli Farkındalık Eğitimi
            • AI Güvenlik Analistleri ile Donanımlı SOC Birimleri
            • Uluslararası Tehdit İstihbaratı Paylaşımı

            AI, Bilgisiz Ellerde Bir Siber Silah Olabilir

            Siber güvenlik artık yalnızca antivirüs ve güvenlik duvarlarından ibaret değil. Bugünün tehdidi, kendi kodunu yazan, kendi konuşmasını yapan ve kendi yüzünü taklit eden bir yapay zekâ. Ve bu tehdit; en az onun kadar gelişmiş, sürekli güncellenen, AI tabanlı savunma mekanizmaları ile karşılık bulmalı.

            Diğer yazılarımıza buradan ulaşabilirsiniz.

            More Reading

            Post navigation

            Leave a Comment

            Bir yanıt yazın

            E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir