Uzmanlara göre yapay zekâ, özellikle propaganda üretimi, gerçekçi “deepfake” içerikler ve siber saldırıların ölçeklendirilmesi gibi alanlarda aşırıcı gruplar için etkisi yüksek bir kaldıraç haline gelebilir. İstihbarat servisleri ve güvenlik birimleri, düşük bütçeli ve dağınık yapılanmaların bile üretken yapay zekâ sayesinde kısa sürede geniş kitlelere ulaşabilecek içerikler üretebildiğini vurguluyor.

“Az kaynakla daha büyük etki” endişesi

Güvenlik çevrelerinin öne çıkardığı temel risklerden biri, yapay zekânın “giriş bariyerini” düşürmesi. ABD Ulusal Güvenlik Ajansı’nda (NSA) daha önce araştırmacı olarak görev yapmış, bugün siber güvenlik alanında bir şirketi yöneten John Laliberte, yapay zekânın küçük bir grubun sınırlı bütçeyle daha büyük etki yaratabilmesini mümkün kıldığını söylüyor. Bu durum, propaganda kapasitesini artırmanın yanı sıra bilgi kirliliği ve manipülasyonun da daha hızlı yayılmasına zemin hazırlıyor.

Son dönemde IŞİD yanlısı çevrimiçi platformlarda yapılan bazı paylaşımlarda da, örgüt destekçilerinin yapay zekâyı “faaliyetlerinin bir parçası” haline getirmesi gerektiği yönünde çağrılar yer aldı. Güvenlik uzmanları, bu tür mesajların doğrudan bir operasyonel plan ortaya koymasa bile, teknolojiye yönelik ilgiyi büyüttüğünü ve “deneme–yanılma” sürecini hızlandırdığını belirtiyor.

Propaganda, deepfake ve dil bariyerinin kalkması

IŞİD’in geçmişte propaganda ve dezenformasyon için sosyal medyayı erken dönemde benimsediği biliniyor. Örgütün bugün daha merkeziyetsiz bir ağ yapısına evrilmiş olması, dijital alandaki düşük maliyetli araçların değerini artırıyor. Uzmanlara göre üretken yapay zekâ; görüntü, ses ve metin üretiminde sağladığı hız sayesinde, tek bir kişinin ya da küçük bir hücrenin bile kısa sürede çok sayıda içerik oluşturmasına imkân tanıyor.

Bu içeriklerin sosyal medya algoritmalarıyla etkileşimi ise ayrı bir risk başlığı. Gerçekçi görseller, manipüle edilmiş videolar veya ikna edici metinler; yeni destekçilerin kazanılması, rakiplerin sindirilmesi ve propaganda mesajlarının daha geniş kitlelere ulaştırılması amacıyla kullanılabiliyor.

Geçen yıl Rusya’da bir konser salonuna düzenlenen ve yaklaşık 140 kişinin hayatını kaybettiği saldırının ardından, saldırıyı üstlenen IŞİD bağlantılı yapıyla ilişkilendirilen propaganda içeriklerinin çevrimiçi platformlarda hızla yayıldığına işaret ediliyor. Güvenlik analistleri, bu tür olaylarda “hikâye anlatımı” ve algı yönetimi yarışının giderek daha fazla dijital üretim kapasitesine dayandığını vurguluyor.

SITE Intelligence Group araştırmacıları da IŞİD’in bazı içeriklerinde deepfake ses kayıtları ve hızlı çeviri imkânları gibi araçlardan yararlandığına dikkat çekiyor. Uzmanlar, çeviri ve içerik üretiminin otomatikleşmesinin özellikle çok dilli propaganda ağları açısından etkili olabileceğini belirtiyor.

Siber saldırılar ve kimlik avı riski büyüyor

Güvenlik uzmanları, yapay zekâ kaynaklı risklerin yalnızca propaganda ile sınırlı olmadığı görüşünde. Eski bir CIA ajanı olan ve bugün siber güvenlik sektöründe yönetici olarak görev yapan Marcus Fowler, ucuz ve güçlü yapay zekâ araçlarının yaygınlaşmasıyla tehdidin daha da büyüyebileceğini savunuyor.

Siber suçluların hâlihazırda yapay ses ve görüntüleri kimlik avı saldırılarında kullandığı bilinirken, aşırıcı grupların da benzer yöntemlerden yararlanabileceği değerlendiriliyor. Uzmanlar, saldırı hazırlık süreçlerinin otomasyonu, hedef odaklı oltalama mesajlarının çoğaltılması ve dijital operasyonların daha “profesyonel” görünmesi gibi alanlarda yapay zekânın kötüye kullanım potansiyeline işaret ediyor.

Daha geniş güvenlik tartışmalarında ise, bazı kurum raporlarında yapay zekânın teknik bilgi eksikliklerini “telafi etmeye” dönük kötüye kullanım ihtimalinin de gündeme geldiği belirtiliyor. Yetkililer, bu başlığın özellikle risk değerlendirmelerinde yakından takip edildiğini ifade ediyor.

Kongre’de “acil önlem” çağrısı

ABD’de yasa yapıcılar, yapay zekânın kötüye kullanımına karşı daha hızlı ve koordineli adımlar atılması gerektiğini savunuyor. Senato İstihbarat Komitesi’nin kıdemli Demokrat üyesi Mark Warner, yapay zekâ geliştiricilerinin ürünlerinin aşırıcı gruplar, siber suçlular veya yabancı istihbarat servisleri tarafından nasıl istismar edildiğine ilişkin bilgileri kamu kurumlarıyla daha etkin paylaşabilmesi gerektiğini dile getirdi.

Temsilciler Meclisi’nden geçen bir yasa tasarısı da, iç güvenlik yetkililerinin aşırıcı grupların oluşturduğu yapay zekâ risklerini her yıl değerlendirmesini öngörüyor. Tasarıyı sunan Cumhuriyetçi Temsilci August Pfluger ise, tehditlerin hızla evrildiği bir dönemde politika ve kapasitenin aynı hızla güncellenmesi gerektiğini vurguladı.

Uzmanlar, düzenleme tartışmalarının yalnızca yasaklar üzerinden değil; platform güvenliği, riskli kullanım tespiti, raporlama mekanizmaları ve kamu–özel sektör iş birliği gibi başlıklarda yürütülmesinin kritik olduğunu belirtiyor.