Konuşulanın ötesinde: Yapay zekâ ve siber güvenlikteki rolü

ESET’in yeni teknik incelemesi, siber savunmacılar için yapay zekâ risklerini ve fırsatlarını ortaya çıkarıyor

Günümüzün konusu, Yapay zekâ (AI) ve AI teknolojisindeki en son ve en büyük gelişmelerin nefes kesici haberlere konu olması. Muhtemelen çok az sektör siber güvenlik kadar kazanç elde edecek ya da siber güvenlik kadar ağır darbe alacak. Yaygın inanışın aksine, bu alandaki bazı kişiler teknolojiyi yirmi yılı aşkın bir süredir bir şekilde kullanıyor. Ancak bulut bilişimin ve gelişmiş algoritmaların gücü, dijital savunmaları daha da geliştirmek ya da kuruluşların koruma, tespit ve müdahale yöntemlerini dönüştürebilecek yeni nesil yapay zekâ tabanlı uygulamaların oluşturulmasına yardımcı olmak için bir araya geliyor.  

Öte yandan bu yetenekler daha ucuz ve daha erişilebilir hale geldikçe tehdit aktörleri de teknolojiyi sosyal mühendislik, dezenformasyon, dolandırıcılık ve daha birçok alanda kullanacak. ESET‘in yeni teknik raporu, siber savunucular için riskleri ve fırsatları ortaya çıkarmayı amaçlıyor. 

Siber güvenlikte yapay zekânın kısa tarihçesi 

Büyük dil modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir ancak teknoloji yıllardır başka şekillerde iyi bir biçimde kullanılıyor. Örneğin ESET, yapay zekâyı ilk olarak çeyrek asır önce makro virüslerin tespitini iyileştirmek amacıyla sinir ağları aracılığıyla kullandı. O zamandan bu yana, yapay zekayı çeşitli şekillerde kullandı: 

  • Kötü niyetli ve temiz kod örnekleri arasında ayrım yapma 
  • Kötü amaçlı yazılım örneklerinin toplu halde hızlı triyajı, sınıflandırılması ve etiketlenmesi 
  • Eğitim verileri aracılığıyla sürekli öğrenme modelinden yararlanan bir bulut itibar sistemi 
  • Sinir ağları, karar ağaçları ve diğer algoritmaların kombinasyonu sayesinde yüksek algılama ve düşük yanlış pozitif oranlarına sahip uç nokta koruması 
  • Çok katmanlı makine öğrenimi algılama, paket açma ve tarama, deneysel algılama ve derin davranış analizi ile desteklenen güçlü bir bulut sanal alan aracı 
  • Transformatör yapay zekâ modelleriyle desteklenen yeni bulut ve uç nokta koruması 
  • Büyük hacimli olayları ilişkilendirerek, önceliklendirerek ve gruplandırarak tehditlerin önceliklendirilmesine yardımcı olan XDR 

Yapay zekâ güvenlik ekipleri tarafından neden kullanılıyor? 

Günümüzde güvenlik ekipleri, üç ana etken sayesinde etkili yapay zekâ tabanlı araçlara her zamankinden daha fazla ihtiyaç duyuyor: 

1. Beceri eksikliği sert bir şekilde vurmaya devam ediyor 

Son sayıma göre, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunmaktadır. Kuruluşlar, sahip oldukları personelin üretkenliğini artıracak ve kıdemli meslektaşlarının yokluğunda tehdit analizi ve düzeltme konusunda rehberlik sağlayacak araçlara ihtiyaç duymaktadır. İnsan ekiplerinin aksine, yapay zekâ 7/24/365 çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.  

2. Tehdit aktörleri çevik, kararlı ve iyi kaynaklara sahip 

Siber güvenlik ekipleri eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir tahmine göre, siber suç ekonomisi 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Çiçeği burnunda tehdit aktörleri, saldırı başlatmak için ihtiyaç duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler. Üçüncü taraf aracılar, önceden ele geçirilmiş kuruluşlara erişim sunuyor. Ve hatta ulus devlet aktörleri bile finansal olarak motive edilmiş saldırılara dahil oluyor; başta Kuzey Kore olmak üzere, Çin ve diğer uluslar. Rusya gibi ülkelerde hükümetin Batı karşıtı hacktivizmi aktif olarak beslediğinden şüpheleniliyor. 

3. Riskler hiç bu kadar yüksek olmamıştı 

Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan güven de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da hızla tespit edip kontrol altına alamazlarsa kurumlarının büyük mali ve itibar kaybına uğrayabileceğini biliyor. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolardır. Ancak hizmet kesintisi ve veri hırsızlığı içeren ciddi bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir tahmine göre sadece finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti. 

Yapay zekâ güvenlik ekipleri tarafından nasıl kullanılıyor? 

Bu nedenle kuruluşların siber tehditleri daha etkili bir şekilde önlemelerine, tespit etmelerine ve bunlara yanıt vermelerine yardımcı olmak için yapay zekânın gücünden yararlanmak istemeleri şaşırtıcı değildir. Peki bunu tam olarak nasıl yapıyorlar? Saldırıları belirlemek için büyük hacimli verilerdeki göstergeleri ilişkilendirerek. Normalden farklı olan şüpheli etkinlikler aracılığıyla kötü amaçlı kodları tespit ederek. Ve karmaşık bilgilerin yorumlanması ve uyarıların önceliklendirilmesi yoluyla tehdit analistlerine yardımcı olarak.  

İşte yapay zekânın mevcut ve yakın gelecekteki iyi amaçlı kullanımlarına birkaç örnek: 

  • Tehdit istihbaratı: LLM destekli GenAI asistanları, analistler için temel noktaları ve eyleme geçirilebilir çıkarımları sade bir İngilizce ile özetlemek için yoğun teknik raporları analiz ederek karmaşık olanı basitleştirebilir. 
  • Yapay zekâ asistanları: BT sistemlerine yapay zekâ “yardımcı pilotları” yerleştirmek, kuruluşları saldırıya maruz bırakacak tehlikeli yanlış yapılandırmaları ortadan kaldırmaya yardımcı olabilir. Bu, bulut platformları gibi genel BT sistemleri için olduğu kadar güvenlik duvarları gibi karmaşık ayarların güncellenmesini gerektirebilecek güvenlik araçları için de işe yarayabilir. 
  • SOC üretkenliğini güçlendirmek: Günümüzün Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri hızla tespit etmek, yanıtlamak ve kontrol altına almak için büyük bir baskı altındadır. Ancak saldırı yüzeyinin büyüklüğü ve uyarı üreten araçların sayısı çoğu zaman bunaltıcı olabiliyor. Bu, analistler zamanlarını yanlış pozitiflerle harcarken meşru tehditlerin radara yakalanmadığı anlamına gelir. Yapay zekâ, bu tür uyarıları bağlamsallaştırarak ve önceliklendirerek ve hatta muhtemelen küçük uyarıları çözerek yükü hafifletebilir. 
  • Yeni tespitler: Tehdit aktörleri taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) sürekli olarak geliştirmektedir. Ancak yapay zekâ araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit yayınlarıyla birleştirme yaparak en yeni tehditleri tarayabilir. 

Yapay zekâ siber saldırılarda nasıl kullanılıyor? 

Ne yazık ki kötü adamlar da gözlerini yapay zekâya dikmiş durumda. Birleşik Krallık Ulusal Siber Güvenlik Merkezi’ne (NCSC) göre, bu teknoloji “küresel fidye yazılımı tehdidini artıracak” ve “önümüzdeki iki yıl içinde siber saldırıların hacmini ve etkisini artıracağı da neredeyse kesin.” Tehdit aktörleri şu anda yapay zekâyı nasıl kullanıyor? Aşağıdakileri göz önünde bulundurun: 

  • Sosyal mühendislik: GenAI’ın en belirgin kullanım alanlarından biri, tehdit aktörlerinin büyük ölçekte son derece ikna edici ve neredeyse gramatik olarak mükemmel kimlik avı kampanyaları oluşturmasına yardımcı olmaktır. 
  • BEC ve diğer dolandırıcılıklar: GenAI teknolojisi bir kez daha, belirli bir kişi ya da kurumsal kişiliğin yazı stilini taklit etmek, kurbanı kandırarak para havalesi yaptırmak ya da hassas verileri/log-ins’leri teslim etmesini sağlamak için kullanılabilir. Deepfake ses ve video da aynı amaçla kullanılabilir. FBI geçmişte bu konuda birçok uyarıda bulunmuştur. 
  • Dezenformasyon: GenAI, etki operasyonları için içerik yaratma işinin ağır yükünü de ortadan kaldırabilir. Yakın tarihli bir rapor, Rusya’nın bu tür taktikleri halihazırda kullandığı konusunda uyarıda bulundu ki bu taktikler başarılı bulunursa geniş çapta tekrarlanabilir. 

Yapay zekânın sınırları 

İyi ya da kötü, yapay zekânın şu anda sınırlamaları vardır. Yüksek yanlış pozitif oranları verebilir ve yüksek kaliteli eğitim setleri olmadan etkisi sınırlı olabilir. Çıktıların doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için genellikle insan gözetimi de gereklidir. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret etmektedir.  

Zamanla bu araçlar karşı karşıya gelebilir: Biri savunmada açıklar bulmaya ve çalışanları kandırmaya çalışırken diğeri kötü niyetli yapay zekâ faaliyetlerinin işaretlerini arar. Siber güvenlikte yeni bir silahlanma yarışının başlangıcına hoş geldiniz.  


WhatsApp
Hemen Ara