Yapay Zeka ile Üretilen Şifreler Sanıldığı Kadar Güvenli Değil

Yapay Zeka ile Üretilen Şifreler Sanıldığı Kadar Güvenli Değil
Günümüzde yapay zeka, hayatımızın birçok alanında bize yardımcı oluyor. Ancak konu şifre güvenliği olunca, popüler yapay zeka araçlarının ürettiği şifreler beklenenin aksine ciddi riskler taşıyabiliyor. Yapılan son analizler, bu araçların oluşturduğu şifrelerin aslında ne kadar tahmin edilebilir olduğunu gözler önüne seriyor.
Neden Yapay Zeka ile Şifre Üretmek Riskli?
Siber güvenlik firması Irregular’ın yaptığı detaylı incelemeler, ChatGPT, Claude ve Google Gemini gibi büyük dil modellerinin şifre üretimindeki zayıflıklarını ortaya çıkardı. Bu yapay zeka modelleri, gerçekten rastgele ve karmaşık şifreler üretmek yerine, belirli kalıpları tekrar etme eğilimindeler. Bu durum, şifrelerinizin aslında düşündüğünüz kadar güçlü olmadığını ve kolayca tahmin edilebileceğini gösteriyor.
Araştırmanın öne çıkan bulguları şunlar:
- Yapay zeka modelleri tarafından üretilen şifrelerde sıkça tekrar eden karakter dizileri görülüyor.
- Üretilen şifrelerde sembol çeşitliliği genellikle sınırlı kalıyor.
- Bazı durumlarda, tamamen aynı şifrelerin tekrar üretildiği gözlemlendi. Örneğin, bir testte Claude ile üretilen 50 şifrenin sadece 30’u benzersizdi ve aynı şifre tam 18 kez tekrarlandı. Bu, rastgelelikten uzak, öngörülebilir bir üretim sürecine işaret ediyor.
Şifre Gücünü Anlamak: Entropi Kavramı
Bir şifrenin ne kadar güvenli olduğunu anlamak için “entropi” kavramı kullanılır. Entropi, bir şifreyi tahmin etmenin ne kadar zor olduğunu gösteren matematiksel bir ölçümdür. Basitçe ifade etmek gerekirse:
- 20 bit entropiye sahip bir şifre, yaklaşık 1 milyon denemede kırılabilir.
- Ancak 100 bit entropiye sahip bir şifreyi kırmak, trilyonlarca yıl sürebilir.
Irregular’ın bulgularına göre, 16 karakterlik güçlü bir şifrenin yaklaşık 98 bit entropiye sahip olması gerekirken, yapay zeka tarafından üretilen şifrelerin ortalama entropi değeri sadece 27 bit seviyesinde kalıyor. Bu düşük değer, bu şifrelerin saniyeler içinde kırılabileceği anlamına geliyor.
Uzman Görüşleri ve Tehlike
Ulster Üniversitesi’nden Siber Güvenlik Profesörü Kevin Curran, yapay zeka ile şifre üretmenin “riskli bir uygulama” olduğunu vurguluyor. Curran’a göre, büyük dil modelleri gerçek rastgelelik yerine, eğitim verilerinden öğrendikleri istatistiksel olasılıkları tekrar ediyor. Bu da dışarıdan karmaşık görünen ancak aslında tahmin edilebilir şifreler ortaya çıkarıyor. Otomatik parola kırma araçları karşısında bu tür şifreler büyük bir savunmasızlık sergiliyor.
Kurumlar İçin Yapay Zeka Şifre Tehlikesi
Bu risk sadece bireysel kullanıcılarla sınırlı değil. Şirket çalışanlarının da şifre üretmek için yapay zeka araçlarını kullanması, kurumsal ağlarda ciddi güvenlik açıkları yaratabilir. Bu nedenle, uzmanlar bazı önlemler alınmasını öneriyor:
- Kurum içinde yapay zeka ile şifre üretimine yönelik net politikalar belirlenmeli.
- Kriptografik rastgele sayı üreteçleri kullanan güvenilir parola yöneticileri tercih edilmeli.
- Çok faktörlü kimlik doğrulama ve passkey gibi modern kimlik doğrulama yöntemleri yaygınlaştırılmalı.
- Personelin düzenli olarak siber güvenlik eğitimi alması sağlanmalı.
Araştırmacılar, yapay zeka ile üretilen şifrelerin gerçek dünyada giderek daha fazla kullanılmaya başlandığını ve bu durumun endişe verici olduğunu belirtiyor. Yapay zeka araçları birçok alanda üretkenliği artırsa da, konu güvenlik olduğunda “karmaşık görünen” ile “gerçek güvenlik” arasındaki fark hayati önem taşıyor.
Siz Ne Düşünüyorsunuz?
Yapay zeka ile şifre üretme konusundaki bu bulgular hakkında ne düşünüyorsunuz? Şifre güvenliğiniz için hangi yöntemleri tercih ediyorsunuz? Bu gelişmeler, dijital güvenlik anlayışımızı nasıl etkilemeli? Görüşlerinizi bizimle paylaşın. Teknolojinin sunduğu kolaylıkların yanı sıra, güvenlik konusundaki hassasiyetimizi de ön planda tutmalıyız. Daha fazla güncel teknoloji haberi ve bilgisi için teknobirader.com‘u ziyaret etmeyi unutmayın.
Anahtar Kelimeler: yapay zeka, şifre güvenliği, siber güvenlik, büyük dil modelleri, entropi, parola üretimi



