Yapay Zeka Platformları Şiddet Senaryolarını Erken Tespit Ediyor
Yapay zeka platformları, sistemlerini suç amaçlı kullanan kullanıcıları tespit ederek hesaplarını kapatabiliyor ve gerekli görülmesi durumunda güvenlik birimlerine bilgi verebiliyor. Bu teknoloji, hayatın her alanına etki eden bir güç olarak etkisini her geçen gün artırıyor.
Kanada'daki Silahlı Saldırıda Yapay Zeka Erken Uyarısı
Yapay zekanın suç amaçlı kullanımına ilişkin çarpıcı bir örnek Kanada'da yaşandı. Ülkenin British Columbia eyaletinde 10 Şubat'ta bir okul ve evde düzenlenen silahlı saldırıda, aralarında saldırganın da bulunduğu 10 kişi hayatını kaybetti, 27 kişi yaralandı.
Saldırgan 18 yaşındaki Jesse Van Rootselaar'ın ChatGPT'yi suç amaçlı kullandığı, yapay zeka platformunun sahibi OpenAI tarafından aylar önce tespit edildi. Wall Street Journal'ın haberine göre, Van Rootselaar geçen yıl haziran ayında ChatGPT'ye birkaç gün boyunca silahlı şiddet içeren senaryoları anlattı.
Otomatik İnceleme Sistemi Nasıl Çalışıyor?
Bu yazışmalar ChatGPT'nin otomatik inceleme sistemi tarafından işaretlenerek ilgili OpenAI çalışanlarına iletildi ve kullanıcının hesabı derhal kapatıldı. Şirket içerisinde bu paylaşımların kolluk kuvvetlerine bildirilmesi konusunda değerlendirme yapıldı ve gerekli kriterleri karşılamadığı belirlenerek güvenlik birimlerine konu iletilmedi.
Bu durum, platformların erken önlem sistemi olarak kullanılıp kullanılamayacağı ve veri mahremiyeti tartışmalarını da beraberinde getirdi.
Yapay Zeka Platformlarının Güvenlik Protokolleri
Yapay zeka platformları çeşitli mekanizmalarla suç amaçlı kullanımın önüne geçmeye çalışıyor:
- ChatGPT gibi Gemini da suç amaçlı kullanımları tespit etmek ve engellemek için tasarlanmış çok katmanlı güvenlik protokolleri uyguluyor.
- Gemini'nin kendisine gelen sorguları gerçek zamanlı olarak tarayan güvenlik filtreleri bulunuyor.
- Bir kullanıcının silah yapımı talimatı, yasa dışı madde sentezleme veya fiziksel şiddet planlama gibi taleplerde bulunması durumunda sistem bunu otomatik olarak reddediyor ve yanıt vermiyor.
Şirket Politikaları ve Yetkili Bildirimleri
Google, politikalarına göre yakın ve ciddi bir fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor. Acil durumlarda bilgi taleplerine ilişkin Google'ın sitesinde şu bilgiler yer alıyor:
"Birinin ölümünü veya ciddi fiziksel zarar görmesini önleyebileceğimize makul şekilde inanıyorsak, örneğin bomba tehditleri, okul saldırıları, kaçırma olayları, intihar önleme ve kayıp kişiler vakalarında, bir devlet kurumuna bilgi sağlayabiliriz. Bu talepleri yine de geçerli yasalar ve politikalarımız ışığında değerlendiriyoruz."
Suç Öncesi Bildirimler Şirket İnisiyatifinde
Mevcut düzenlemeler, teknoloji şirketlerinin genellikle suç işlendikten sonra veri paylaşımını kapsıyor. Suç oluşmadan önce yapılacak bildirimler ise tamamen şirketlerin inisiyatifinde bulunuyor. Bu durum, yapay zeka platformlarının sosyal sorumlulukları ile kullanıcı mahremiyeti arasında denge kurma zorunluluğunu ortaya koyuyor.
En fazla kullanılan yapay zeka büyük dil modelleri arasında ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude öne çıkıyor. Bu platformlar, araştırmadan sağlıkla ilgili bilgi edinmeye kadar birçok amaç için yararlanılırken, bazı kullanıcılar tarafından suç amaçlı da kullanılabiliyor.
Fiziksel saldırıların planlanması, çeşitli silah ve mühimmat üretimi gibi durumlar yapay zekanın suç amaçlı kullanım örneklerini oluşturuyor. Platformlar bu tarz kullanımlara karşı modellerini sürekli eğiterek taleplerin reddedilmesini sağlamaya ve toplum güvenliğini korumaya çalışıyor.



