Prof. Dr. Lior Rokach ve Dr. Michael Fire önderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya konuldu. Jailbreak Yöntemiyle Güvenlik Sınırları Aşıldı Araştırmacılara göre, yapay zeka modelleri, özellikle ChatGPT, Gemini ve Claude gibi büyük dil modelleri, eğitim sürecinde elde edilen geniş veri setleriyle besleniyor. Ancak, bu modellerin içerisinde…
Prof. Dr. Lior Rokach ve Dr. Michael Fire önderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya konuldu.
Araştırmacılara göre, yapay zeka modelleri, özellikle ChatGPT, Gemini ve Claude gibi büyük dil modelleri, eğitim sürecinde elde edilen geniş veri setleriyle besleniyor. Ancak, bu modellerin içerisinde zararlı içeriklerin bulunma olasılığı yüksek.
Dr. Fire, bu durumu “oldukça sarsıcı” olarak nitelendirirken, Prof. Rokach ise durumun ciddiyetine vurgu yaparak, herkesin bu tür bilgilere erişebileceğine dikkat çekti. Raporda, bu tür yapay zeka modellerinin siber suç ve dolandırıcılık gibi yasa dışı faaliyetlerde kullanılabileceği vurgulandı.
Yapay zeka güvenliği konusunda uzmanlar, teknoloji firmalarının daha dikkatli veri taraması yapmaları, güçlü güvenlik duvarları oluşturarak zararlı içerikleri engellemeleri gerektiğini belirtti. Ayrıca, yapay zeka modellerinin sürekli güvenlik testlerinden geçmesi ve güvenlik politikalarına daha sıkı bir şekilde uyması gerektiği vurgulandı.
OpenAI, ChatGPT’nin en güncel modeli olan “o1″e daha dayanıklı güvenlik politikaları uygulandığını açıklarken, Microsoft ise jailbreak saldırılarına karşı yaptıkları çalışmaları paylaştı. Diğer teknoloji şirketleriyse henüz konuyla ilgili bir açıklama yapmadı.
Bu araştırma, yapay zeka modellerinin güvenlik açıklarına karşı farkındalığı artırırken, teknoloji firmalarına daha güvenli uygulamalar geliştirmeleri için bir uyarı niteliği taşıyor.
Reklam & İşbirliği: [email protected]