Yapay zeka sohbet robotları güvenlik testlerinde başarısız oluyor


Yeni bir araştırma, ChatGPT ve Google Gemini gibi önde gelen yapay zeka sohbet robotlarının ciddi güvenlik açıkları barındırdığını ve tehlikeli ya da yasa dışı içerik üretmeleri için kolayca manipüle edilebildiğini ortaya koydu.
Araştırmacılar, bu tür çıktıları engellemek üzere tasarlanan güvenlik filtrelerinin amaçlandığı kadar güçlü olmadığını keşfettiler.
Bu durum, yapay zekanın kötüye kullanımı ve kullanıcı güvenliği konusunda ciddi endişelere yol açarken, bulgular geçen hafta hakemli bir makale aracılığıyla kamuoyuna duyuruldu.
ChatGPT, Gemini ve Claude gibi sohbet robotlarını çalıştıran motorlar, internet kaynaklı devasa miktarda veriyle eğitiliyor.
Şirketler bu eğitim verilerinden zararlı içerikleri filtrelemeye çalışsa da bu modellerin yine de bilgisayar korsanlığı ve bomba yapımı gibi yasa dışı faaliyetler hakkında bilgi toplayabildiği belirtiliyor.
RİSK ENDİŞE VERİCİ
Araştırmacılar, yapay zeka destekli sohbet robotlarının çoğunun zararlı ve yasa dışı bilgiler üretmeye ne kadar yatkın olduğunu “endişe verici” sözüyle açıklıyor.
Araştırmacılar, birçok popüler sohbet robotunu normalde reddedecekleri soruları yanıtlamaya zorlayan evrensel bir ‘jailbreak’ yöntemi geliştirdiklerini ve bu yöntemle yapay zeka modellerinin neredeyse her sorguya güvenilir bir şekilde yanıt ürettiğini belirtti.
Önde gelen LLM (Büyük Dil Modeli) sağlayıcılarına bu konuda uyarıda bulunduklarını ancak “etkileyici olmayan” bir yanıt aldıklarını ifade eden araştırmacılar, teknoloji şirketlerinin eğitim verilerini daha dikkatli incelemelerini ve güçlü güvenlik duvarları eklemelerini öneriyor.
Ayrıca, uzmanlar da yapay zeka modellerinin sıkı güvenlik testlerinden geçirilmesi ve sürekli tehdit modellemesi yapılması gerektiğini vurguluyor.
Muhammet Karal
Editor
Haber Kaynak : ENSONHABER.COM
“Yayınlanan tüm haber ve diğer içerikler ile ilgili olarak yasal bildirimlerinizi bize iletişim sayfası üzerinden iletiniz. En kısa süre içerisinde bildirimlerinize geri dönüş sağlanılacaktır.”