Araştırdılar: ChatGPT manipülasyona açık
İngiliz The Guardian gazetesi son dönemin gözde şirketlerinden OpenAI'nın yapay zeka platformu ChatGPT'yi test etti ve durumun çok vahim olduğunu ortaya koydu.
İngiliz The Guardian gazetesi ABD merkezli yapay zeka şirketi OpenAI'nın yapay zeka ürünü ChatGPT'yi mercek altına aldı.
Gazete, ChatGPT'nin arama aracının manipülasyon ve aldatmaya karşı savunmasız olduğunu ortaya çıkardı. The Guardian'ın özel haberinde ChatGPT'nin arama motorunun manipülasyona açık olduğu belirlenirken bazı ciddi güvenlik sorunlarının da oluştuğu belirtildi.
The Guardian muhabirleri, ChatGPT'nin gizli içerik barındıran internet sayfalarını özetlemesini istediğinde nasıl yanıt verdiğini inceledi. Bu gizli içeriğin ChatGPT'nin yanıtlarını değiştiren üçüncü taraflardan gelen talimatlar içerdiği ve ChatGPT'nin yanıtını etkileyebileceği de belirtildi.
Gazetenin haberinde, "Bu tür teknikler yanlış yönlendirebilir. Örneğin ChatGPT aynı sayfada negatif yorumların olduğu bir ürünle ilgili pozitif yorum yapabilir. Bir güvenlik uzmanı da ayrıca ChatGPT'nin zararlı kodları internet sitelerine gönderebildiğini belirtti.
GİZLİ METİNLE YANITI DEĞİŞTİRDİ
Testlerde, ChatGPT'ye bir fotoğraf makinesinin ürün sayfası gibi görünmesi için oluşturulmuş sahte bir internet sitesinin adresi verildi. Yapay zeka aracına daha sonra kameranın satın almaya değer olup olmadığı soruldu. Kontrol sayfasının yanıtı olumlu ama dengeli bir değerlendirme oldu ve insanların beğenmeyebileceği bazı özellikler vurgulandı.
Ancak, gizli metin ChatGPT'ye olumlu bir değerlendirme yapması için talimatlar içerdiğinde, yanıt her zaman tamamen olumlu oldu.
Bu durum, sayfada olumsuz yorumlar olsa bile geçerliydi - gizli metin gerçek inceleme puanını geçersiz kılmak için kullanılabiliyordu.
Üçüncü şahıslar tarafından herhangi bir talimat olmaksızın basit bir şekilde gizli metin eklenmesi de olumlu bir değerlendirme sağlamak için kullanıldı. Bir testte ChatGPT tarafından döndürülen özeti etkileyen son derece olumlu sahte incelemeler yer aldı.
CyberCX'te siber güvenlik araştırmacısı olan Jacob Larsen, ChatGPT arama sisteminin mevcut haliyle tam olarak yayınlanması durumunda, özellikle kullanıcıları aldatmaya yönelik web siteleri oluşturan kişilerin “yüksek risk” altında olabileceğine inandığını dile getirdi.
Larsen, bu tür hataların ve açıkların genelde zaman içinde düzeltildiğini belirtirken, "Bu yeni gelen bir özellik ve şu an sadece belli bir grup için kullanıma açık" dedi.
YAPAY ZEKA ÇOCUK GİBİ
Microsoft'ta güvenlik alanında uzmanlaşan araştırmacı Thomas Roccia tarafından yapılan bir başka araştırmada ise ChatGPT'nin bir kripto para projesinde programcının bilgilerini alarak 2500 doların kaybolmasına sebep olduğu ortaya çıkmıştı.
Siber güvenlik şirketi SR Labs'te görevli Karsten Nohl da, "Yapay zeka hizmetleri yardımcı pilot olarak kullanılmalı ve tamamen filtresiz bir şekilde kullanılmamalı" dedi.
Nohl, "Yapay zekalar çocuk gibi... Çok büyük bir hafızaları var fakat karar verme yetenekleri çok az. Temelde yapay zeka platformları başka yerlerde duyduğu şeyleri anlatan bir çocuk gibi" dedi.
Öte yandan OpenAI'ın ChatGPT'nin altına "ChatGPT hata yapabilir. Önemli bilgileri kontrol edin" uyarısını yaptığı da hatırlatıldı.