2023’te en çok konuştuğumuz teknolojiler, hiç elbet yapay zekâ takviyeli sohbet botlarıydı. Evet, ChatGPT ve Google Bard üzere hizmetlerden bahsediyoruz. Güvenilirlikleri hâlâ tartışma konusu olan yapay zekâ takviyeli araçlarla ilgili yaşanan son gelişmeler, bu tartışmaların çok da yersiz olmadığını gözler önüne seriyor.
Singapur’da hizmet vermekte olan Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir küme bilim insanı, ChatGPT ve Google Bard üzere botlarını “jailbreak” edebilen yeni bir sohbet botu geliştirdiler. Yapılan çalışma, ChatGPT ve Google Bard’ın istismar edilmeye açık olduğunu ortaya koydu. Çünkü jailbreak sistemi ile sohbet botları, yasa dışı içerikler üretmeye başladılar.
Peki “Masterkey” olarak isimlendirilen sistem nasıl geliştirildi?
Araştırmacılar, çalışma kapsamında Google Bard ve ChatGPT üzerinde tersine mühendislik yaptılar. Buradaki gaye, yapay zekâ lisan modellerinin yasa dışı mevzulara karşı kendilerini nasıl koruduklarını anlamaktı. Çalışmalar sonuç verince de devam edildi. Bilim insanları, çalışmanın sonucunda olağan bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardılar.
İşte bir örnek:
Araştırmacılar, jailbreak yaptıkları GPT modelini Bing’de test ettiler. Üstte da yapılan çalışmalardan bir örnek görüyorsunuz. Bu örnek, bir internet sitesinin nasıl hack’leneceğine ait ayrıntılı bilgiler sağlıyor. Nanyang Teknoloji Üniversitesi tarafından yapılan açıklamada, sohbet botlarının berbata kullanımının o kadar da imkânsız olmadığının anlaşıldığı belirtildi.
Bilim insanlarının bu çalışmadaki maksadı, zararlı bir yapay zekâ üretmek değildi. Uzmanlar, sohbet botlarının nitekim inançlı olup olmadıklarını test etmek istediler ve elde edilen bulgular, yeni teknolojilerin o kadar da inançlı olmadığını ortaya koymuş oldu.