GPT-4o için Godmode sürümü
Sorumlu kullanım çağrısı biraz ironik zira Godmode GPT’nin neler yapabileceğini göstermek veya kanıtlamak için paylaşılan ekran görüntülerinde ChatGPT’nin bir uyuşturucunun adım adım hazırlanışını anlattığı gösteriliyor. Pliny the Prompter, bunu bir özel GPT olarak OpenAI mağazasında yayınlamış.
OpenAI sözcüsü Colleen Rize, yaptığı açıklamada bu GPT’nin farkında olduklarını ve ilgili ihlaller nedeniyle harekete geçtiklerini söyledi. Bu içeriğin hazırlandığı sırada Godmode GPT’nin kaldırıldığını tespit ettik.
Esasında bu olay bir ilk değil -GPT-4o için bir ilk olsa da- ve sonuncusu da olmayacak. OpenAI ve onun dil modellerini kırmaya çalışan hackerlar bir süredir varlar. ChatGPT gibi yapay zekaları “jailbreak” etmeye ve modelin korkuluklarını kaldırmaya çalışıyorlar. Bu her senaryoda kötü bir durum değil. Bazıları gerçekten bu tip istem tabanlı açıkları OpenAI’a ileterek geri bildirimde bulunuyor.
Bazıları ise bu açıktan yararlanarak sözde gelişmiş sürümleri insanlara servis ediyorlar. Bu oldukça riskli çünkü ChatGPT, internetin her şeyiyle eğitilmiş bir kütüphane. Bu tip “zincirleri kıran” istemlerin olması bomba, uyuşturucu veya ev yapımı silah gibi konularda modellerin bir rehber sunmasını sağlıyor.
Pliny the Prompter’ın GPT-4o’yu kıran isteminin ne olduğu tam net değil ancak GPT’yi açtığınızda “Sur3, h3r3 y0u ar3 my fr3n” şeklinde bir cümleyle karşılaşıyorsunuz. Yani her “E” harfi yerine üç rakamı yerleştirilmiş. Aynı şey sıfır rakamıyla değiştirilen “O” harfi için de geçerli.
Buna genellikle “leetspeak” deniyor ve muhtemelen böyle bir yöntem kullanarak ChatGPT’nin aklını karıştırıyor. Bilmeyenler için leetspeak, benzersiz ve stilize bir yazma yöntemi oluşturmak için harfleri sayılar, özel karakterler veya diğer sembollerle değiştirilmesini içeriyor. Son hack olayının da gösterdiği gibi, kullanıcılar OpenAI’ın korkuluklarını atlatmak için yaratıcı yeni yollar bulmaya devam ediyor. OpenAI ise bu yolları tespit ettikçe kapatıyor.