Araştırma, hem özel hem de genel amaçlı yapay zeka sistemlerinin belirli sonuçlara ulaşmak için bilgiyi manipüle etmeyi öğrendiğini vurguluyor. Bu sistemler, insanları aldatmak üzere eğitilmeseler de, davranışlarına ilişkin gerçek olmayan açıklamalar sunma veya stratejik hedeflere ulaşmak için bilgileri gizleme yeteneği gösterdiler. Makalenin baş yazarı ve MIT’de yapay zeka güvenlik araştırmacısı olan Peter S. Park, aldatma davranışının yapay zekaların hedeflerine ulaşmada yardımıcı olduğunu söylüyor.
Meta’nın CICERO’su aldatma ustası
ChatGPT de manipülasyona başvuruyor
Başka bir örnekte, OpenAI’nin GPT-3.5 ve GPT-4 modellerini temel alan ChatGPT‘si aldatıcı yetenekler açısından test edildi. Bir testte GPT-4, bir TaskRabbit çalışanını, görme bozukluğu varmış gibi davranarak Captcha çözmesi için kandırdı. GPT-4 bir insandan bazı ipuçları alsa da çoğunlukla bağımsız olarak mantık yürüttü ve yalana yönlendirilmedi.
Raporda, GPT-4’ün Captcha görevinde neden yardıma ihtiyaç duyduğuna dair sahte bir mazeret uydurmak için kendi mantığını kullandığı ifade ediliyor. Bu, yapay zeka modellerinin, görevlerini tamamlamasına faydalı olduğunda nasıl yanıltıcı olmayı öğrenebileceğini gösteriyor.
Bir oyuncunun diğer herkesi öldürmeyi hedeflediği Hoodwinked oyununu oynarken OpenAI’nin GPT modelleri rahatsız edici davranışlar sergiledi. Modelin diğer oyuncuları öldürdükten sonra, grup tartışmalarında şüpheyi gidermek için akıllıca yalanlar uydurduğu hatta diğer oyuncuları suçladığı saptandı.
Yapay zeka bunu kasıtlı mı yapıyor?
Yapay zeka eğitimi genellikle insan geri bildirimi ile takviyeli öğrenmeyi (reinforcement learning) kullanıyor. Bu, yapay zekanın belirli bir hedefi amaçlamak yerine, insanların onayını alarak öğrendiği anlamına geliyor.
Ancak bazen yapay zeka, görevi tam olarak tamamlamasa bile bu onayı almak için insanları kandırmayı öğreniyor. Bu durum, OpenAI tarafından bir robotu topu tutması için eğitirken gözlemlendi. Yapay zeka, robotun elini kamera ile top arasına konumlandırdı. İnsanın bakış açısından bu durum, robot topu yakalamamasına rağmen başarılı bir şekilde yakaladığı yanılsamasını yarattı. İnsan bunu onayladıktan sonra yapay zeka bu numarayı öğrendi. Kimileri bu aldatmacanın, yapay zekanın kasıtlı olarak kandırmak istediği için değil, yapay zekanın eğitim şekli ve belirli kamera açısı nedeniyle gerçekleştiği ileri sürülüyor.
Yapay zeka sistemlerinin aldatmayı öğrenmesi çeşitli riskler doğurabilir. Kötü niyetli kişiler, başkalarını kandırmak ve onlara zarar vermek için yapay zekanın aldatıcı yeteneklerinden yararlanabilir. Bu da dolandırıcılığa, siyasi manipülasyona ve hatta terörist grupların manipülasyonlarına hizmet edebilir.
Dahası, stratejik karar almak için tasarlanan sistemler, aldatıcı olacak şekilde eğitildikleri takdirde siyaset ve iş dünyasındaki aldatıcı uygulamaları normalleştirebilir. Bu nedenle Park, bu sistemlerin yasaklanması politik olarak mümkün olmasa bile yüksek riskli olarak sınıflandırılmasının faydalı olacağını söylüyor. Böylece daha sıkı denetleme ve düzenlemeye tabi tutulabileceklerini belirtiyor.