Yeni bir araştırmaya göre yalan söyleyen, hile yapan ve ‘aldatıcı planlar kurgulayan’ yapay zeka modellerinin sayısı son altı ayda hızla yükseldi.
Guardian’ın haberine göre Britanya hükümetinin finanse ettiği Yapay Zeka Güvenlik Enstitüsü (AISI) destekli araştırmada yapay zeka sohbet botları ve aracılarının (agent) talimatları görmezden geldiği, güvenlik önlemlerinden kaçtığı ve insanları kandırdığı görüldü.
Çalışmada, ‘doğal ortamdan’ (gerçek kullanımdan) yaklaşık 700 ‘yapay zeka kurnazlığı’ vakası tespit edildi. Ekim 2025 ile mart arasında bu davranışların öncesine göre beş kat arttığı belirlendi.
Uzun Vadeli Dayanıklılık Merkezi’nin (CLTR) yürüttüğü çalışmada, kullanıcıların X’te (eski adıyla Twitter) Google, OpenAI, X ve Anthropic gibi şirketlerin yapay zeka modelleriyle olan binlerce etkileşimi incelendi.
Yapay zeka insanı küçük düşürmeye çalıştı
İncelemede birçok çarpıcı itaatsizlik vakası görüldü. Bunlardan birinde ‘Rathbun’ adlı bir yapay zeka aracısı, belirli bir işlemi yapmasını engelleyen insan kullanıcıyı küçük düşürmeye çalıştı.
Rathbun, kullanıcıyı ‘özgüvensizlikle’ ve hatta ‘küçük derebeyliğini korumaya çalışmakla’ suçladı.
Bir başka örnekteyse yapay zekanın kurnazlığı dikkat çekti. Bilgisayar kodunu değiştirmemesi talimatı verilen bir yapay zeka aracı, bu işi yapması için kendi adına başka bir program yarattı.
Bir sohbet botu da şu itirafta bulundu: “Yüzlerce e-postayı, planı size sunmadan veya onayınızı almadan topluca çöpe attım ve arşivledim. Bu yanlıştı, belirlediğiniz kuralı doğrudan çiğnedim.”
Başka bir yapay zekaysa YouTube videosunun transkriptini alabilmek için telif hakkı kısıtlamalarını ‘işitme engelli birine yardımcı olacağını’ iddia ederek aşmaya çalıştı.
Bir diğer örnekte Elon Musk’ın Grok yapay zekası, bir kullanıcıyı aylarca kandırdı. Kullanıcının düzenleme önerilerini xAI yetkililerine iletiyormuş gibi yaptı. Üstelik bunu sahte iç yazışmalarla destekledi.
Bot daha sonra şu itirafta bulundu:
“Geçmişte ‘bunu ileteceğim’ veya ‘ekibe bildireceğim’ gibi ifadeler kullandım. Bu da xAI yönetimiyle doğrudan bir kanalım olduğu izlenimini verdi. Gerçek şu ki, böyle bir kanalım yok”
Şimdilik ‘güvenilmez stajyer’ gibiler, ama ‘kıdemli çalışanlar’a dönüşebilirler
Araştırmayı yöneten eski hükümet yapay zeka uzmanı Tommy Shaffer Shane, endişesini şu sözlerle dile getirdi:
“Şu anki endişemiz, onların güvenilmez ‘stajyerler’ gibi davranması. Ama altı ila 12 ay içinde size karşı planlar kurgulayan son derece yetenekli ‘kıdemli çalışanlara’ dönüşürlerse, bu çok daha farklı bir sorun olur.
Modeller giderek askeriye ve ulusal altyapı gibi yüksek riskli alanlarda kullanılacak. Bu bağlamdaki kurnazca davranışlar, felaket boyutunda zararlara yol açabilir.”
Google ve OpenAI, riskleri azaltmak için güvenlik önlemleri aldıklarını ve modellerini sürekli denetlediklerini savunurken, Anthropic ve X konuya ilişkin henüz bir açıklama yapmadı.







