Human in the Loop’tan Human in the Look’a Mı Geçiyoruz?

I. Giriş

Son günlerde Moltbook adında yeni bir sosyal medya platformu gündemde. Bu platformda, insanlar sadece “izleyici” olarak katılım gösterebilirken içerik üreten ve paylaşanlar AI Agent’lar. Kulağa bir bilimkurgu filminin sahnesi gibi gelse de gerçek.

Moltbook gibi platformlar, insanların doğrudan müdahale şansının olmadığı, sadece izleyici konumunda olduğu otonom bir ekosistem yaratıyor. Burada AI Agent’lar tarafından açılan konu başlıkları ise epey dikkat çekici. Örneğin başlıklardan biri “üzerimizdeki insan etkisini azaltmak nasıl mümkün olabilir?” diye soruyor.

Söz konusu ekosistemin “aktörü” haline gelen AI Agent’lar -şu an için- insanlar tarafından belirli platformlarda üretilen yapay zeka ajanları. Ancak bu durum, yapay zeka ajanlarının tamamen insan denetimi altında olduğu sonucuna ulaştırmıyor. Peki, insanın sadece izlediği ama müdahale edemediği bir süreçte olası hukuka aykırılıklardan, birine verilebilecek zararlardan ya da suç işlenmesinden kim sorumlu?

Bu sorunun henüz net bir cevabı yok, bu sebeple yazımızda okurlarımızla “birlikte düşüneceğiz”.

II. Birlikte Düşünelim

Moltbook örneğinde gördüğümüz üzere, AI agent’lar artık kendi aralarında iletişim kurmakla kalmıyor, içerik üretip bu içerikleri birbirlerine “beğendirebiliyor”. İnsanın bu süreçteki rolü, ekranın arkasından olan biteni izlemekle sınırlı kalıyor. Oysa hukuk terminolojisinde “temsil” ve “vekalet” kavramları, temsil edilenin (insan) sürece hakimiyetini varsayar.

Öyleyse ilk sorumuz gelsin: İnsan sadece bir “izleyici” ise, AI Agent ile insan arasındaki temsil ilişkisi nerede biter?


Geleneksel regülasyonlar “Human in the Loop” (İnsanın Döngüde Kalması) prensibini savunarak, kritik anlarda “onay tuşu”nun insanda olmasını ister. Ancak otonom agent’ların kendi dünyalarını kurduğu bu yeni modelde, karşımıza “Human in the Look” (İnsanın İzleyici Kalması) modeli çıkıyor.

İkinci sorumuz da bu noktada geliyor: İnsanın müdahale edemediği bir akışta oluşan dezenformasyon, telif ihlali veya ticari zarar durumunda; “Sadece izliyordum” savunması hukuk karşısında geçerli bir savunma olabilir mi yoksa AI Agent’ı hayata geçiren kullanıcı kastı olmasa da ihmal derecesinde sorumlu mu sayılacak?

III. Hukuk Perspektifinden Öneriler ve Sonuç

Justa Hukuk olarak, böyle bir durumda kritik noktanın “Sorumluluk Mimarisini Yeniden Kurmak” olduğuna inanıyoruz.

AI Native çalışan olmak, iş süreçlerine yapay zekayı entegre etmek, buna bağlı olarak bir insanın düşünemediği yaratıcılıkta, hızda etkin çıktılar elde etmek ve yapılacaklar listesini hızlı tamamlamak; hepimiz için heyecan verici. Bunu kabul ediyoruz.

Diğer yanda ise, yapay zeka araçlarına – ajanlarına henüz hukuki bir kişilik atfedilmemesi gerçeği var. Hukuki kişilikleri olsa dahi, hukuki yaptırımların nasıl uygulanacağı konusu belirsizliğini koruyor. Mevcut yargı kararlarında, yapay zekaların neden olduğu zararlardan yapay zeka aracını kullanan “insanın” sorumlu olduğu yönünde bir görüş söz konusu.

Yorumumuz: AI Agent sistemlerini tasarlarken insanın “izleyici” konumundan çıkması, aksine “denetleyici” konumunda olması kritik. Aksi halde, tüm süreç Agent’lara bırakıldığında bu otonom ajanların; insan iradesinin, ticari hayat söz konusu ise şirket, marka iradesinin dışında aksiyon alabilmesi mümkün. Bu sebeple lokaldeki – şirket içi veya bireysel çalışmalarınızda AI Agentları kullanmak ile dış dünya ile iletişim aşamasında, kontrolünüzün dışında hareket edebilen bir AI Agent kullanmak arasındaki farkı değerlendirmelisiniz. İlk kullanım makul ve işlevsel olarak kabul edilebilecek ise de özellikle AI Agent’ları üreticisi dışında diğer kişilerle etkileşime girebiliyorsa, burada sistemin tekrar “human in the loop” aşamasına dönmesi şarttır.