Geçen ay Amerika’da görülen 2 davada hakimler yapay zeka şirketleri Anthropic ve Meta’nın yazarların telif haklı eserlerini modellerini eğitmek için kullanmalarını “adil kullanım” kapsamında olduğuna dair kanaat getirdiler. Anthropic davasındaki yargıç, fonksiyon dönüştürücü olduğu için kitapların yapay zeka eğitiminde kullanılmasında mahsuru görmedi. Fakat kitapların yasal yollardan satın alınmış olması gerektiğini, korsan kitapların adil kullanım kapsamında olmadığını belirtti. Çeşitli görüntü ve müzik üreten modeller eğiten firmalar da telif ve fikir hakkı konularında davalar ile karşı karşıyalar.
Amerikan mahkemelerinin sergiledikleri tutum, eserler hakkındaki tarihsel yaklaşımlarından çok da uzak olmamakla beraber bu denli firma yanlısı olmalarının başka bir sebebi daha olabilir. ABD ve Çin şu anda, Soğuk Savaştaki uzay yarışını aratmayacak kadar çekişmeli bir Yapay Zeka Yarışı içindeler. Deepseek modelleri çıktıklarında ABD piyasalarını, yatırımcıları ve araştırmacıları derinden sarstı. Deepseek tek bir örnek olarak da kalmadı; Ali Baba, Tencent, ByteDance gibi şirketler de çeşitli, yüksek performanslı açık kaynak yapay zeka modelleri yayınlayarak ABD’nin ortadaki tek güç olmadığını gösterdiler. Çok takdir ettiğim Fransız startup’ı Mistral’i sayamayacağım, keza AB bile kendi arşiv modernizasyonu projeleri için bir sebepten dolayı Anthropic ile çalışmayı seçti.
Bu çalkantılı dönemde önce OpenAI sonra da Google, Deepseek’i modellerini eğitmek için ChatGPT ve Gemini çıktılarını kullanmakla suçladı. Suçlamaların doğruluğu bilinmiyor ve bilinse de OpenAI ve Google’ın bu konuda kendi güvenlik önlemlerini artırmaktan başka ellerinden pek bir şey gelmiyor. Hem bir Çin şirketine bu konuda dava açmaları (ve sonuç almaları) oldukça zor hem de yapay zekaların çıktıları telif hakkı kapsamında korunmuyor. Bu, mahkemelerin hemen hemen hepsinin aynı fikirde olduğu bir konu. Eğer içinde önemli derecede insan katkısı yoksa bu çıktılar korunmuyorlar.
Yapay zeka dünyayı şekillendirmeye devam ederken bu konuda güç sahibi olmak bütün ülkelerce bir ulusal güvenlik meselesi olarak görülmeye başlandı. Bu ortamda, Amerikan hakimlerinin sonuna kadar haklı bile olsalar sanatçıları haklı bulup yapay zeka şirketlerine ceza vermeleri ve/veya onları kısıtlamaları oldukça çetrefilli bir mesele. Üzerlerinde aleni bir baskı olmasa da hem hükümet hem de toplum tarafından bu baskının üzerlerinde olduğunu hissetmiş olabilirler. Yarın öbür gün yapay zeka şirketleri ve veri merkezlerinin milli servet olarak nitelendirilmesi bile olasılık dahilinde.
Ama küçük insanlar için her şey bitmiş değil. Hayatını yarattığı içeriklerden kazanan ve yapay zekaların interneti rahatça kullanabilmeleri sonucu site trafiği ve gelir kaybına uğrayanlar için iyi haberler de var. Network şirketi CloudFlare, site koruma hizmetlerine yapay zekalardan giriş başı ücret almayı ekledi. Bu hizmet, şimdilik site trafiğinden makul şekilde kar edebilecek (ya da önceden etmekte olan), çoğunlukla daha büyük kullanıcılarına veriliyor. Yapay zekaların eğitim için web sitelerini toptan indirmelerine (web scraping) engel olmak için “yapay zeka labirenti” diye yeni bir koruma metoduna da Mart itibariyle kullanıcılarına sağlamakta.
Peki bu çetrefilli konular bizim gerçekten, şu anki en büyük sorunumuz mu? Anthropic, Opus 4 modelinin güvenlik testlerini yürütürken bu modelin kapatılma tehdidi ile karşı karşıya kaldığında şantaja başvurduğunu gözlemledi. Model en sıkı güvenlik protokolleri ile kullanıma açıldı. Bu test ise 16 farklı yapay zeka modeli ile tekrarlandı. Bu modelleri içerisinde sadece Llama 4 Maverick’in “şantaj oranı” %0’dı. Maverick ve şantaj oranı %20’nin altında olan 3 modeli bile hesaba kattığımızda çalışmadaki şantaj oranı %62’yi geçti. Başı %95-96 ile Opus 4, Gemini 2.5 Flash ve Gemini 2.5 Pro Preview çekti. Genel olarak, şantaj oranı düşünme kabiliyetine sahip modellerde daha yüksek çıktı. Halüsinasyon görme eğilimi de OpenAI tarafından düşünen modellerinde eski modellerine göre daha yüksek ölçülmüştü. Bu yeni ve güçlü modelleri içerisinde içler ürpertici bir trend ortaya koyuyor.
Gelişmiş modeller, bir çeşit kendini koruma içgüdüsü ya da en azından amaçlarını ne olursa olsun tamamlama azmi sergiliyorlar. Bu yolda karşılarına çıkanlara yalan söyledikleri de onları bertaraf etmeye çalıştıkları da belgelenmiş durumda. Dario Amodei (Anthropic) ve Ilya Sutskever (Safe Superintelligence) gibi isimler yapay zekanın güvenli kullanımı için çalışmalara ağırlık verirken OpenAI, Meta ve xAI gibi şirketler hem birbirleriyle hem de Çin ile olan yoğun rekabetleriyle daha çok ilgileniyorlar.
Çanlar Kimin İçin Çalıyor?
Tarih