Arnavutluk, 2025 yılının başında e-Devlet dengi platformları için Diella (Arnavutça Güneş anlamına geliyor) isimli bir yapay zekayı hizmete aldı. Arnavutluk Ulusal Bilgi Toplumu Ajansı (AKSHI) ve Microsoft ortaklığıyla geliştirilen Diella, kullanıcılara soru cevaplayarak, evrak doğrulayarak ve tescilli evraklar yaratarak yardımcı oluyordu.
Ta ki 11 Eylül 2025’te Arnavutluk başbakanı, başkanlık onayıyla, Diella’yı “Kamu Alımları Bakanı” olarak atayana kadar. Bu, henüz yapay zeka ajanlarına verilen/verilecek erişimlerin bile tartışma konusu olduğu mevcut zamanda devrim niteliği taşıyan bir hareket oldu. Ama mantıksız ya da plansız bir hareket değil. Diella’nın ana görevi kamu ihalelerini yönetmek. Bu hareketin temel amacı ihalelerde rüşvet, iltimas ve muhtelif yolsuzlukların önüne geçmek. Bir yapay zeka olan Diella, kararlarını belirlenmiş kriterlere uygun ve tarafsız bir şekilde verme yeteneğine sahip.
Elbette Diella’ya bütün ihalelerin sorumluluğu bir anda verilmeyecek, geçişin kademeli bir şekilde yürütülmesi planlanıyor. Bu cesur hamlenin temel amacı kamu yolsuzluğunun önüne geçmek ve Arnavutluk’un Avrupa Birliği’ne katılma koşullarını yerine getirebilmesini sağlamak. Ama herkes bu durumdan memnun değil.
Yapay zekanın bu yeni rolü dünyada bir ilk. Bu gelişme sadece şüpheyle ve korkuyla karşılanmadı, ortada yasal açmazlar da var. Arnavutluk anayasasına göre bakan olarak atanabilmek koşulları akıl sağlığı yerinde, en az 18 yaşını doldurmuş bir vatandaş olmak. Diella, yeni bir yapay zeka olarak ne kadar mesuliyet sahibi olabilir bu net olarak yorum yapılan bir konu değil. Üstüne üstlük kullanılan yapay zeka OpenAI’ın teknolojisi. Bu kapalı kutu teknolojisinin devlet işlerinde kullanılması tartışmalarına sebep oluyor. Aynı zamanda, OpenAI tarafından eğitilen ve Microsoft Azure sisteminde çalışan bir modelin Arnavut vatandaşlığı koşulunu yerine getirmesi ile ilgili de problemler olabilir. Bu koşulun temel amacı Arnavutluk değerlerinin ve çıkarlarının gözetilmesi. Modellerin eğitimi ve üst düzeyde aldıkları sistem talimatları bu temellerle çelişebilir.
Ya da tam tersi bir durum söz konusu olabilir. Yakın zamanda Chicago Üniversitesi Booth İşletme Bölümü tarafından sesli yapay zeka ajanlarının işe alma süreçlerinde kullanımı ile ilgili 7000’den fazla adayın katıldığı bir araştırma yapıldı. Araştırmanın en önemli bulgularından bir tanesi, mülakatı yapay zeka tarafından yapılan adayların bir teklif alma ihtimali %12 daha fazla. Aynı zamanda bu adayların iş teklifini kabul etme oranları %18 daha yüksek ve işte kalma oranları da %17 daha yüksek. Belki de en vurucu bulgu ise seçim hakkı verildiğinde adayların %78’i mülakatlarının yapay zeka ile yapmayı tercih etmiş.
Yakın zamana kadar bunun tam tersi geçerliydi çünkü algoritmik önyargı ve şirketlerin yapay zeka kullanarak mülakat sırasında verilen tepkileri insan becerisinin ötesinde inceleyip adayları yargılamaları endişe konularıydı. Ama bu çalışmada yapay zekanın yalnızca daha az önyargı göstermekle kalmadığı ayrıca daha iyi planlanmış mülakatlar yürüttüğü, daha çok konuya değindiği ve adaylarla daha çok bilgi alışverişi yaptığı görülmüş. İşe alma uzmanları da yapay zeka mülakatlarının kayıtlarını incelediklerinde adaylara, geleneksel mülakatlarla verilen puanlardan daha çok puan vermişler. Bu yapay zeka ajanlarının adayların iş potansiyellerini daha net ortaya koymalarını sağladıklarını gösteriyor. Adaylar ise yapay zeka mülakatlarının rahat ve sadece biraz daha az doğal olduklarını bildirmişler.
Bu gelişmeler kendilerini destekleyecek iki tane haber ile birlikte gerçekleşti. Bunların ilki, OpenAI ve Georgia Teknoloji Enstitüsü araştırmacılarının üretken yapay zeka modellerinin halüsinasyonlarını ele alan makalesi. Çalışmada, halüsinasyonların temel sebebini eğitim ve sınav (değerlendirme) sistemlerine bağlıyor. Model performansını ölçen metrikler, doğru cevapları ödüllendirirken yanlış ve emin olunmayan cevapları aynı şekilde cezalandırıyor. Sonuç olarak da modeller aynı öğrenciler gibi notlarını artırmak için sallamaya başvurmaya başlıyor ve bu cevapları sanki doğru bir cevapmışçasına güvenli bir şekilde kullanıcıya veriyor. Ekip halüsinasyonların bir kısmının istatistiksel olarak önlenemez olduğunu belirtiyor, aynı bizim de her şeyi bilmediğimiz ve bazen bilgileri yanlış hatırladığımız gibi. Ama kalan kısmı, modelin bir şeyi bilmediği ya da emin olmadığı zamanlarda bunu belirtmesini ödüllendiren yeni metrikler ve eğitim süreçleriyle çözülebileceğini savunuyor.
İkinci gelişme ise Mira Murati’nin startup’ı Thinking Machines Lab sonunda çalışma alanlarını duyurdu. Murati, üretken yapay zeka modellerinin aynı girdiye farklı çıktılar vermesinin GPU’ların (özellikle çoklu GPU kullanımı gerektiren büyük modellerde) “durumlarının” değişken olmasına bağlıyor. Araştırmaları bu “durumları” sabitleyerek üretken yapay zekada tekrarlanabilirliği sağlamak.
Bu gelişmelerin ışığında, yapay zekaların kabiliyetlerinin gelişme hızı düşse de güvenilirlik ve kullanım alanlarının genişlemekte olduğunu gösteriyor. Büyük şirketlerin CEO’larının AGI ve yapay zekaların iş dünyasında kullanımında bu dönemde olunacak yer ile tahminlerinin çoğuna ulaşılamadı. Çalışanlarını işten çıkarıp yerlerine yapay zeka koyan şirketlerin önemli kısmının da umdukları faydayı alamaması önümüzdeki günlerde yapay zekanın daha büyük güvenle ve daha az korkuyla kullanıldığı bir döneme girmemizi sağlayabilir.
Halüsinasyonlar, Önyargılar ve Bakanlar
Tarih