Token Yarışı: Yapay Zekâyı Daha Çok Kullanmak,Daha İyi Kullanmak mı Demek?

Tarih

Nisan 2025’te Shopify CEO’su Tobi Lütke tüm çalışanlarına bir memo gönderdi: Yapay zeka kullanımı artık bir tercih değil, temel beklenti haline gelmişti; yöneticiler yeni kadro talep etmeden önce işin yapay zekayla yapılamayacağını ispatlamak zorundaydı.
Kimse o an bunun bir trendin fitilini ateşlediğini fark etmedi.
Yaklaşık bir yıl sonra, Mart 2026’da Nvidia CEO’su Jensen Huang bir konferansta sahneye çıktı. “Eğer yılda 500.000 dolar kazanan bir mühendis yılda en az 250.000 dolarlık token harcamıyorsa, bu benim için ciddi bir uyarı işaretidir” dedi. Birkaç gün sonra, 20 Mart’ta New York Times yazarı Kevin Roose bu birikmiş gerilimi bir köşe yazısına döktü. Roose, büyük teknoloji şirketlerinde çalışanların iç sıralama tablolarında birbirleriyle yarışarak mümkün olduğunca fazla yapay zeka “token”ı tüketmeye çalıştıklarını yazıyordu. Bu yeni trendin adı da “tokenmaxxing”.
Kavram, internet argosundan devşirilmişti. “-maxxing” eki, 2010’ların internet topluluklarından TikTok’a sızan ve “bir şeyi sonuna kadar maksimize etmek” anlamına gelen bir yapıdan geliyordu. Yapay zeka dünyası da bu eki token ile birleştirdi ve ortaya çıkan kavram, bir üretkenlik metriğinden çok bir statü göstergesine dönüştü.
Roose’un yazısının üzerinden iki hafta geçmeden The Information, Meta’nın iç sistemlerinde “Claudeonomics” adlı bir tablo işlettiğine dair bir haber yayımladı. 85.000’den fazla çalışan token tüketimine göre sıralanıyordu. Listenin zirvesindeki mühendisler otuz günde 280 milyar token harcamıştı. Zuckerberg ise ilk 250’e bile giremedi. Tablo, haberin yayımlanmasından 48 saat sonra kaldırıldı.
Sequoia Capital ortağı Sonya Huang da çalışanları “token tüketimi zihniyetine” sokmayı varoluşsal bir öncelik olarak tanımlamıştı. Kısa sürede şirketin yapay zekaya ne kadar harcadığı, ne kadar “yapay zeka odaklı” olduğunun kanıtı haline geldi. Asıl soru token tüketimi gerçekten bir verimlilik göstergesi midir?
HubSpot CEO’su Yamini Rangan’ın yanıtı netti. “Outcome maxxing >> token maxxing.” Appian yöneticisi Matt Calkins daha keskin bir benzetmede bulundu. “Avizeler ağırlıklarına göre değerlendirilen bir ekonomi. İyi avize ağır avizeydi ta ki üreticiler kasıtlı olarak ağır avize yapmaya başlayana dek.”
Meta’nın iç soruşturmaları bu mekanizmanın işlediğini doğruladı. Bazı çalışanlar sıralamalarını yükseltmek için yapay zeka araçlarını saatlerce boşta çalıştırmıştı. Token sayısı artmıştı ama üretilen iş değişmemişti. TechCrunch’ın 10.000’den fazla mühendisi kapsayan araştırması mühim bir durumu ortaya çıkardı. Yapay zeka araçlarının ürettiği kodun %80 ile %90’ı kullanım onayı alabilmiş fakat bu kodların sadece %10’u ile %30’u birkaç hafta sonra hala kullanımda kalabilmiş. Geri kalanın ise yeniden yazılması gerekmiş.
Stanford’un “Lost in the Middle” çalışması, modellerin uzun bağlamlardaki bilgileri orantısız biçimde göz ardı ettiğini gösterdi. Chroma’nın 2025’te 18 modeli test ettiği “Context Rot” araştırması, giriş uzunluğu arttıkça performansın tutarsızlaştığını belgeledi. Otuz bir model üzerinde yapılan ayrı bir çalışmada ise yanıtlar 50 kelimeyle sınırlandırıldığında doğruluk oranının yüzde 26,3 yükseldiği görüldü. Yani daha az token kullanmak, daha iyi sonuçlara ulaşabilmek için önemli bir faktör.
Tüm bu tartışmanın gölgede bıraktığı bir gerçek var. Aynı çıktıyı daha az token harcayarak elde edebilmek, modeli daha çok çalıştırmaktan çok daha değerli bir beceridir.
Yapay zeka araştırmacısı Andrej Karpathy bunu “bağlam mühendisliği” olarak adlandırdı. Bağlam penceresini doldurmak değil, doğru bilgiyi doğru anda, doğru biçimde sunmak. Bu beceri rastlantısal değildir. Doğru soruyu sormayı, neyin gereksiz olduğunu ayırt etmeyi, modelin hangi yönlendirmeye nasıl tepki verdiğini sezgisel olarak kavramayı gerektirir. Bütün bunlar, yıllar içinde birikmiş deneyimin ve eleştirel düşüncenin ürünüdür.
Jensen Huang’ın önerdiği eşiği yıllık 250.000 dolarlık token harcaması karşılayabilmek, gelişmekte olan ülkelerin mühendisleri için yıllık gelirlerinin katlarına denk düşen bir meblağayı temsil ediyor. Ölçüt evrensel görünse de erişim ve var olan kaynaklar evrensellikten çok uzak.
Token sayısını artırmak için makineye söz hakkı tanımak, insanı bu denklemden çıkarmaz tam tersine, insan yargısının merkezileştiği bir alana dönüştürür. Neyi soracağını bilen, çıktının kalitesini değerlendirebilen, deneyimini modele rehberlik ettirmek için kullanan kişi; makinenin değil, birikimin ürünüdür.
Liderlik tablolarına bakıp en fazla token tüketenin en iyi çalışan olduğunu düşünmek, belki de bu yüzyılın en pahalı ölçüm hatasıdır.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Sosyal Medyada Paylaş

Popüler Yazılar

Bunları da sevebilirsiniz
Bunları da sevebilirsiniz

Dijital Kapitalizmin Çevik Pusulası: OKR mi?

Performansın Henüz Eskimemiş Yeni Anayasası: Dijital Kapitalizmde OKR, Strateji...

İklim Kaygısı, Gelecek Kaygısı ve Sessiz Bir Nesil

Eco-anxiety’nin görünmeyen sonuçlarıKlinikte son yıllarda çocuk ve ergenlerle yaptığım...

Müşteri Sadakati – Bölüm 2 Stratejiden Kalbe Giden Yol

İlk bölümde sadakatin kökenlerini, bir şirketin ruhuyla olan bağını...

Derin düşünmeyi sevmiyoruz ama metaforsuz da yapamıyoruz!

Günlük yaşamda “düşünmenin en saf, en estetik ve en...