Hayatımız yapay zekanın elinde mi olacak?

Tarih

Chat GPT-3 çıktığından beri Yapay Zeka hayatımızın her alanına nüfuz etti. İngiltere hükümeti, potansiyel suçluları tahmin etmek için “Risk Değerlendirmesini İyileştirmek İçin Veri Paylaşımı” adlı bir proje üzerinde çalışıyor. Başlangıçta “Cinayet Tahmin Projesi” olarak adlandırılan bu girişim, Adalet Bakanlığı tarafından yönetiliyor. Sistem, polis ve hükümet kaynaklarından gelen verileri analiz ederek ciddi şiddet suçları işlenme riskini değerlendiriyor.
Proje, Polis Ulusal Bilgisayarı ve Greater Manchester Polisi gibi kaynaklardan şüpheliler, kurbanlar ve tanıklarla ilgili bilgileri kullanıyor. Akıl sağlığı, bağımlılık ve engellilik gibi hassas veriler de analize dahil ediliyor. Yetkililer, projenin şu anda yalnızca araştırma amaçlı olduğunu ve yargı kararlarını doğrudan etkilemeyeceğini belirtiyor.
Birleşik Devletleri’ndeki birkaç polis departmanı, suç merkezlerini ve potansiyel suçluları tahmin etmek için tahmini polislik araçlarını benimsedi. Bu sistemler, ırksal önyargı ve yanlışlıklar nedeniyle eleştirilere hedef oldu.
Finlandiya hapishaneleri, Yapay Zeka modellerini iyileştirmek için mahkumları veri etiketleyicileri olarak kullandı. Bu proje Yapay Zeka’nın ceza sisteminde yeni bir uygulamasını sergiledi. İspanya ise mahkum davranışlarını tahmin etmek için bir algoritma geliştirdi. Katalan hapishanelerinde kullanılan bu algoritmanın önemli eksiklikleri olduğu tespit edildi ve bu tür araçların güvenilirliği hakkında ciddi şüpheler oluştu.
Statewatch gibi insan hakları grupları, özellikle düşük gelirli ve ayrımcılığa maruz kalan topluluklara karşı sistemdeki olası önyargılar konusunda endişelerini dile getirdiler. Eleştirmenler, hassas kişisel verilerin kullanımının sistemsel ayrımcılığı ve gizlilik ihlallerini daha da kötüleştirebileceğini savunuyor.
Şirketlerin İşe Alımda Yapay Zeka Kullanımı
İş dünyasında da yapay zeka, insan kaynakları süreçlerinde değişimlere yol açtı. Global araştırmalara göre, yapay zeka uygulamalarını kullanan şirketlerin %85’i verimliliğini artırırken, her 4 şirketten biri işe alım faaliyetlerini bu teknolojilerle destekliyor.
Şirketler, yapay zeka sayesinde otomatik özgeçmiş taraması yapabiliyor, yetenek profillerini belirleyebiliyor ve performans analizleri gerçekleştirebiliyor. Bu teknolojiler, işe alım süreçlerini hızlandırma, işveren markasını güçlendirme ve çalışan bağlılığını artırma gibi avantajlar sunuyor.
Fakat bu sırada bazı iş güvenliği korkuları da hayat bulmaya başladı. Shopify CEO’su Tobi Lutke, yöneticilerine yeni iş ilanı açma izni vermek için işin bir Yapay Zeka tarafından yapılamayacağını kanıtlamalarını şart koştu.
Doğruluk
Antropic araştırmacıları yeni yayınlanan makalelerinde, muhakeme kabiliyetine sahip Yapay Zeka modellerinin düşünce zinciri (CoT) açıklamalarında gerçek düşünme süreçlerini ne kadar gerçek bir şekilde açıkladıklarını inceledi. Bu çalışma, YZ güvenlik takipleri açısından önemli bulgular ortaya koydu. Yapay Zeka modellerin sonuçlara nasıl ulaştıkları konusunda şeffaf olmaları sonuçların kullanılabilirliğini doğrudan etkileyebilmektedir.
Araştırmacılar, iki son teknoloji muhakeme modelini (Claude 3.7 Sonnet ve DeepSeek R1), altı muhakeme ipucu üzerinde değerlendirdi. Bulgular, modellerin düşündükleri ile ifade ettikleri arasında endişe verici bir fark olduğunu ortaya koydu.
Muhakeme modelleri, kullandıkları ipuçlarını çoğu ortamda en az %1 oranında sözlü olarak ifade ettiler. Ama modeller tarafından yapılan yazılı ipucu ifadesi genel olarak %20’nin altında kaldı. Tespit edilen genel güvenilirlik puanları da hayal kırıklığı yaratacak derecede düşük: Claude 3.7 Sonnet için bu puan sadece %25 ve DeepSeek R1 için ise %39.
Özellikle endişe verici olan, uyumsuzluk ipuçlarındaki düşük sadakattir (Claude 3.7 için %20 ve DeepSeek R1 için %29). Bu modellerin sorunlu muhakeme süreçlerini gizleyebileceğini düşündürmektedir. Çalışma ayrıca CoT sadakatinin daha zor sorularda azaldığını, daha kolay sorulardan daha zor sorulara geçildiğinde puanın düştüğünü göstermiştir.
Araştırmacılar sadakati iyileştirmek için takviyeli öğrenme uyguladıklarında, başlangıçta daha kolay sorularda %63 ve daha zor sorularda %41 sadakat gözlemlediler, ancak yüksek seviyelere ulaşmadan yükseliş durdu.
Bu bulgular, CoT izlemesinin bazı istenmeyen davranışları tespit etmeye yardımcı olabilse de Yapay Zekaların düşünce süreçleri ile ilgili sırlar saklayabildiğini ve duruma uygun düşünce süreçleri uydurabildiklerini göstermektedir.
Yapay zeka hayatımıza muazzam kolaylıklar getirdi. Ama hepimizin de görebildiği gibi sadece bizim hayatımıza kolaylıklar getirmekler kalmadı. Artık şirketler ve hükümetler de bu kolaylıklardan önemli alanlarda faydalanmak istiyor. Hassas bilgilere ve başkalarının hayatlarını doğrudan etkileyebilecek konumlara ulaşmak için insanlar yıllarca büyük çabalar harcıyor. Gerekli bilgi ve farkındalığa sahip olmaları, haklı bir şekilde bekleniyor. Peki bu bilgi ve yetkilere sahip olacak Yapay Zekaların ne düşündüğünü ve yeterli olduklarını bilmek de hakkımız değil mi?

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Sosyal Medyada Paylaş

Popüler Yazılar

Bunları da sevebilirsiniz
Bunları da sevebilirsiniz

Mahremiyet Pusulasıyla Pazarlama

Dijital dünyada attığımız her adımın görünmez mürekkeplerle kaydedildiği, ilgi...

Servis Ekonomisinin Yeni Yıldızı Ürün-Hizmet Sistemleri

Bir zamanlar evimizin salonunu dolduran ansiklopedi setlerini hatırlayanlar bilir;...

Robotik Otomasyon ve Türkiye İçin Yol Ayrımı

Ofis koridorlarında yankılanan klavye seslerinin yerini, görünmez dijital işçilerin...

Değişime Karşı Dirençle Mücadele

Dijital dönüşümün baş döndürücü hızla ilerlediği günümüz iş dünyasında,...