HANGİSİ size doğruyu daha çok söyler?
Mavi veya beyaz yakalı olarak tanımlanan insanlar mı, yoksa yapay zeka ile donatılan ve metal yakalı diye bilinen robotlar mı?
Soruyu yöneltmemdeki neden son dönem yapay zeka destekli tarama motorlarının halüsinasyonlar görerek yanlış bilgi aktarmaları.
Yanlış bilgiler veya uydurma verileri hangisinin daha çok tekrarladığını sorguladığınızda göreceksiniz ki insanoğlu çok daha mahir…
DOĞRULUK ORANI %85-90
Çünkü insanoğlunun ürettiği verileri alıp size aktarıyor veya kafası karıştığında insanoğlu gibi halüsinasyonlar görüp uyduruyor...
Bu konuda uzun yıllardır emek harcayanlardan, kendi yapay zeka GTP’si CereAI’yi ekibi ile yaratan Dr. Erdem Erkul’a göre, başlangıçta halüsinasyonların oranı %40 seviyesindeydi.
Bugün gelinen noktada çok daha ilerleme kaydedildi ve %85-90 doğruluk oranına ulaştı.
Yine de sorunlar devam edince, yeni bir aşamaya geçilmiş…
Sadece öğretilenle yetinip yanıtını bu kapsamda tutan GTP modellerine yönelme başlamış.
Yani, sadece savunma sanayi, eğitim, bilişim gibi uzmanların verilerinin yüklendiği kaynaklardan bilgi edinmesiyle sınırlandırılmış.
Örneğin sağlık alanındaki The Lancet, British Medical Journal, PLOS Medicine, Science benzeri dergiler dışında veri elde etmesinin önüne geçilmiş.
Böyle olunca güvenirliği %99,99 seviyesine ulaşmış…
HAMBURGERİ TATMAYAN, TARİFİNİ NASIL VEREBİLİR?
Aslında bu noktaya doğru hızla gideceği görülüyordu.
Yine bu alanda çalışan ve yapay zekanın felsefesini oluşturan uzmanlardan Alp Eren Özalp’in vurguladığı gibi siz işin felsefesini nasıl kurgularsanız sonuçta yapay zeka da oraya gider.
Özalp’in altını çizdiği şu noktada da önemli:
“Hamburgeri tatmayan birinden hamburger tarifi almak gibidir…”
Sonuçta halüsinasyonların, yani varsanımların önüne geçmek, veri alımında telif sorununu aşmak gibi birçok konudaki sıkıntıların aşılması kapsamında yeni bir yola başvurulmuş.
Kendi yapay zekalarını eğiten veya öğreten, onları denetleyen yapay zeka üretmeye başlamış…
Bir zamanlar filmlere de konu olan memur sistemi, yapay zekada da çalışmaya başlamış.
SENTETİK VERİ ÜRETİMİ…
Hani, bir memur atanır, onun yaptığının denetlenmesi için bir de kontrolör, bir şef, bir müdür görevlendirildiği gibi yapay zekada da sıralı görevlendirme süreci çalışmaya başlamış.
Buna da “Sentetik Veri” denilmeye başlanmış.
Aynen aslı deri olmayan, ancak görsel ve fiziksel özelliklerini deri gibi taklit eden çantalar gibi, yapay zekanın kendisi tarafından üretilen sentetik verilere dayalı sistem geliştirilmeye başlanmış…
Buna ilişkin dün The New York Times’ta yer alan Cade Mertz ve Stuart Thompson imzalı makale oldukça yol gösterici...
Open AI, CereAI, Google veya diğer teknoloji şirketleri sohbet robotları, kitaplardan, Wikipedia verilerinden, internette yer alan haberler veya makalelerden, sosyal medyadaki aktarımlardan derlenen verilerle hareket ediyor.
Bu da çok sayıda telif ihlalinin yaşanmasına ve büyük boyutlu tutar içeren davalarla karşılaşmalarına yol açıyor.
Örneğin The New York Times, yakın geçmişte OpenAI ve Mikrosoft’a izinsiz olarak kendi verilerini kullandığı için dava açtı...
Bu gibi telif hakkı sorunlarının ortadan kaldırılması için sentetik veri üreten yeni yapay zekaların üretilmesine karar verilmiş.
Kastları, kendilerine aktarılan verileri alarak, onlardan yeni veri üretme becerisi gösteren yapay zeka robotları…
Ortaya çıkan ürüne de Sentetik Veri adını veriyorlar…
HALÜSİNASYONLARI KATLAMAZ MI?
Bu aşamada yeni bir soru karşımıza çıkıyor; halüsinasyon yapabilme becerisi gösteren bir yapay zeka, eğittiği yapay zekaya da bu özelliğini katlayarak aktarmaz mı?
Yani bazı şeyleri yanlış anlayıp uydurma başarasını eğittiği makinalara da aktararak sorunu çok daha büyük hale getirmez mi?
Teknoloji şirketlerinin bu konuda deneyler yaptığını, sentetik verilerin yapay zekaların potansiyel kusurları arasında yer almadığına kanaat getirmiş.
DENETLEYENE İNCE AYAR ÇEKMEK
Ancak yine de emin değiller.
Bunu daha güvenilir hale getirmek için başta OpenAI olmak üzere bazı şirketler daha güvenilir sentetik veriler üretmek için iki farklı yapay zeka modelini birlikte çalıştığı bir tekniği keşfetmiş…
Verileri bir yapay zeka modeli oluşturuyor, ikinci model ise insanın yaptığı yanlışın düzeltilmesine benzer şekilde veriyi değerlendirerek iyi veya kötü olduğunu ölçüyor; doğruluğuna veya yanlışlığına karar veriyor.
Bu kapsamda yapay zekaların bir metni yazıp üretmek yerine, metni yargılama başarılarının çok daha yüksek olduğu da biliniyor.
Son dönem bir yapay zekanın veri toplama becerisini iyileştirmek yerine, onu denetleyen ikinci yapay zeka modeline daha ince ayar çekilmesinin daha faydalı olduğuna hükmedilmiş.
Ancak unutulmaması gereken bir nokta daha var…
Yapay zekalar insan beyninden daha güçlü hale gelebilecekleri kanıtlandı; ama unutulmasın ki bunu insan beyninden öğrendikleri için yapabilecekler.
MEMURİYET SİSTEMİ GİBİ Mİ?
Gelelim baştaki memur örneğimize…
Bir memur atandığında onun hata yapma ihtimali yüzde bir ise ikinci kişinin sürece dahil olmasıyla hata payı düşer mi artar mı?
Bütün çalışmalar gösteriyor ki artıyor.
Çünkü memur bir denetçi olmadan kendi otokontrolünü de yaptığı için çok daha dikkatli davranıyor ve hata yapmamak için uğraş veriyor.
Ancak üzerindeki kontrolör sayısı ne denli artarsa nasıl olsa onlar görür düzeltir diye özenli davranmıyor, hatayı bulmayı onlara bırakıyor.
Bir alttaki, üstekinin görmesini istediği için de devamlı denetim makamının sayısı artıyor.
Sonunda Weber’in tanımında var olan işbölümü, otorite hiyerarşisi, disipline olmuş örgüt biçiminin rasyonel görülen yapıyor yok oluyor…
Bunun yapay zeka için de geçerli olacağı var sayılabilir mi?
Newton’un şu cümlesi sorunun yanıtını karşılıyor:
“Yapay zeka, dev insan veri kümelerinin omuzlarında durarak daha ileriyi görüyor…”
Umarım bu coğrafyada var olan bürokratik öngörüye bulaşmadan görüyordur…