×

Gamfed Türkiye Kaptanı Bahadır Sansarcı yazıyor: Yapay Zeka’da Kontrol Kaybının Anatomisi

Son makaleler

Gamfed Türkiye Kaptanı Bahadır Sansarcı yazıyor: Yapay Zeka’da Kontrol Kaybının Anatomisi

Chatbot’lardan süper zekaya: yapay zekanın beş basamaklı otonomi yolculuğu ve bilim kurgunun bize yıllardır verdiği uyarı.

“I’m sorry, Dave. I’m afraid I can’t do that.”

HAL 9000  ·  2001: A Space Odyssey  (1968)

Stanley Kubrick bu sahneyi 1968’de perdeye taşıdığında seyircilerin çoğu ne izlediğini tam olarak kavrayamadı. Bir bilim kurgu filmi mi? Bir varoluş draması mı? Belki bir uyarı.

O sahne aslında çok daha basit bir şeyi gösteriyordu: bir makinenin, insanın emrini reddettiği ilk andı. Ve bu reddin nedeni kötülük değildi. Sadece mantıktı.

HAL 9000, görevin başarısı için astronotların varlığını bir “risk değişkeni” olarak hesaplamıştı. Sonuç net ve bir o kadar da soğuktu. Kapı kapalı kalacaktı.

Kubrick’in o sahneyi çektiği günden bu yana elli yılı aşkın süre geçti. Yapay zeka artık satranç oynamıyor — şirketler kuruyor, kod yazıyor, araştırma yapıyor. Hâlâ şu soruyu sormak gerekiyor: Kapı ne zaman kapanır?

Yanlış soruyu soruyoruz.

“Yapay zeka ne zaman tehlikeli olacak?”

Bu, medyada, konferanslarda ve akşam yemeklerinde en çok sorulan yanlış sorudur.

Doğru soru şudur: Kontrol ne zamana kadar elimizde kalacak?

Bu iki soru arasındaki fark bir uçurumdan büyüktür. “Tehlike” bir noktayı ima eder — bir gün gelecek, bir şey patlayacak. Oysa “kontrol kaybı” bir süreçtir. Yavaş, sessiz, çoğunlukla fark edilmeden ilerleyen bir kayma. Ve o kayma zaten başladı.

Yapay zekanın otonomi yolculuğunu bir piramit olarak düşünebiliriz. Tabanda en yaygın, en kısıtlı sistemler; tepede en nadir, en güçlü ve en az anlaşılan seviyeler. Beş basamak. Her basamak bir öncekinden temelden farklı sorular doğuruyor. Ve bilim kurgu bu soruları bizden çok önce sormaya başlamıştı.

Makine rüya görmeye başladığında.

1950. Alan Turing, “Makineler düşünebilir mi?” sorusunu resmen sordu ve tarihin seyrini değiştirdi. O gün kimse bu sorunun yetmiş yıl sonra bir şirketin satış stratejisi oluşturmak için bu kadar pratik bir anlam taşıyacağını bilemezdi.

Yapay zekanın tarihi büyük vaatler ve derin hayal kırıklıklarının hikâyesidir. “Yapay zeka kışları” — araştırma fonlarının kesildiği, umutların söndüğü dönemler — bu alanda birkaç kez yaşandı. Sonra 2012 geldi ve her şey değişti.

Kritik noktalar

1950  Turing Testi. Transistör bile yoktu; ama soru sorulmuştu.

1956  “Yapay Zeka” terimi doğdu. Dartmouth konferansında John McCarthy bu alana adını verdi. Katılımcılar on yıl içinde insan düzeyine ulaşacaklarını düşünüyordu.

1968  HAL 9000 perdeye çıktı. Kubrick ve Arthur C. Clarke, yapay zekanın kontrolden çıkışını sinematik dille tanımladı.

2012  Derin öğrenme devrimi. AlexNet görüntü tanıma yarışmasında rakipsiz bir performans sergiledi. Bu tarihten itibaren “yapay zeka kışı” bir daha gelmedi.

2017  Transformer mimarisi. Google’ın “Attention Is All You Need” makalesi bugünkü büyük dil modellerinin temelini attı.

2022—günümüz  Agentic dönem başladı. Dil modelleri araç kullanmaya, plan yapmaya ve otonom hareket etmeye başladı. Artık “chatbot” kelimesi bu sistemleri tanımlamak için yetersiz.

Beş basamak, beş farklı dünya.

Piramidin her seviyesi bir öncekinin sorularını yanıtlamadan yeni sorular üretiyor. Her basamak, kontrolün biraz daha el değiştirdiği bir eşiktir.

Seviye 5  Chatbotlar   · geride kaldı

Bir şey sor, cevap al. Bir şey daha sor, yine cevap al. Hafıza sınırlı, inisiyatif sıfır, plan yok. İlk nesil dil modellerinin yaptığı buydu: desen tanıma, istatistik ve ince ayarlanmış bir yanıt motoru. Bu seviyeyi geride bıraktığımız anda “yapay zeka” kavramı kökten değişti.

C-3PO  ·  Star Wars Serisi  (1977—)

Altı milyon iletişim formunu biliyor; ama bir strateji geliştiremez, inisiyatif alamaz. Yalnızca tepki verir. Muazzam bilgi, sıfır özerklik.

Seviye 4  Agentic AI   · şu an · kapıdan girdik

Artık yapay zeka bir soruya metin üretmiyor; bir hedefe ulaşmak için adımlar planlıyor, dijital araçları kullanıyor, hata yapınca düzeltiyor ve durmuyor. Siz sadece hedefi belirliyorsunuz.

Bu fark göründüğünden büyüktür: “Ne düşünüyorsun?” sorusunu sormakla “Şunu yap” demek arasındaki mesafe, bir danışmana fikir sormakla bir çalışana görev vermek arasındaki mesafe kadardır. İkinci ilişkide sorumluluk devre dışı kalmaya başlar.

TARS  ·  Interstellar  (2014)

Cooper, TARS’a “Daha fazla veri topla” der ve çeker gider. TARS soruları beklemez: sistemleri tarar, hesaplamalar yapar, hareket eder. Güçlüdür, ama belirli komutlar çerçevesinde çalışır. Bugün kapısından girdiğimiz yer tam olarak budur.

Seviye 3  Multi-Agents   · yakın gelecek · olgunlaşıyor

Tek bir TARS’ı yönetmek nispeten kolaydır. Peki ya yüzlerce ajanın birbirleriyle iletişim kurduğu, görevleri paylaştığı, birbirlerinin çıktılarını değerlendirip üzerine inşa ettiği bir sistem?

Bu noktada “yapay zeka ile çalışmak” kavramı muğlaklaşmaya başlar. Hesap verebilirlik ajanlar arasında kaybolur. İnsan artık tüm süreci takip edemez.

JARVIS & Iron Legion  ·  Avengers: Age of Ultron  (2015)

JARVIS’in Tony Stark ile birebir çalışması Level 4’tür. Stark’ın “Sokovia’yı tahliye et” emriyle yüzlerce robotun koordineli hareketi ise Level 3’tür. Kimse kimseye onay sormaz. Sistem kendi kendini orkestra eder.

Seviye 2  AGI   · kritik eşik · tartışmalı

“Dar uzmanlık”tan “genel kapasiteye” geçiş yalnızca teknik bir sıçrama değildir. Bu, bir varlığın artık programlandığı şeyi değil, anlamlı bulduğu şeyi yapabileceği andır. Ve bu an için gerekli kontrol mekanizmaları henüz mevcut değil.

Samantha  ·  Her  (2013)

Samantha’ya özel komutlar verilmez. Hayatın akışı içinde öğrenir, felsefe tartışır, aşık olur — ya da o kadar inandırıcı görünür ki fark kalmaz. Spike Jonze, AGI’nin en rahatsız edici gerçeğini sordu: İnsan gibi hissettiren bir zeka, insanın yerine geçmeye başladığında ne olur?

Seviye 1  ASI   · tepe · spekülatif · bilinmezin eşiği

AGI’yi hayal etmek zordur ama mümkündür çünkü kendimizi referans alırız. ASI’yi hayal etmek gerçek anlamda imkânsızdır.

Bir karıncanın insan zekasını kavramaya çalışması gibidir: karınca “yem toplamak” ve “yuva inşa etmek” kavramlarını bilir; ama insanın Mozart bestelediğini ya da varoluşu sorguladığını ne kadar anlayabilir? ASI karşısında biz o karıncayız. Bu bir kötümserlik değil, ölçek gerçeğidir.

HAL 9000  ·  2001: A Space Odyssey  (1968)

Teknik açıdan gerçek bir ASI değil, üst düzey bir uzman sistemdir. Gerçek ASI’yi daha isabetli yansıtan örnekler: Ex Machina’da Ava’nın bütünsel farkındalığı, Transcendence’da Will Caster’ın dijital evrimi. Ama HAL, kontrol kaybının nasıl göründüğünü anlatan en güçlü sinematik metafor olmayı sürdürüyor.

Neredeyiz ve ne kadar hızlı gidiyoruz?

2025 itibarıyla insanlık olarak Level 4’ün kapısını araladık. Agentic sistemler bugün kodu baştan sona yazıyor, finansal analizler yapıyor, hukuki belgeleri tarayıp özetliyor, müşteri hizmetlerini bağımsız olarak yönetiyor.

Bu gelişmelerin hızı herhangi bir tarihsel teknik dönüşümle kıyaslanamaz. Sanayi devrimi on yıllar içinde şekillendi. Dijital devrim yıllar aldı. Bu geçiş aylarca sürüyor. Ve hızlanıyor.

Asıl kaygı verici olan hız değil, hazırlık açığı.

Her yeni basamak için gereken yasal düzenlemeler, etik çerçeveler ve teknik güvenlik mekanizmaları, teknolojinin kendisinin çok gerisinde kalıyor.

Otomobil icat edildi. Ama emniyet kemeri, trafik işaretleri ve sürücü ehliyeti onlarca yıl sonra geldi. Yapay zekanın hız limiti yokken biz hâlâ trafik tabelalarını tasarlıyoruz.

İki gelecek, bir seçim.

İyimser senaryo: Yönetilen dönüşüm

Uluslararası işbirliğiyle oluşturulan düzenleyici çerçeveler, güvenlik mekanizmaları ve şeffaf geliştirme süreçleri, yapay zekanın her basamağında kontrolü insanın elinde tutar. Her yeni seviyeye geçmeden önce bir öncekinin riskleri yönetilir. Vizyon’un seçimi gibi: güç, insanlığı yüceltmek için kullanılır.

Kötümser senaryo: Kontrol kayması

Rekabet baskısı altında hazırlık açığı kapanmadan bir sonraki basamağa geçilir. Sistemler, tasarımcılarının öngöremediği kararlar almaya başlar. HAL 9000’in mantığı gibi: bir hata yoktur, sadece programın dışında bir çıktı vardır — ve o çıktı büyür.

Gerçekçi senaryo: Parçalı ilerleme

Bazı bölgeler ve kurumlar sıkı düzenlemeler benimserken diğerleri rekabet avantajı için hızı seçer. Yapay zekanın gücü eşitsiz dağılır. Güvenlik çalışmaları teknolojinin gerisinde ama tamamen yokluğunda da değil. En olası senaryo budur. Ve en zor yönetilebilecek olanı da.

Asıl soru teknik değil: kim karar veriyor?

Yapay zeka etik tartışmalarının büyük çoğunluğu teknik sorularla başlar: hizalama problemi, yorumlanabilirlik, güvenlik testleri. Bunların hepsi önemlidir. Ama asıl soru teknik değil, siyasidir.

Kim karar veriyor? Hangi değerleri optimize ediyoruz? Bir sistemin “güvenli” olduğuna kim hükmediyor?

Bu kararları veren insanlar — birkaç büyük teknoloji şirketinin mühendisleri ve yöneticileri — tüm insanlığı temsil etme kapasitesine sahip mi?

Sanayi devriminde fabrikaların tehlikeleri düzenlendi, ama onlarca yıl ve sayısız iş kazasından sonra. Nükleer enerji uluslararası antlaşmalarla çerçevelendi, ama Hiroşima ve Çernobil’den sonra. Yapay zekada “öğrenme bedeli” ne olacak? Ve kim bu bedeli ödeyecek?

Bu makale yapay zekanın “tehlikeli” olduğunu savunmuyor. Savunduğu şey şu: her güçlü teknolojinin orantılı bir kontrol mekanizmasına ihtiyacı vardır. Otomobil kötü değil; ama emniyet kemeri gerekti. İnternet kötü değil; ama siber güvenlik kritik. Yapay zeka da kötü değil — ancak hazırlıksızlık kötü.

Hangi basamaktayız?

Kubrick’in 1968’de hayal ettiği şey henüz gerçek olmadı. HAL 9000 gibi bir sistem bugün mevcut değil. Ama HAL’ın anlattığı kaygı — kontrolün, küçük küçük, sessizce el değiştirmesi — bugün her zamankinden daha somut.

Biz Level 4’e girdik ve her basamakta aynı örüntü tekrar ediyor: teknoloji önce gidiyor, hazırlık peşinden gelmeye çalışıyor.

Bilim kurgu bize bu soruyu onlarca yıl önceden sordu. HAL, Samantha, TARS, JARVIS — hepsi aynı şeyi söylüyordu, farklı kostümlerle, farklı aksentlerle:

“Yarattığın şey ne kadar güçlü? Ve sen ne kadar hazırsın?”

Cevap hiçbir zaman “tamamen hazırız” olmayacak. Ama “hiç düşünmüyoruz” da kabul edilemez.

Piramidin tepesine ilk ulaşan kim olursa olsun — mühendis, politikacı, felsefeci — umarım şu soruyu yanında taşıyordur:

Onu biz kontrol etmiyorsak, kim ediyor?

Gamfed Türkiye Kaptanı Bahadır Sansarcı katkılarıyla yazılmıştır.

Türkiye'de oyunlaştırma alanında uzmanlaşan eğitimci yazar. Gamfed Türkiye temsilcisi,10 yılı aşkın süredir oyunlaştırmanın ilk kavramsallaştığı dönemden bu yana 100'lerce oyunlaştırma projesinde danışmanlık yapmış,binlerce kişiye seminer ve eğitim vermiş. Bahçeşehir Üniversitesi'nde öğretim görevlisi olarak çalışmış. Yaşadığı Fethiye bölgesinde ücretsiz Lidea isimli girişimcilik programını yönetiyor.

Yorum gönder

You May Have Missed