Yapay zeka… Son yıllarda her yerde. Toplantı odalarında, Twitter tartışmalarında, kahve molalarında. Bir sabah uyandık ve dünya birdenbire ChatGPT’yle dolmuş gibi hissettik. Oysa gerçek çok daha eski ve çok daha karmaşık.
Bugün yaşadığımız bu teknolojik devrim, aslında 80 yıllık çalkantılı bir hikâyenin devamı. Ve bu hikâyede bolca umut, iki kez yıkılan hayaller ve biraz da akademik inat var. Başarıdan ziyade, bu bir patlama–çöküş döngüsü. Ve eğer bu döngüyü anlamazsak, nerede olduğumuzu da pek anlayamayız.
1940’lar: Mantıkçılar ve Biyologlar Arenada
Her şey, 1940’larda iki fikir akımıyla başladı.
Bir yanda Alan Turing ve arkadaşları vardı. Onlara göre düşünmek, sembolleri mantıklı kurallarla işlemekti. “Kuralları yaz, makine düşünsün” dediler. Bugün buna Sembolik Yapay Zeka diyoruz. Yukarıdan aşağıya bir yaklaşım.
Diğer yandaysa McCulloch ve Pitts gibi sinir bilimciler duruyordu. Onlara göre ise düşünce, beynin kendine özgü bağlantı yapısından doğuyordu. “Beyni taklit edelim” dediler. Aşağıdan yukarıya bir yol: Bağlantısalcılık.
İlk raundu Mantıkçılar kazandı. Çünkü fikirleri, dönemin teknolojisiyle daha uyumluydu. 1956’daki meşhur Dartmouth Konferansı ve ilk yapay zeka programları, bu akımı iyice güçlendirdi. YZ’nin ilk 30 yılı onların hâkimiyetinde geçti.
Ama sonra…
1970’ler: İlk Büyük Çöküş
Sembolik YZ, gerçek dünya problemleriyle karşılaşınca dağıldı. Dil çevirisi gibi işler, bilgisayarı boğdu. Kombinatoryal patlama dedikleri şey yaşandı: Olasılıklar öyle hızlı çoğalıyordu ki, sistemler kitleniyordu.
Yatırımlar çekildi. Fonlar kesildi. İlk Yapay Zeka Kışı başladı. Araştırmalar yavaşladı, umutlar söndü.
1980’ler: “Uzman Sistemler” ve Kırılgan Umutlar
Derken bir ara bahar geldi. “Uzman Sistemler” devri… Bir doktor gibi düşünen yazılımlar: “Eğer X varsa, o zaman Y yap” diyordu. Sağlık, mühendislik, finans… Milyarlarca dolarlık pazar oluştu.
Ama bu sistemler kırılgandı. En ufak bir belirsizlikte çuvallıyorlardı. Kuralları elle yazmak gerekiyordu. Öğrenemiyorlardı. Beklenti köpüğü patladı, ikinci YZ Kışı geldi.
2012: Uyuyan Dev Uyanıyor
Bu kez kurtuluş, yıllar önce unutulmuş Bağlantısalcıların fikrinden geldi.
2012’de AlexNet adında bir model, ImageNet yarışmasını silip süpürdü. Bilgisayarlar birden “görmeye” başladı. Sadece görmüyordu, anlıyordu da. O eski, “bilgisayarlar zor şeyleri kolay yapar ama kolay şeyleri yapamaz” inancı çöktü. Bu, Moravec Paradoksuydu.
Büyük veri + GPU gücü = devrim.
Ve bu devrim sembolik değil, biyolojikti.
2017: Dili Çözmek
Görsel tanıma tamam. Ama dil hâlâ sorun.
RNN’ler, LSTM’ler… Hepsi sırayla işlerdi; bu da GPU’ların paralel işlem avantajını çöpe atardı. Derken o tarihi makale yayınlandı: “Attention Is All You Need.”
Transformer mimarisi, dili çözmenin anahtarını verdi. Paralelliği mümkün kıldı. “Her kelime diğer kelimelerle nasıl ilişkili?” sorusuna aynı anda cevap verebilen bir sistemdi bu.
GPT, BERT, Claude… Hepsi bu çığır açıcı fikirden doğdu.
2025: Zirveye mi Uçuyoruz, Çöküşe mi?
Bugün, Kasım 2025 itibarıyla, LLM’lerin ötesine geçiyoruz. Artık karşımızda sadece konuşan değil, eyleme geçen YZ ajanları var.
E-postanızı okuyup cevap yazabiliyor, sizin adınıza rezervasyon yapabiliyor, kod yazabiliyor. Bu sistemler, 1950’lerin planlama idealini 2010’ların öğrenme gücüyle birleştiriyor.
Sağlıkta teşhis, finansta otomasyon, otonom araçlar, doğrudan Excel üzerinden doğal dil analizi… Her yer YZ.
Peki her şey yolunda mı?
Bir akademisyen olarak burada durup düşünmek istiyorum. Bu tablo, bana 1980’leri hatırlatıyor. O zaman da her şey harika görünüyordu. Ve sonra her şey çöktü.
Bugün de kırılganlıklar var. Hem de birkaç farklı cephede:
1. Teknik Kırılganlık
Modeller zaman zaman “halüsinasyon” görüyor. Gerçek olmayan bilgileri sanki doğruymuş gibi sunabiliyorlar. Bu, sadece sinir bozucu değil — tehlikeli de olabilir.
2. Hukuki Kırılganlık
Şu anda mahkemelerde büyük bir savaş var. Bir taraf “Bu telif ihlali” diyor, diğer taraf “Yaratıcılığın yeni formu” diye savunuyor. Eğer telif lobisi kazanırsa, şirketlerin iş modeli temelden sarsılabilir.
3. Ekonomik Kırılganlık
Bu modelleri eğitmek ve çalıştırmak devasa GPU gücü gerektiriyor. Elektrik, soğutma, çipler… Masraflar kontrolden çıkabilir.
4. Jeopolitik Kırılganlık
Küresel yönetişim umudu, 2025 Şubat’ında Paris Zirvesi’nde suya düştü. ABD ve İngiltere “varoluşsal risk” söylemine saplandı, imza atmadı. AB kendi yoluna gitti, Çin zaten başından beri farklı oynuyor.
Bu Sefer Farklı mı?
Tarih, bazen şiir gibi tekerrür eder. Yapay zekanın tarihi, abartılı umutlarla dolu. Ve her seferinde, çözülemeyen temel sorunlar bu umutları dibe çekti.
Bugün yine “şişirilmiş beklentiler” noktasındayız. Eğer bu yeni kırılganlıklar çözülmezse, üçüncü — ve belki de en sert — bir YZ Kışı pekala mümkün.
Ama kim bilir…
Belki de bu kez gerçekten farklıdır.
Siz ne dersiniz?
Yapay zeka ve yapay zeka tarihi son birkaç yıldır hepimizin dilinde. Yapay zeka, otonom ajanlar, “işimi elimden alacak mı?” sohbetleri… Sanki yapay zeka (YZ) 2022’de bir anda icat edildi gibi bir hava var. Ama işin aslı (ki bu beni her zaman şaşırtmıştır) çok daha eski.
Aslında, şu an yaşadığımız bu devrim, 80 yıllık bir mücadelenin, iki büyük çöküşün ve devasa bir felsefi kavganın sonucu. Bu, düz bir başarı hikayesi değil; daha çok bir “boom-bust” (patlama-çöküş) döngüsü. Ve bu döngüyü anlamak, bugün (Kasım 2025) nerede durduğumuzu anlamak için kritik.
Büyük Kavga: ‘Mantıkçılar’ Biyologlara Karşı
Her şey 1940’lar ve 50’lerde iki zıt fikirle başladı.
Bir yanda Alan Turing gibi ‘Mantıkçılar’ vardı. “Düşünce,” dediler, “özünde sembolleri işlemektir.” Eğer bir makineye kuralları ve mantığı öğretirsek, düşünmesini de öğretiriz. Buna ‘Sembolik YZ’ diyelim (Yukarıdan Aşağıya).
Diğer yanda ise McCulloch ve Pitts gibi ‘Biyologlar’ vardı. Onlar da “Hayır,” dediler, “düşünce biyolojik bir ağ mekanizmasıdır. Beyni taklit etmeliyiz.” Buna da ‘Bağlantısal YZ’ diyelim (Aşağıdan Yukarıya).
Başlangıçta bu ikinci fikir pek ilgi görmedi. Neden? Çünkü bir ağı eğitecek ne algoritmamız ne de (daha da önemlisi) donanımımız vardı.
Böylece, 1956’daki o meşhur Dartmouth Konferansı ve ‘ilk YZ programı’ sayılan Logic Theorist gibi başarılarla, ‘Mantıkçılar’ maçı 1-0 önde başlattı. YZ’nin ilk 30 yılını tamamen onlar domine etti.
Ve Sonra Duvara Çarpıldı: ‘YZ Kışları’
Peki, ‘Mantıkçılar’ neden kazanamadı? İki büyük fiyasko yüzünden.
İlk fiyasko 1970’lerde geldi. Adına ‘kombinatoryal patlama’ dediler. Kulağa karmaşık geliyor ama aslında basit: YZ’yi laboratuvardan çıkarıp gerçek dünyaya (mesela dil çevirisine) sokmaya çalıştığınızda, olasılıkların sayısı o kadar hızlı artıyordu ki, o günün bilgisayarları bu yükü kaldıramıyordu. Fonlar kesildi, ilk ‘YZ Kışı’ başladı.
Sonra 1980’lerde bir ‘ara sıcak’ yaşadık: ‘Uzman Sistemler’ çağı. Bunlar, bir doktorun teşhis koyması gibi dar bir alanda ‘eğer-o zaman’ kurallarıyla çalışan programlardı. Milyarlarca dolarlık bir pazar oluştu.
Ama bu da çöktü. Çünkü bu sistemler ‘kırılgandı’.
Önceden programlanmamış en ufak bir şeyle karşılaştıklarında (mesela bir doktorun sezgisel olarak anlayacağı ama kurallara uymayan bir semptom) darmadağın oluyorlardı. En önemlisi: Öğrenemiyorlardı. Her yeni kuralı bir insanın elle girmesi gerekiyordu. Bu ticari bir fiyaskoydu ve Sembolik YZ’nin (yani ‘Mantıkçıların’) sonu oldu.
Devrim 1: Beynin Gözleri (AlexNet)
Yapay zeka tarihinde o 40 yıllık başarısızlık bize bir şey öğretti, adına da ‘Moravec Paradoksu’ dendi: Meğer bilgisayarlar için zor problemler (teorem kanıtlamak) kolay, kolay problemler (bir kediyi görmek) zormuş.
Neden? Çünkü ‘görmek’ gibi ‘kolay’ eylemler, beynimizin milyarlarca yıllık evrimsel verisiyle dolu. Bunu kural-tabanlı Sembolik YZ asla çözemezdi.
Çözüm için 1943’teki o ‘uyuyan dev’ fikre, yani Bağlantısalcılığa (Biyologlara) dönmemiz gerekti. İki şeye ihtiyacımız vardı: Büyük Veri (ImageNet gibi devasa etiketli veri setleri) ve Büyük Hesaplama Gücü (oyun oynamak için tasarlanan GPU’lar).
2012’de ‘AlexNet’ adlı bir model, bu ikisini kullanarak ImageNet görsel tanıma yarışmasını darmadağın etti. Hata oranını bir gecede %40’a yakın azalttı. Bu, YZ Kışlarını bitiren andı. ‘Biyologlar’ 70 yıl sonra maçı kazanmıştı.
Devrim 2: Dilin Kilidini Açmak (Transformer)
Görmeyi çözmüştük. Ama dil hâlâ bir sorundu.
O zamanki dil modelleri (RNN/LSTM) doğası gereği ‘sıralı’ idi. Yani, bir cümlenin 10. kelimesini işlemek için ilk 9’u sırayla okumak zorundaydılar. Bu, AlexNet’in zaferini sağlayan GPU’ların paralel işlem gücünü kullanılamaz hale getiriyordu. GPU (paralel) ve LSTM (sıralı) temelde uyumsuzdu.
Ve 2017’de o efsanevi makale geldi: ‘Attention Is All You Need’ (İhtiyacınız Olan Tek Şey Dikkat).
‘Transformer’ mimarisini tanıttı. Devrimci yanı şuydu: Sıralı işlemi (yinelenmeyi) tamamen çöpe atıyordu. Onun yerine, bir cümlenin her kelimesinin diğer her kelimeyle olan ilişkisine aynı anda bakıyordu (‘öz-dikkat’).
Bu, GPU’lar üzerinde devasa ölçekte eğitim yapmanın kilidini açtı. GPT, BERT, Claude… bugün kullandığımız her şeyin temeli o an atıldı.
2025: Yeni Zirve, Eski Sorunlar mı?
Ve bugüne geldik. 2025 itibarıyla, LLM’lerden ‘YZ Ajanlarına’ (AI Agents) geçiyoruz. Bu ajanlar, sadece konuşan pasif araçlar değil; e-postalarınızı okuyup, sizin adınıza rezervasyon yapıp, kod yazabilen otonom sistemler. Aslında bu, 1956’daki ‘Mantıkçıların’ (planlama yeteneği) ve 2012’deki ‘Biyologların’ (muazzam bilgi) nihai birleşimi.
Her sektör bu işin içinde: Sağlıkta teşhis, finansta otomasyon, arabalarımızda Seviye 4 otonomi, Excel’de doğal dille analiz…
Her şey harika görünüyor, değil mi?
Bu manzara, Yapay zeka tarihinde bana tehlikeli bir şekilde 1980’lerdeki ‘Uzman Sistemler’ patlamasını hatırlatıyor. O zaman da milyarlarca dolarlık yatırım, otomasyon vaatleri ve ‘dünyayı değiştirme’ söylemi vardı. Ve ‘kırılganlık’ (brittleness) yüzünden çöktü.
Bugün de ‘kırılganlığın’ yeni formlarıyla karşı karşıyayız:
- Teknik Kırılganlık: Modellerin ‘halüsinasyon’ görmesi, yani kendinden emin bir şekilde saçmalaması. (Anthropic’in ‘bilmiyorum’ deme çabası bu yüzden değerli).
- Hukuki Kırılganlık: Tüm bu endüstri, şu anda mahkemelerde ‘adil kullanım’ savaşı veriyor. Bir grup (Disney, Universal gibi) “Bu hırsızlık, pazarımıza zarar veriyor” diyor. Diğer grup (Anthropic gibi) “Hayır, bu dönüştürücü, yeni bir şey yaratıyoruz” diyor. Eğer ilk grup kazanırsa, tüm bu şirketler devasa lisans ücretleri ödemek zorunda kalabilir ve bu, ekonomiyi çökertebilir.
- Ekonomik Kırılganlık: Bu modelleri eğitmenin ve çalıştırmanın muazzam GPU maliyeti.
- Jeopolitik Kırılganlık: Küresel bir yönetişim çabası vardı. Bitti. Şubat 2025’teki Paris Zirvesi, ABD ve İngiltere’nin ‘varoluşsal risk’ terimine takılıp imzayı basmamasıyla tam bir fiyaskoyla sonuçlandı. AB (güvenlik odaklı) ve ABD (inovasyon odaklı) tamamen ayrı yollara gitti.
Tarih Tekerrür Edecek mi?
Yapay zekanın 80 yıllık tarihi bize bir şey öğrettiyse, o da şudur: Abartılı beklentiler, çözülemeyen temel sorunlarla karşılaştığında, ‘hayal kırıklığı çukuru’ (yani YZ Kışı) kaçınılmazdır.
Şu anda (Kasım 2025) ‘şişirilmiş beklentilerin zirvesindeyiz’.
Eğer bu yeni ‘kırılganlık’ sorunları (hukuki, etik, teknik) hızla çözülmezse, tarihin tekerrür etmesi ve Üçüncü (ve belki de en büyük) Yapay Zeka Kışı’na doğru ilerlememiz pekala mümkün.
Siz ne dersiniz? Bu sefer gerçekten farklı mı, yoksa 1980’lerdeki partinin daha pahalı bir versiyonunu mu yaşıyoruz?
Bugün bir sohbet botuna soru sorduğunuzda, ekranın arkasında olup bitenler size büyü gibi görünebilir. Oysa bu “büyü”, neredeyse 80 yıllık inatçı bir entelektüel maceranın, bol miktarda abartının, birkaç ciddi hayal kırıklığının ve beklenmedik sıçramaların ürünü.
Bu yazıda filmi biraz geri saracağız:
1943’teki teorik bir nörondan başlayıp 1950’lerin zeka tartışmalarına, 1970 ve 80’lerin “Yapay Zeka Kışları”na, 2012’de Derin Öğrenme devrimine, 2017’de Transformer mimarisiyle gelen dil patlamasına ve 2025’in otonom ajanlarına kadar uzanan büyük bir hikâyeyi birlikte okuyacağız.
Ve aklımızın bir köşesinde şu soruyu hep tutacağız:
Bu yaşadıklarımız, gerçek bir dönüşüm mü, yoksa yeni bir “abartı döngüsünün zirvesi” mi?
1. Fikrin Doğuşu: “Makineler Düşünebilir mi?” Sorusu
Yapay zekâ bir laboratuvar projesi olarak değil, bir felsefe sorusu olarak doğdu. İkinci Dünya Savaşı sonrası dünyanın ortasına bırakılan o meşhur soru şuydu:
“Makineler düşünebilir mi?”
Bu soru ilk bakışta masum durur, ama üzerinde iki dakika düşündüğünüzde kilitlendiğini fark edersiniz. “Düşünmek” tam olarak nedir? “Makine” dediğimiz şey ne kadar sınırlı? İnsan zekâsı sadece sembollerle uğraşan bir hesap makinesi midir, yoksa biyolojiyle sıkı sıkıya örülü bambaşka bir şey mi?
1.1 Turing’in Taklit Oyunu: Zekâyı Davranışa İndirgemek
Bu kördüğümü çözen kişi, İngiliz matematikçi Alan Turing oldu. 1950’de yayınlanan ünlü makalesinde Turing, soruyu zekice tersyüz etti: “Makineler düşünebilir mi?” demek yerine, “Makineler insan gibi davranabilir mi?” diye sormayı teklif etti.
Önerdiği deney, bugün “Turing Testi” diye bildiğimiz “Taklit Oyunu”dur. Kurgu basit:
- Bir odada bir insan, diğer odalarda bir insan ve bir makine var.
- Sorgulayıcı, ikisiyle de yalnızca yazılı olarak konuşabiliyor.
- Eğer sorgulayıcı, hangisinin makine olduğunu tutarlı biçimde ayırt edemiyorsa, makineyi “zeki” saymamız gerektiğini söylüyor.
Dikkat edin: Turing, zekâyı içsel bilinç, “gerçekten anlama” gibi ölçülmesi zor kavramlardan koparıp, tamamen dışarıdan gözlenebilen davranışa bağlıyor. “İyi taklit edebiliyorsa, pratikte zekidir” diyor.
Bu düşünce, daha sonra “fiziksel sembol sistemi hipotezi” diye anılacak yaklaşımın da zeminini döşedi:
- İnsan zihni, özünde sembollerle çalışan bir hesaplama sistemi ise,
- Yeterince güçlü bir sembolik işlemci (bir bilgisayar) de zeki olabilir.
Bu çizgiye itiraz edenler de oldu. John Searle gibi filozoflar, “Bu sistemler aslında anlamıyor, sadece sembolleri kuralına göre manipüle ediyor” diyerek buna “zayıf yapay zekâ” adını verdiler. Fakat pratikte, o gün konulan hedef hâlâ masada duruyor:
Zekânın ölçütü, “gerçekten anlamak” değil, “ikna edici biçimde davranmak” mıdır?
Bugün üretken yapay zekâ modellerinin “gerçekten anlıyor mu, sadece istatistik mi yapıyor?” tartışması, doğrudan 1950’de Turing’in kurduğu bu felsefi sahnenin devamıdır.
1.2 McCulloch–Pitts Nöronu: Beyni Matematikle Yazmak
Turing zihni sembollerle açıklarken, başka bir çizgi beyni doğrudan modellemeye çalışıyordu. 1943’te Warren McCulloch ve Walter Pitts, sinir sistemini basitleştirilmiş bir matematiksel model olarak yazdılar.
Kurduklari model basit ama radikaldi:
- Her nöron, gelen sinyalleri topluyor.
- Toplam belirli bir eşiği aşarsa “ateşliyor”, yoksa sessiz kalıyor.
- Birbirine bağlı bu nöronlar ağ oluşturarak karmaşık hesaplamalar yapabiliyor.
Bugün bize sıradan görünen bu fikir, o zaman için iki şey söylüyordu:
- Beyin, prensipte bir hesaplama sistemi olarak modellenebilir.
- Son derece basit birimlerin büyük bir ağ halinde bağlanması, beklenmedik ölçüde karmaşık davranışlar üretebilir.
Bu, 2010’ların “Derin Öğrenme” devriminden tam 70 yıl önce atılan ilk bağlantısalcı adımdı. Fakat bir sorun vardı: Bu ağları eğitecek doğru algoritmalar ve onları çalıştıracak güçlü donanım henüz yoktu. Sonuç:
- Sembolik yaklaşım (Turing’in çizgisi) kısa vadede daha parlak ve pratik görünüyordu.
- Sinir ağları ise uzun süre “güzel ama kullanışsız bir fikir” olarak kenarda bekledi.
Yapay zekâ tarihini anlamak için bu ikiliği akılda tutmak şart:
- Sembolik YZ: Yukarıdan aşağıya, mantık ve kurallarla çalışan sistemler.
- Bağlantısalcı YZ: Aşağıdan yukarıya, sinir ağları ve öğrenme üzerine kurulu sistemler.
Geri kalan 80 yıl, bu iki yaklaşımın kavgası ve barışma çabasıdır.
2. Dartmouth Yazı ve İlk Altın Çağ
1950’ler, fikirlerin laboratuvara indiği yıllar oldu. Bilgisayarlar artık oda büyüklüğünde de olsa gerçekti. Araştırmacılar, “Bu makinelerle zekâyı kodlayabilir miyiz?” sorusuna ciddi ciddi girişmeye başladılar.
2.1 Dartmouth Konferansı: Bir Alanın Adı Konuluyor
Yapay zekânın “resmi doğum günü” genellikle 1956’da, ABD’nin New Hampshire eyaletinde yapılan Dartmouth Yaz Araştırma Projesi kabul edilir.
John McCarthy, Marvin Minsky, Nathaniel Rochester ve Claude Shannon’ın organize ettiği bu çalıştay, bugün bize çok iddialı gelen bir hedefle toplandı: “Akıllı makineler üretmek”.
Sekiz haftalık bu yaz kampının mirası aslında üç kelimedir:
Artificial Intelligence – Yapay Zekâ
Bu terim orada önerildi ve tutundu. O güne dek dağınık yürüyen çalışmalar (otomatik ispat, oyun oynama, dil işleme) tek bir şemsiye altında toplanmaya başladı. Alan, ilk kez kendini bir “disiplin” olarak hissetti.
Geriye dönüp bakınca, Dartmouth’un atmosferi iki şeyin karışımı gibi görünür:
- Saf bilimsel merak: “Dil, akıl yürütme, kavram oluşturma gibi şeyleri bilgisayarda yapabilir miyiz?”
- İyimser ama fazla iddialı beklentiler: “Bir yaz kampında zekânın sırlarını çözer miyiz?”
Bu aşırı iyimserlik, fon bulmayı kolaylaştırdı; ama aynı zamanda geleceğin hayal kırıklıklarının da zeminini hazırladı.
2.2 Logic Theorist: Makinenin İlk “Düşünce Deneyi”
Dartmouth’un açtığı yolda gelen ilk somut zafer, aynı yıl geliştirilen Logic Theorist programıydı. Allen Newell, Herbert Simon ve Cliff Shaw’un yazdığı bu programın temel hedefi şuydu:
İnsan bir matematikçi gibi akıl yürütüp teorem ispatlayabilir miyim?
Logic Theorist, Whitehead ve Russell’ın dev eseri Principia Mathematica’daki teoremleri ispatlamaya çalışıyordu. Sonuç etkileyiciydi:
- Hedeflenen 52 teoremden 38’inin ispatını buldu.
- Bazı teoremler için, insan yazarlarınkinden daha kısa ve zarif ispatlar üretti.
Teknik açıdan baktığımızda, Logic Theorist üç önemli fikir tanıttı:
- Arama uzayı: Problemi, dallanan bir arama ağacı olarak görmek.
- Sezgisel (heuristic) arama: Tüm dallara körlemesine bakmak yerine, “mantıklı” görünen yollara öncelik vermek.
- Liste işleme: Daha sonra LISP’in doğuşuna yol açacak olan esnek sembolik temsil biçimleri.
Newell ve Simon, bu başarıdan öylesine etkilenmişti ki, “Maddi bir sistemin zihin benzeri özellikler göstermesini açıklamayı başardık” diyecek kadar ileri gittiler. Yani onlara göre, zihin–beden problemine makine üstünden verilmiş bir cevap vardı.
Bu başarı, sembolik yaklaşımın özgüvenini zirveye taşıdı. Sinir ağları bir süre daha ciddiye alınmadı; asıl “zeki” olanın kurallar ve mantık olduğu düşüncesi ağır bastı.
3. Büyük Beklentiler, Büyük Hayal Kırıklıkları: Yapay Zekâ Kışları
Her “altın çağ”ın bir faturası olur. Yapay zekâ için bu fatura, 1970’lerden 1990’lara uzanan iki büyük YZ Kışı olarak karşımıza çıktı. Fonlar kesildi, vaatler küçüldü, hatta bir ara “Bu iş hiç olmayacak galiba” duygusu yaygınlaştı.
3.1 Birinci YZ Kışı (1974–1980): Kombinatoryal Patlamaya Çarpan İyimserlik
1970’lerin ortasına gelindiğinde, birkaç soğuk duş arka arkaya geldi:
- Erken makine çevirisi projeleri beklenen sıçramayı yapamadı.
- Konuşma anlama projeleri, laboratuvar demolarının dışına çıkamadı.
- Minsky ve Papert’in Perceptrons kitabı, tek katmanlı sinir ağlarının sınırlı kapasitesini matematiksel olarak gösterdi. Bu da zaten kenarda duran bağlantısalcı çizgiye ağır bir darbe oldu.
Asıl kırılma, İngiltere’de yayınlanan Lighthill Raporu ile geldi. Raporda yapay zekânın şu temel engelle yüzleştiği söyleniyordu:
“Kombinatoryal patlama”:
Sorunları genel mantıksal kurallarla çözmeye çalıştığınızda, olası durumların sayısı öyle hızlı artar ki, pratikte hiçbirini sonuna kadar tarayamazsınız.
Logic Theorist gibi programlar küçük problem setlerinde harika görünürken, gerçek dünyanın karmaşıklığına ölçeklendikçe arama ağacı kontrolden çıkıyordu. Sonuç:
- “Laboratuvar zaferleri” gerçek hayata taşınamadı.
- Fon sağlayıcı kurumlar, sabırlarını kaybetti.
- Birinci YZ Kışı başladı.
Bu, araştırma ölçeğinde bir başarısızlıktı. Temel itiraz şuydu: Sembolik YZ yaklaşımı, prensipte güzel ama pratikte ölçeklenemiyor.
3.2 1980’ler: Uzman Sistemler ve Kısa Süren İkinci Bahar
Bu soğuk dönemin ardından alan strateji değiştirdi. Genel zekâ hedefi bir kenara bırakıldı; odağa “dar ama işe yarar” sistemler alındı. Böyle doğdu:
Uzman sistemler
Fikir şöyleydi:
- Bir alan uzmanı (doktor, vergi uzmanı, mühendis) yılların deneyimini kurallara dökecek.
- Mühendisler bu kuralları “eğer–o halde” şeklinde bir bilgi tabanına çevirecek.
- Sistem, gelen vakaya göre doğru kuralları tetikleyerek uzman seviyesinde öneriler verecek.
Tıbbi teşhis sistemleri, kimyasal bileşik tanıma, bilgisayar yapılandırma araçları…
1980’ler boyunca bu alana milyarlarca dolar aktı. Hatta YZ için özel tasarlanmış LISP makineleri bile üretildi.
Kâğıt üzerinde her şey yolundaydı: net hedef, net müşteri, somut fayda.
3.3 İkinci YZ Kışı (1987–1993): Kırılganlık ve Öğrenememe
Fakat bu peri masalı da uzun sürmedi. İkinci YZ Kışı, bu kez daha çok ticari bir kriz olarak karşımıza çıktı.
Birkaç temel sorun öne çıktı:
- Donanım tarafı: Genel amaçlı bilgisayarlar hızlandıkça, pahalı ve niş LISP makinelerine ihtiyaç kalmadı. Bütün bir sektör bir anda çöktü.
- Bakım maliyeti: Uzman sistemleri güncel tutmak için, her yeni durum için yeni kurallar eklemek gerekiyordu. Bu da onları bakımı gitgide zorlaşan dev “kural ormanlarına” dönüştürdü.
- Kırılganlık: Sistemler, kendilerine öğretilmemiş bir durumla karşılaştıklarında bocalıyor, hatta tamamen yanlış sonuçlar üretip güven kaybına yol açıyordu.
- En temel sorun: Öğrenemiyorlardı.
Kurallar statikti; sistemin, veri gördükçe kendini güncelleme yeteneği yoktu.
Birinci YZ Kışı, “bu yaklaşım bilimsel olarak ölçeklenemiyor” eleştirisiyle gelmişti.
İkincisi ise “bu iş model olarak sürdürülemiyor” gerçeğiyle yüzleştirdi.
Böylece sembolik paradigma iki kez ağır darbe aldı. Sıradaki soru şuydu:
“Madem kurallarla olmuyor, o zaman veriden öğrenmeyi ciddiye alma zamanı gelmedi mi?”
3.4 Moravec Paradoksu: Zor Problemler Kolay, Kolay Problemler Zor
Bu iki kışın damgasını vuran en ilginç gözlem, robotik araştırmacısı Hans Moravec’ten geldi. Bugün “Moravec Paradoksu” diye bildiğimiz bu gözlem, kısaca şöyle özetlenebilir:
- Bilgisayara satranç oynatmak, zeka testinde yetişkin seviyesine çıkarmak nispeten “kolay”.
- Ama aynı bilgisayara, bir yaşındaki bir çocuğun bile rahatça yapabildiği şeyleri (odada dolaşmak, nesne tanımak, karmaşık bir sahneyi anlamak) yaptırmak inanılmaz zor.
Bu neden böyle?
Çünkü:
- Bizim “kolay” bulduğumuz algısal ve motor beceriler, milyonlarca yıllık evrimle yoğrulmuş devasa beyin bölgelerinde kodlanıyor.
- Mantık ve sembolik akıl yürütme ise evrimsel ölçekte çok yeni.
Dolayısıyla mesele sadece mantık kuralları yazmak değil, duyusal dünyayı işleyebilen geniş ölçekli bir sinir sistemini de taklit etmekti. Moravec Paradoksu, derin öğrenmenin neden kazanmak zorunda olduğunu çok net anlatır:
Zekânın “kolay” tarafı, derin ve yaygın öğrenme gerektiriyor.
Bu da bizi sinir ağlarına, yani bağlantısalcılığa geri döndürüyor.
4. Derin Öğrenme: Uyuyan Devin Uyanışı
2000’lere gelindiğinde yapay zekâ, rotasını “makine öğrenimi”ne çevirdi. Uzman sistemlerin elle yazılmış kuralları yerine, veriden otomatik öğrenen modeller öne çıktı. Ama bu da tek başına yetmiyordu.
4.1 Makine Öğrenimi ve Derin Öğrenme Arasındaki İnce Ama Kritik Fark
Klasik makine öğrenimi ile derin öğrenme arasındaki farkı, bir örnek üzerinden düşünelim.
Elinizde araba resimleri olsun ve siz bilgisayarın “Bu bir araba mı?” diye karar vermesini istiyorsunuz.
- Geleneksel makine öğrenimi yaklaşımında:
Önce bir insan uzman oturup “Önemli özellikler neler?” diye düşünür: tekerlek sayısı, farlar, gövde şekli, plaka, cam sayısı… Sonra bu özellikler elle çıkarılır, modele bunlar beslenir. Modelin başarısı, büyük oranda sizin bu özellikleri ne kadar iyi seçtiğinize bağlıdır. - Derin öğrenme yaklaşımında:
Model, ham piksellerden başlar. İlk katman kenarları, sonraki katman temel şekilleri, daha üst katmanlar “tekerlek”, “cam”, “far” gibi kavramları kendi kendine öğrenir. Siz sadece veriyi ve görevi tanımlarsınız; özelliği nasıl bulacağını modele bırakırsınız.
Kritik fark şudur:
Geleneksel öğrenmede “insan mühendis” darboğazdır.
Derin öğrenmede bu darboğaz, büyük ölçüde veriye devredilir.
Elbette bunun bedeli vardır:
- Çok daha büyük veri setleri
- Çok daha güçlü işlemciler (GPU/TPU)
- Eğitimi zor, ama doğru yapıldığında elde edilen performansın başka türlü yetişilememesi
Ama karşılığında alınan şey, Moravec Paradoksu’nun algısal tarafını çözmek için gereken tam da budur:
Görme, konuşma, işitme gibi “kolay ama zor” görevleri otomatik olarak öğrenebilen sistemler.
4.2 2012: AlexNet Anı ve ImageNet Devrimi
Bağlantısalcı çizginin gerçek anlamda sahneye çıkışı, 2012’deki ImageNet yarışması ile oldu. Alex Krizhevsky, Ilya Sutskever ve Geoffrey Hinton’un geliştirdiği AlexNet, o güne kadarki tüm görsel tanıma sistemlerini bir anda geride bıraktı.
Bu başarıyı mümkün kılan üç bileşen vardı:
- Mimari: Derin evrişimli sinir ağları (CNN)
- Donanım: Eğitim sürecinin büyük kısmını GPU’lar üstleniyordu.
- Teknik yenilikler: ReLU aktivasyonları, Dropout gibi düzenlileştirme yöntemleri.
Sonuç çarpıcıydı:
- Yarışmanın performans metriği olan hata oranı, önceki en iyi modelin çok altında kaldı.
- Bir anda, “Görme için esas yol derin ağlardır” fikri, teori olmaktan çıkıp pratikte kanıtlanmış oldu.
Bu an, birkaç açıdan tarihsel bir dönüm noktasıdır:
- Uzun süredir kenarda bekleyen sinir ağları, sahnenin ortasına yerleşti.
- YZ Kışları fiilen sona erdi; endüstri, derin öğrenmeyi ana akım haline getirdi.
- Moravec Paradoksu’nun “görme” kısmı için ilk ikna edici çözüm bulundu.
Kısacası: 1943’te çizilen teorik nöron, 2012’de GPU destekli bir dev haline gelmişti.
5. Dil Devrimi: Transformer ve Büyük Dil Modelleri
Görsel dünyanın kilidi açılmıştı, ama yapay zekânın kutsal kasesi hâlâ dildi. Dil, hem sıralı hem bağlamsal hem de son derece esnek bir yapı. Erken dönem sinir ağları bu alanda zorlanıyordu.
5.1 RNN ve LSTM’lerin Güçlü Yanları ve Sınırları
Derin öğrenme öncesi doğal dil işleme dünyasının yıldızları, RNN ve LSTM gibi yapılardı.
- RNN’ler, her adımda geçmiş bilgiyi bir “gizli durum”da taşıyarak cümleyi adım adım işler.
- LSTM ve GRU gibi mimariler, bu gizli duruma kapılar ekleyerek “ne kadarını unutayım, ne kadarını hatırlayayım?” sorusunu öğrenir.
Bu yaklaşım, kısa cümleler ve yerel bağımlılıklar için fena değildi. Ama iki temel engel vardı:
- Kaybolan gradyan sorunu: Cümlenin başındaki bir bilginin, sonlara doğru etkisi zayıflıyor, uzun vadeli ilişkiler yakalanamıyordu.
- Sıralı doğa: 10. kelimeyi işlemek için 1’den 9’a kadar sırayla gitmek zorundaydınız. Bu da paralel işlemeyi zorlaştırıyordu.
Yani:
- Görme tarafında CNN’ler GPU’ları sonuna kadar kullanabiliyorken,
- Dil tarafında LSTM’ler, GPU’lara “Siz biraz bekleyin, ben sırayla işlerim” diyordu.
Bu uyumsuzluk, modern dil modellerinin önünü tıkayan en büyük teknik darboğazdı.
5.2 Transformer: “Attention Is All You Need” Anı
2017’de Google ekibinin yayınladığı “Attention Is All You Need” makalesi, bu darboğazı kökten çözdü. Önerdikleri Transformer mimarisi iki radikal adım atıyordu:
- Yinelenmeyi (RNN/LSTM) tamamen bırakıyordu.
- Evrişimi (CNN) de dil tarafında kullanmıyordu.
Yerine ne geliyordu?
Tamamen öz-dikkat (self-attention) mekanizmasına dayanan bir yapı.
Öz-dikkat fikrini, basitçe şöyle düşünebiliriz:
Cümledeki her kelime, diğer tüm kelimelere bakıp “Benim için hangileri önemli?” diye oy veriyor.
Kelimeler arası bu karşılıklı dikkat matrisi, bağlamı taşıyan asıl yapı haline geliyor.
Bu sayede:
- Cümlenin başı ve sonu arasındaki mesafe teknik olarak önemsizleşiyor.
- Bütün cümle, hatta paragraf, aynı anda (paralel) işlenebiliyor.
- GPU’lar, tam kapasiteleriyle eğitime katılabiliyor.
Özet bir karşılaştırma yapmak gerekirse:
| Özellik | RNN / LSTM | Transformer |
|---|---|---|
| Temel mimari | Sıralı (bir adım, bir adım) | Paralel (tüm diziyi bir anda) |
| Ana mekanizma | Yinelenen durum, kapılar | Öz-dikkat (self-attention) |
| GPU ile ölçeklenebilirlik | Sınırlı | Çok yüksek |
| Uzun vadeli bağımlılıklar | Zor, kırılgan | Güçlü, mesafeden bağımsız |
| Modern dil modelleri için | Darboğaz | Fiili standart |
Makalenin başlığı (“İhtiyacınız Olan Tek Şey Dikkat”) aslında küçük bir manifesto. Şunu söylüyor:
Dil için karmaşık hafıza yapıları değil, kelimeler arası ilişkileri esnekçe modelleyen dikkat mekanizması yeterlidir.
Ve tarih, bu iddianın altını imzaladı.
5.3 Büyük Dil Modelleri (LLM): Ölçekleme Hipotezi ve Üretken Çağ
Transformer mimarisinin sağladığı paralelleştirme, çok önemli bir kapıyı açtı:
Ölçekleme Hipotezi
Modelin boyutunu ve eğitildiği veri miktarını yeterince artırırsanız, zekâ benzeri yetenekler kendiliğinden ortaya çıkar.
Bu hipotez, GPT, BERT, Llama, Claude ve benzeri tüm büyük dil modellerinin arkasındaki sezgidir:
- Parametre sayıları milyonlardan yüz milyarlara çıktı.
- Eğitim verisi, seçilmiş metin koleksiyonlarından tüm internete genişledi.
- Modeller yalnızca sınıflandırma yapmakla kalmayıp, yeni metinler, kodlar, açıklamalar, şiirler, senaryolar üretmeye başladı.
Böylece:
- Sembolik YZ’nin kural tabanlı, dar ve kırılgan sistemlerinden
- Bağlantısalcı YZ’nin genel amaçlı, üretken ve esnek sistemlerine geçiş yaşandı.
Artık mesele, “YZ satranç oynayabilir mi?” sorusundan çok, “Bu sistemleri toplum, hukuk ve ekonomi ile nasıl barıştıracağız?” sorusuna kaymış durumda.
6. 2024–2025 Manzarası: Üretken Patlama ve Otonom Ajanlar
Transformer sonrası yıllar, bu teknolojinin laboratuvarlardan çıkıp günlük hayata sızdığı dönem oldu. 2024, “herkesin eline YZ geçen” yıl olarak görülebilir; 2025 ise “bu araçlarla iş akışını gerçekten dönüştürme” yılına dönüşüyor.
6.1 Yapay Zekâ Ajanları: Sadece Konuşan Değil, İş Yapan Sistemler
2025’in en sıcak başlıklarından biri YZ ajanları.
Basit bir LLM, siz sormadan hiçbir şey yapmayan, soruya metin üreterek cevap veren pasif bir sistemdir. Ajan dediğimiz şey ise:
- Hedef belirleyebilen,
- Bu hedefi alt görevlere bölebilen,
- Gerekirse web’e bağlanıp bilgi toplayan,
- Kod yazıp çalıştırabilen, dosya düzenleyebilen, API çağırabilen
- Ve tüm bunları bir plan çerçevesinde otonom biçimde yapabilen bir üst sistemdir.
Dikkat ederseniz, burada sembolik ve bağlantısalcı iki damarın birleştiği bir yapı görünüyor:
- LLM, geniş dünya bilgisi ve dil becerisi ile “beyin” rolünde.
- Araçlar, API’ler, arama motorları, kod yürütücüler ise “kollar ve bacaklar”.
Dartmouth 1956’da hayal edilen “sorun çözen makineler” fikri, 2025’te ajan kavramıyla yeniden ete kemiğe bürünüyor.
6.2 Model Yarışı: Güç mü, Güven mi, Uzmanlık mı?
2025’in sonuna gelirken model yarışında belirgin bir kayma görülüyor:
“Kim daha büyük model yaptı?” sorusundan, “Hangi görev için hangi model daha iyi?” sorusuna.
Kabaca üç eksenden bahsedilebilir:
- Ham yetenek: Zor problemleri çözme, karmaşık kod yazma, çok adımlı akıl yürütme.
- Güvenilirlik: Halüsinasyon oranını düşürme, hataya karşı uyarı verebilme, riskli içerikleri filtreleme.
- Uzmanlaşma: Hukuk, finans, tıp gibi alanlarda derinleşmiş modeller.
Bu tablo, pazarın olgunlaştığının bir işareti. Artık mesele tek bir “süper model” değil, çeşitli görevler için ekosistem tasarlamak.
6.3 Hiper-Kişiselleştirme: Konfor ile Mahremiyet Arasında İnce Çizgi
İkinci büyük trend, hiper-kişiselleştirme.
YZ ajanlarının:
- E-postalarınıza, takviminize, belgelerinize, sohbetlerinize
- Alışveriş ve finans geçmişinize, hatta sağlık verilerinize
erişerek size özel öneriler, planlar, içerikler üretmesi.
Örneğin:
- Sizin adınıza toplantı planlayan,
- Haftanızı özetleyen,
- Tatile nereye gitmek isteyebileceğinizi tahmin eden,
- Hatta bütçenize göre alışveriş sepeti hazırlayan ajanlar.
Teknik açıdan etkileyici, kullanıcı deneyimi açısından cazip.
Ama aynı zamanda şu soruyu gittikçe daha sık duymamıza sebep oluyor:
“Kişisel verilerimin ne kadarını, hangi YZ sistemine emanet etmeye hazırım?”
Bu soru, 2025’in en büyük gerilimlerinden birini oluşturuyor.
7. Sektörel Manzara: Sağlıktan Finansa, Ulaşımdan Ofis Hayatına
Yapay zekâ artık yalnızca teknoloji başlıklı konferansların değil, reel sektörün de ana gündem maddesi.
7.1 Sağlık: Artırma mı, Yerine Koyma mı?
Sağlık alanı, YZ’nin en büyük vaatlerle, en yüksek risklerle buluştuğu alanların başında.
- Erken teşhis için görüntü analizi,
- Klinik karar destek sistemleri,
- Hastane iş akışlarını optimize eden ajanlar,
- Kişiselleştirilmiş tedavi planları…
Bunların hepsi bugün fiilen deneniyor.
Öte yandan sahada ilginç bir gerilim var:
- Araştırmacılar ve politika yapıcılar YZ’yi doktorun yardımcısı olarak düşünüyor.
- Bazı hastalar ise onu doktorun alternatifi gibi kullanmaya başlıyor.
Bu yüzden hekim örgütleri, “Doğru teşhis için yapay zekâya değil, doktora başvurun” diye doğrudan uyarı yapmak zorunda kalıyor.
Gerçek bariyerin hâlâ algoritmalar değil, insan–makine güven ilişkisi olduğu noktasına geldik.
7.2 Finans: Hızlı Kararlar, Yavaş Etik Tartışmalar
Finans sektörü, veri zenginliği ve otomasyon ihtiyacı nedeniyle YZ’yi en hızlı benimseyen alanlardan biri.
- Kredi skorlama
- Risk ve uyum süreçlerinin otomasyonu
- Dolandırıcılık tespiti
- Akıllı müşteri temsilcileri ve yatırım asistanları
Ancak bu alanda üç temel sorun öne çıkıyor:
- Algoritmik önyargı: Tarihsel verideki eşitsizlikler, model üzerinden yeniden üretiliyor.
- Şeffaflık: “Bu kredi neden reddedildi?” sorusuna verilecek açıklanabilir bir yanıt gerekiyor.
- Hukuki sorumluluk: Yanlış kararın yükü kimin üzerinde? Modeli geliştirenin mi, bankanın mı, regülatörün mü?
YZ burada sadece teknolojik değil, normatif bir problem haline geliyor.
7.3 Ulaşım: Otonom Sürüş ve Güvenlik Paradoksu
Otonom araçlar, teknik olarak bakıldığında güçlü bir YZ başarı öyküsü:
- Çoklu sensör füzyonu (kamera, radar, LIDAR)
- Gerçek zamanlı çevre algısı
- Planlama ve rota optimizasyonu
Seviye 4 düzeyine yaklaşan, belirli koşullarda tamamen otonom hareket edebilen araçlar hayatımıza girmeye başladı. Hedef net:
İnsan hatasını minimize ederek trafik kazalarını ve kayıpları azaltmak.
Ama pratikte şu tür sorular gündemden düşmüyor:
- “Kaza kaçınılmazsa kimi korumalı?”
- “Hatalı kararda sürücünün, üreticinin, yazılımcının sorumluluğu nasıl paylaşılmalı?”
- “Bu sistemler korsan saldırılara karşı ne kadar güvenli?”
Teknik ilerleme, hukuki ve etik tartışmalardan daha hızlı koşuyor.
7.4 Sanat, Tasarım ve Günlük Ofis Hayatı
Üretken YZ, sanat ve tasarım dünyasında artık bir “deneysel oyuncak” değil, günlük iş akışının parçası:
- Fikir taslakları ve moodboard üretimi,
- Çizgi film ve animasyon taslakları,
- Görsel varyasyonlar, stil transferleri.
Kurumsal hayatta ise:
- Toplantı notlarını otomatik çıkaran asistanlar,
- E-postalara yanıt taslakları hazırlayan sistemler,
- Excel’de karmaşık analizleri doğal dille tarif etmenize izin veren “ajan modları”.
Kısacası, YZ artık “ayrı bir ürün” değil, rutin iş yazılımlarının içine gömülü bir altyapı.
8. Hukuk, Etik ve Yönetişim: Bir Sonraki Kriz Nereden Gelecek?
Teknik taraf bu kadar hızlı koşarken, hukuki ve etik tartışmalar nefes nefese onu yakalamaya çalışıyor. 2023–2025 dönemi, bu alanda adeta bir “yapay zekâ hukuk laboratuvarı”na dönüştü.
8.1 Telif Savaşları: Veriyle Eğitilen Modellerde Kimin Hakkı Var?
Üretken YZ modelleri, milyarlarca kelime ve görüntü üzerinden eğitiliyor. Bu verilerin hatırı sayılır kısmı telifli eserlerden geliyor: kitaplar, gazeteler, fotoğraflar, filmler, müzikler…
Bu da kaçınılmaz olarak şu soruyu gündeme getirdi:
“Benim yazdığım kitap, çizdiğim karakter, bestelediğim müzik,
bir YZ modelinin eğitim verisi olarak kullanıldığında, bundan pay alma hakkım var mı?”
Dünyanın dört bir yanında açılan davalar tam olarak bunu tartışıyor. Örneğin:
- Görsel modellerin, telifli karakterleri kullanıcı istemese bile anımsatan görüntüler üretmesi
- Müzik modellerinin, belirli bir sanatçının tarzına çok benzeyen eserler üretmesi
gibi durumlar, mahkemelerin önüne “adil kullanım (fair use)” tartışmasını getiriyor.
8.2 “Adil Kullanım” İkilemi: Pazar Zararı mı, Dönüştürücü Yorum mu?
ABD’de görülen davalar arasında iki zıt tavır öne çıkıyor:
- Bir çizgi, “Bu modeller, bizim ürünlerimizle doğrudan rekabet ediyor, pazarımıza zarar veriyor” diyerek adil kullanım iddiasını reddediyor.
- Diğer çizgi, “Model aslında birebir kopyalamıyor, çok sayıda eserden öğrenip yeni ve özgün içerikler üretiyor, bu yüzden dönüştürücüdür” diyerek adil kullanım kalkanını savunuyor.
Hukuk diliyle söyleyecek olursak:
- Bir uçta “pazar hasarı” argümanı,
- Diğer uçta “dönüştürücü kullanım” argümanı var.
Bu gerilim çözülemezse, iki uç senaryo ortaya çıkabilir:
- YZ şirketleri, geniş ölçekli veri lisanslamak zorunda kalır; bu da maliyetleri patlatır ve mevcut iş modellerini sarsar.
- Ya da yaratıcı sektör, ciddi bir gelir kaybı ve mesleki erozyonla karşı karşıya kalır.
Bugün, bu tartışmanın henüz net bir kazananı yok; ama bütün endüstri bu davaların sonucuna endeksli.
8.3 Düzenleyici Çerçeveler: AB Yapay Zekâ Yasası
Bu hukuki kargaşaya, Avrupa Birliği’nin yaklaşımı farklı bir yerden dahil oluyor.
AB Yapay Zekâ Yasası (EU AI Act), dünyadaki ilk kapsamlı YZ düzenlemesi olma yolunda ilerliyor.
Temel yaklaşımı risk temelli:
- Kabul edilemez risk: Sosyal puanlama, kitlesel yüz tanıma gibi uygulamalar doğrudan yasaklanıyor.
- Yüksek risk: Sağlık, ulaşım, kamu hizmetleri gibi alanlarda kullanılan YZ sistemleri için sıkı denetimler, kayıt ve test zorunlulukları getiriliyor.
- Sınırlı risk: Üretken YZ çıktılarının açıkça “YZ tarafından üretildiğini” belirtme zorunluluğu gibi şeffaflık regulasyonları devreye giriyor.
Bu çerçeve, iki şey söylüyor:
- “Her YZ uygulaması aynı kefeye konulamaz; riskine göre muamele görmeli.”
- “Toplumu etkileme gücü yüksek sistemler için, minimum teknik güvenlik kadar, minimum hukuki sorumluluk standardı da şart.”
8.4 Küresel Yönetişimde Çatlaklar: Güvenlik Zirveleri ve Politik Ayrışma
Yalnızca telif ve ürün güvenliği değil, daha “büyük resim” riskleri de gündemde:
Otonom silah sistemleri, biyogüvenlik riskleri, kontrolsüz model yayınları…
Bu kaygılarla 2023’ten itibaren bir dizi YZ Güvenliği Zirvesi düzenlendi:
Birleşik Krallık’ta Bletchley Park, ardından Seul, sonra Paris…
Fakat 2025’e gelindiğinde şu tablo ortaya çıktı:
- Küresel ölçekte bağlayıcı ve güçlü bir güvenlik mutabakatı yok.
- ABD/İngiltere ekseni, ticari inovasyonu yavaşlatabilecek düzenlemelere mesafeli duruyor.
- AB ve bazı diğer ülkeler, daha temkinli ve regülasyon yanlısı bir pozisyon alıyor.
- “Varoluşsal risk” gibi ifadelerin dahi politik bir pazarlık konusu haline geldiği görülüyor.
Bu da bize şunu gösteriyor:
YZ’nin teknik yönetişimi kadar, jeopolitik yönetişimi de kırılgan.
9. Tarih Tekerrür Mü Ediyor? Üçüncü Bir Yapay Zekâ Kışı Mümkün mü?
1943’teki teorik nörondan 2025’in otonom ajanlarına kadar uzanan bu hikâyeye yukarıdan baktığımızda, düz bir ilerleme çizgisi değil, dalgalı bir grafik görüyoruz:
- İyimserlik zirveleri: Dartmouth yazı, uzman sistemler furyası, derin öğrenmenin ilk yılları, LLM patlaması.
- Hayal kırıklığı çukurları: İki büyük YZ Kışı.
- Paradigma çatışmaları: Sembolik vs bağlantısalcı, kural tabanlı vs veri tabanlı.
Bugün geldiğimiz noktada:
- Sembolik YZ’nin kural tabanlı, kırılgan yapıları büyük ölçüde geri çekilmiş durumda.
- Bağlantısalcı YZ, derin öğrenme ve Transformer mimarisi ile sahnenin merkezinde.
- Üretken YZ ve ajanlar, ekonominin ve gündelik hayatın dokusuna girmeye başladı.
Ama tarih, bize önemli bir uyarıda bulunuyor:
YZ Kışlarını doğuran şey, teknik yetersizlik kadar “kırılganlık”tı.
1980’lerde bu kırılganlık:
- Uzman sistemlerin yeni durumlardan hiçbir şey öğrenememesi
- Bakım maliyetlerinin patlaması
- Gerçek hayatta beklenmedik durumlar karşısında çökme
şeklinde karşımıza çıkmıştı.
Bugün ise yeni tür kırılganlıklarla yaşıyoruz:
- Teknik kırılganlık: Halüsinasyonlar, güvenilirlik sorunları, güvenlik açıkları.
- Hukuki kırılganlık: Telif davaları, adil kullanım tartışmaları, veri koruma yasaları.
- Ekonomik kırılganlık: Devasa hesaplama maliyetleri, donanım tedarik zincirine bağımlılık.
- Jeopolitik kırılganlık: Düzenleyici parçalanma, ülkeler arası rekabet ve güvensizlik.
Gartner’ın meşhur “abartı döngüsü”ne geri dönelim. Şu an, üretken YZ ve ajanlar için:
- Belki de yine “şişirilmiş beklentiler zirvesi”ne çok yakınız.
- Eğer bu kırılganlıklar ciddiyetle ele alınmazsa, üçüncü (ve muhtemelen daha sarsıcı) bir YZ Kışı ihtimali masadan kalkmış değil.
Öte yandan, bu kez elimizde geçmişin deneyimi var:
- 1970’lerin kombinatoryal kabusundan,
- 1980’lerin kural ormanı çıkmazından,
- 2010’ların veri ve donanım devriminden öğrendiklerimiz…
Belki de en kritik fark şu olabilir:
Bu kez mesele, yalnızca “teknik olarak mümkün mü?” sorusu değil.
Asıl soru, “toplumsal, hukuki ve etik olarak sürdürülebilir mi?”.
Yapay zekânın destanı henüz bitmedi.
Ama bugün elimizdeki malzemelerle söyleyebileceğimiz şey şu:
- Eğer bu teknolojiyi, geçmişteki gibi yalnızca kısa vadeli ticari fırsatların merceğinden değil, uzun vadeli toplumsal sözleşmenin parçası olarak ele alabilirsek,
- Üçüncü bir YZ Kışı yerine, kontrollü bir “YZ Olgunlaşma Çağı”na geçme ihtimalimiz de var.
Bunun için hem mühendislerin hem hukukçuların hem de toplumun geri kalanının yapması gereken şey aynı:
Sadece “Makineler düşünebilir mi?” sorusuna takılı kalmak yerine,
“Bu makinelerle nasıl birlikte düşünebiliriz?” sorusuna ciddi bir cevap aramak.