Elon Musk’ın OpenAI CEO’su Sam Altman’la uzun zamandır beklenen mahkeme hesaplaşmasının ilk günleri, bir Silikon Vadisi ahlak oyununu andırıyor: hasım hâline gelen kurucular, iş yapma biçimlerini ve kültürü baştan düzenleme vaadi taşıyan bir teknoloji ve OpenAI’nin aslında ne olması gerektiğine dair yarışan anlatılara hakemlik etmeye çağrılan bir jüri. Ancak gösterinin—Oakland’daki federal adliyeye sabahın erken saatlerinde gelişler, üç haftalık takvim ve rahatsız edici bir iç geçmişi su yüzüne çıkarabilecek tanıklıklar—ötesinde, mesele kişisel olmaktan çok daha yapısal. Dava, güçlü yapay zekâ sistemlerinin yönetişimi üzerine yürütülen bir vekâlet savaşına dönüşmüş durumda: Onları kim kontrol eder, hangi yükümlülükleri taşırlar ve kamuoyu bu kurumlara ne ölçüde güvenmelidir?
OpenAI’nin kurucu ortaklarından Musk, şirketin izlediği rotayı kuruluş ideallerinden sapma olarak resmediyor. Altman ve kurucu ortak Greg Brockman dâhil diğer OpenAI yöneticileri ise, ileri modeller geliştirmenin gerçekleriyle şekillenen bir stratejiyi savunuyor: devasa hesaplama maliyetleri, rekabet baskısı ve ticarileşme ihtiyacı. Bu temel gerilim—misyon ile para, güvenlik söylemi ile ürüne yetişme telaşı—OpenAI’ye özgü değil; fakat şirket, mevcut yapay zekâ patlamasının merkezinde duruyor ve sektörün çelişkilerinin bir tür temsilcisine dönüşmüş bulunuyor. Hukuki argümanlar spesifik olabilir; yine de daha geniş sorular tanıdık: Bir kuruluş ölçek ve pazar hâkimiyeti peşinde koşarken kamu yararı amacı iddiasını inandırıcı biçimde sürdürebilir mi ve paydaşlar “anlaşmanın bozulduğunu” ileri sürdüğünde hangi çareler vardır?
Karar çıkmadan önce bile, davanın görünürlüğü tek başına sonuç doğuruyor. Yapay zekâ laboratuvarları yıllardır kamuoyundan bir paradoksu kabullenmesini istedi: Küçük bir yönetici ve yönetim kurulu grubunun, kendilerinin bile anlaması zor olduğunu kabul ettikleri; şaşırtıcı davranışlara yatkın; kötüye kullanılırsa geniş ölçekli zarar verebilecek sistemleri “kendi kendine” denetleyebileceğine inanmak. Buna karşılık mahkeme salonu, açıklamaya zorlamak, hesap verebilirliğin sınırlarını çizmek ve sorumluluğu tayin etmek için tasarlanmıştır—yapay zekânın kendi kendini denetlediği dönemde büyük ölçüde eksik kalan araçlar bunlar. Jürinin tutumu da önemlidir; politika uzmanlığı olarak değil, kamu hissiyatının bir fotoğrafı olarak. Bazı jüri üyelerinde Musk’a dönük kuşkuculuğa dair haberler, kişiliklerin ve itibarın, ego çok ötesine uzanan bir ihtilafta bile güvenilirlik algısını nasıl renklendirebileceğine işaret ediyor.
Sonuç, yapay zekâ ürünlerinin nasıl inşa edilip pazarlanacağına dalga dalga yansıyabilir. Dava OpenAI’yi yapısını netleştirmeye ya da kısıtlamaya zorlarsa, diğer laboratuvarlar da bunu not edecektir—ya kurumsal savunmalarını sertleştirerek ya da daha “mahkemeye dayanıklı” görünen yönetişim modelleri benimseyerek; misyon iddiaları ile ticari zorunluluklar arasına açık sınırlar koyarak. Yapay zekâ ekonominin düzenlenen, kamu hizmeti benzeri bir katmanına dönüştükçe, şirketlerin yalnızca vizyoner anlatılara yaslanması da o kadar sürdürülemez hâle gelir. Niyetleri, beyanları ve iç karar alma süreçlerini didik didik eden bir dava, düzenleyicileri ve tüketicileri “sorumlu yapay zekâ” vaatlerinden daha somut bir şey talep etmeye teşvik edebilir.
Risk yalnızca kurumsal değil; çalışanlar için giderek daha kişisel. Yapay zekânın işler üzerindeki etkisine dair kamusal tartışma, kıyamet kesinliği ile küçümseyen bir teselli arasında salınıp durdu. Son dönemdeki haberler daha karmaşık bir gerçeği öne çıkarıyor: Yapay zekâ şirketleri otomasyonu verimlilik diye satarken, yapay zekâyı ayakta tutan emek—çoğu zaman veri etiketleme ve model eğitimi gibi görünürlüğü düşük işler—güvencesiz olabiliyor; ani işten çıkarmalara ve değişen taşeron düzenlerine açık. Bu çelişki, yapay zekânın sadece beyaz yakalı işi ikame edip başka yerlerde daha iyi fırsatlar yarattığına dair derli toplu hikâyeyi bozuyor. Yakın vadeli sarsıntı daha dağınık olabilir: Rolleri pürüzsüz biçimde ortadan kaldırmadan görevleri yeniden şekillendiren yeni araçlar, buna karşılık modellerin arkasındaki insan iskelesi maliyet kısma hamlelerine karşı kırılgan kalır.
İşte Musk–Altman kavgasının “yapay zekâ kaynaklı iş kıyameti” anlatısının abartılı olup olmadığı sorusuyla kesiştiği yer burası. Kamu hayal gücünde fazlasıyla pekişmiş olabilir; fakat ayrıntıları yeterince incelenmemiş. Tehlike, tek bir dramatik dalgayla gelen kitlesel işsizlik değildir yalnızca; pazarlık gücünün yavaş yavaş erimesi, yapay zekâ sistemlerini yönlendirebilenlerle işi bu sistemler tarafından vasıfsızlaştırılanlar arasındaki uçurumun büyümesi ve şokları eşitsiz emen bir işgücü piyasasıdır. Şirketler yapay zekâ asistanlarını günlük iş akışlarına entegre etmek için yarışırken bazı rolleri kaldırabilir, bazılarını yeniden tasarlayabilir ve üretim beklentilerini sessizce sertleştirebilir. Bu tür dönüşümler nadiren tek bir manşetlik rakam olarak görünür; ama yine de hayatları değiştirir.
Bu bağlamda davanın alt metni daha da belirginleşiyor: Kısmen, kamunun hangi yapay zekâ geliştirme modelini kabullenmeye çağrıldığıyla ilgili. Bir model, ileri yapay zekâyı hızın kazandığı rekabetçi bir arena olarak görür ve yönetişimi esnek tutar. Diğeri, teknolojinin doğaçlamaya bırakılmayacak kadar sonuç doğurucu olduğunu; güvenlik ve kamu yararı adına verilen taahhütlerin uygulanabilir bir anlam taşıması gerektiğini savunur. Büyük olasılıkla gelecek, huzursuz bir hibrit olacak—toplumsal etkisi olan sistemleri besleyen ticari motorlar; içsel erdemle değil, hukuk, düzenleme ve kamu baskısıyla dengelenen bir yapı.
Adliye binasının dışından izleyen okurlar için en önemli çıkarım şu olabilir: Yapay zekânın bir sonraki evresi, teknik demoların ötesinde, kurumsal stres testleriyle şekillenecek. Davalar, işten çıkarmalar ve yönetişim kavgaları teknolojinin hikâyesinden bir sapma değil; hikâyenin ta kendisi. Önümüzdeki yıllarda yapay zekâya duyulan güven, yalnızca modellerin neler yapabildiğine değil, arkasındaki kişi ve kurumların iddialarının hesabını verip veremeyeceğine bağlı olacak—özellikle de hırs, hesap verebilirlikle çarpıştığında.