"Kontrol kaybından" korkan AI eleştirmenleri, AI geliştirmede 6 aylık duraklama çağrısı yapıyor

 "Bu duraklama halka açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir."


Çarşamba günü Future of Life Enstitüsü, web sitesinde yapay zeka laboratuvarlarını "GPT-4'ten daha güçlü AI sistemlerinin eğitimini en az 6 ay süreyle derhal durdurmaya" çağıran açık bir mektup yayınladı. Elon Musk ve önde gelen birkaç yapay zeka araştırmacısı tarafından imzalanan mektup, kısa sürede basında dikkat çekmeye başladı ve sosyal medyada bazı eleştiriler aldı.

OpenAI, bu ayın başlarında, kompozisyon görevlerini yerine getirebilen ve insan düzeyinde standart testleri geçtiği iddia edilen bir yapay zeka modeli olan GPT-4'ü piyasaya sürdü, ancak bu iddialar hala araştırma tarafından değerlendiriliyor. Ne olursa olsun, GPT-4 ve Bing Chat'in yeteneklerinde önceki yapay zeka modellerine göre ilerlemesi, önceden beklenenden daha hızlı süper akıllı yapay zeka sistemlerine doğru ilerlediğimize inanan bazı uzmanları ürküttü.

Bu doğrultuda, Future of Life Enstitüsü, AI'daki son gelişmelerin, tahmin edilmesi veya kontrol edilmesi zor olan AI modellerini geliştirmek ve uygulamak için "kontrolden çıkmış bir yarışa" yol açtığını savunuyor. Bu AI sistemlerinin planlama ve yönetim eksikliğinin endişe verici olduğuna ve güçlü AI sistemlerinin ancak etkileri iyi anlaşıldığında ve yönetilebilir olduğunda geliştirilmesi gerektiğine inanıyorlar. Mektupta yazdıkları gibi:

Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zeka laboratuvarları tarafından kabul edildiği üzere, insan-rekabet zekasına sahip yapay zeka sistemleri, toplum ve insanlık için büyük riskler oluşturabilir. Geniş çapta onaylanan Asilomar Yapay Zeka İlkelerinde belirtildiği gibi, Gelişmiş Yapay Zeka, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir.

Mektup özellikle, "tüm işlerin" yapay zekaya verilmesi ve uygarlığın "kontrolünün kaybedilmesi" de dahil olmak üzere, bazıları yapay zeka topluluğunun bazı kesimlerinde oldukça tartışmalı olan varsayımsal senaryoları varsayan dört yüklü soru soruyor:

  • "Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?"
  • "Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz?"
  • "Nihayetinde sayıca üstün olabilecek, zekasını geride bırakabilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz?"
  • "Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz?" 
Mektup, bu potansiyel tehditleri ele almak için AI laboratuvarlarını "GPT-4'ten daha güçlü AI sistemlerinin eğitimini en az 6 ay boyunca derhal duraklatmaya" çağırıyor. Duraklama sırasında yazarlar, yapay zeka laboratuvarlarının ve bağımsız uzmanların yapay zeka tasarımı ve geliştirmesi için ortak güvenlik protokolleri oluşturmak üzere işbirliği yapmasını öneriyor. Bu protokoller, bağımsız dış uzmanlar tarafından denetlenecek ve AI sistemlerinin "makul bir şüphenin ötesinde güvenli" olmasını sağlamalıdır.

Bununla birlikte, "GPT-4'ten daha güçlü" ifadesinin aslında pratik veya düzenleyici anlamda ne anlama geldiği açık değildir. Mektup, çok modlu veya büyük bir dil modelinin göreli gücünü ölçerek uyumluluğu sağlamanın bir yolunu belirtmez. Ayrıca OpenAI, GPT-4'ün nasıl çalıştığıyla ilgili teknik ayrıntıları yayınlamaktan özellikle kaçındı.

Future of Life Institute, 2014 yılında biyoteknoloji, nükleer silahlar ve iklim değişikliği de dahil olmak üzere insanlığın karşı karşıya olduğu varoluşsal risklerle ilgilenen bir grup bilim insanı tarafından kurulmuş, kar amacı gütmeyen bir kuruluştur. Ek olarak, AI'dan kaynaklanan varsayımsal varoluşsal risk, grup için önemli bir odak noktası olmuştur. Reuters'e göre, organizasyon öncelikle Musk Vakfı, Londra merkezli etkili özgecilik grubu Founders Pledge ve Silicon Valley Community Foundation tarafından finanse ediliyor.

Bir Reuters muhabiri tarafından onaylanan mektuba imza atan önemli kişiler arasında adı geçen Tesla CEO'su Elon Musk, AI öncüleri Yoshua Bengio ve Stuart Russell, Apple kurucu ortağı Steve Wozniak, Stability AI CEO'su Emad Mostaque ve yazar Yuval Noah Harari yer alıyor. Açık mektup, İnternet'teki herkesin doğrulama olmaksızın imzalaması için mevcut, bu da başlangıçta eski Microsoft CEO'su Bill Gates, OpenAI CEO'su Sam Altman ve kurgusal karakter John Wick gibi bazı yanlış eklenmiş isimlerin dahil edilmesine yol açtı. Daha sonra bu isimler kaldırıldı.

"AI yutturmaca" ve potansiyel düzenleme

Mektubun acil tonuna rağmen, herkes yapay zekanın potansiyel varoluşsal riskini kabul etmiyor ve önce diğer daha az varsayımsal yapay zeka zararlarına odaklanmayı tercih ediyor. Daha önce de belirttiğimiz gibi, AI topluluğunun grupları arasında hangi potansiyel AI tehlikelerine odaklanılması gerektiği konusunda güçlü bir kopukluk var.

Bazı eleştirmenler zaten GPT-4 ile sorun yaşıyor. Tanınmış AI etik uzmanı Timnit Gebru, Twitter'da "İnsanların GPT-4'ten 'daha güçlü' şeyler kullanmasını engellemek istiyorlar, ancak GPT-4 iyi, değil mi?"

Ticarileştirilmiş büyük dil modellerinin sık sık eleştirmenlerinden biri olan Dr. Emily Bender, Twitter'da açık mektubun bazı kısımlarını "akılsız #AIhype" olarak adlandırdı ve yapay zekanın insanüstü hale gelmesi korkusunun, geniş çapta yaygınlaşan bu modellerin tanıtımını artırmaya yardımcı olduğuna dikkat çekti. sosyal önyargı sorunlarına ve bilgileri tamamen inandırıcı bir şekilde uydurma eğilimlerine rağmen.

Bender, On the Dangers of Stokastik Papağanlar (2021) adlı makalesinden bahseden bir tweet'te "Riskler ve zararlar hiçbir zaman 'çok güçlü yapay zeka' ile ilgili olmadı," diye yazdı. "Bunun yerine," diye devam etti, "gücün insanların ellerinde toplanması, baskı sistemlerinin yeniden üretilmesi, bilgi ekosisteminin zarar görmesi ve (enerji kaynaklarının savurgan kullanımı yoluyla) doğal ekosistemin zarar görmesi hakkında. "

Yine de, yapay zeka güvenlik/etik tartışmasının her iki tarafındaki pek çok kişi, yapay zeka alanındaki değişimin hızının geçen yıl içinde ezici bir şekilde hızlı olduğunu ve yasal sistemlere, akademik araştırmacılara, etik uzmanlarına ve kültüre uyum sağlamak için çok az zaman verdiği konusunda hemfikir. ekonomide potansiyel olarak radikal değişiklikleri başlatmaya hazır yeni araçlar.

Açık mektubun işaret ettiği gibi, OpenAI bile yapay zekada daha yavaş ilerlemeyi teşvik ediyor. OpenAI, bu yılın başlarında yapay genel zeka (kabaca insan eşdeğeri veya daha fazlası anlamına gelen bir terim) hakkında yaptığı açıklamada, "Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak önemli olabilir ve yeni modeller oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmeye yönelik en gelişmiş çabalar."

Future of Life Enstitüsü, bu büyümeyi sınırlama zamanının şimdi olduğuna ve "tüm kilit aktörler" yapay zeka araştırmalarını yakında yavaşlatmayı kabul etmezse, "hükümetlerin devreye girmesi ve bir moratoryum başlatması gerektiğine" inanıyor.

Ancak, hükümet-düzenleme cephesinde bazı zorluklar olabilir. The Guardian'ın belirttiği gibi, "Katı düzenleme çağrısı, Birleşik Krallık hükümetinin Çarşamba günü yayınlanan ve hiçbir yeni yetki içermeyen amiral gemisi yapay zeka yönetmeliği beyaz kitabıyla taban tabana zıttır."

Bu arada, ABD'de, özellikle GPT-4 gibi büyük dil modelleriyle ilgili olarak, potansiyel AI düzenlemesi hakkında çok az hükümet fikir birliği var gibi görünüyor. Ekim ayında Biden yönetimi, Amerikalıları yapay zeka zararlarından korumak için bir "Yapay Zeka Haklar Bildirgesi" önerdi, ancak bu, kanun gücüyle desteklenen bir belgeden ziyade önerilen yönergeler olarak hizmet ediyor. Ayrıca, yönergeler yazıldıktan sonra yapay zeka sohbet robotlarından kaynaklanan potansiyel zararları özel olarak ele almıyor.

Açık mektupta ortaya konan noktalar ileriye dönük en iyi yolu sunsun ya da sunmasın, yapay zeka modellerinin yıkıcı gücünün - ister süper zeka (bazılarının iddia ettiği gibi) yoluyla, ister aşırı abartılı pervasızca piyasaya sürülmesi yoluyla (diğerleri gibi) muhtemel görünüyor. tartışmak) - sonunda düzenleyicilerin kapılarına inecek
Daha yeni Daha eski