ChatGPT veri sızıntısı, İtalyan milletvekillerinin veri toplamayı düzenlemek için uğraşmasına neden oldu

 Uzmanlar, hükümetlerin yapay zekayı nasıl düzenlemesi gerektiği konusunda hemfikir değiller.


Bugün bir İtalyan düzenleyici, Kişisel Verilerin Korunması Garantörü (İtalyan kısaltması GPDP ile anılır), İtalya'da ChatGPT'nin geçici olarak yasaklandığını duyurdu. Yasak hemen yürürlüğe girecek ve düzenleyici, ChatGPT'nin geliştiricisi OpenAI'nin İtalyan İnternet kullanıcılarının kişisel verilerini, konuşma amaçlı AI yazılımını eğitmek için yasa dışı bir şekilde topladığı ve çocukları önleyecek bir yaş doğrulama sistemi bulunmadığı yönündeki endişelerini araştırana kadar yürürlükte kalacak. araca erişmekten.

GPDP yaptığı basın açıklamasında, İtalya yasağının, 20 Mart'ta "kullanıcı konuşmalarını ve abonelerin ücretli hizmete ödemeleriyle ilgili bilgileri" ifşa eden bir ChatGPT veri ihlalinin ardından geldiğini söyledi. OpenAI, ihlalden etkilenen kullanıcıları bilgilendirdi ve "kullanıcılarımızın gizliliğini korumayı ve verilerini güvende tutmayı taahhüt ettiğini" söyledi ve bu taahhüdün ve kullanıcılarımızın beklentilerinin "gerisinde" kaldığı için özür diledi.

Ars, yorum yapmak için hemen OpenAI'ye ulaşamadı. Şirketin, GPDP'nin endişelerini giderebilecek veya 20 milyon avroya veya OpenAI'nin brüt gelirinin yüzde 4'üne varan para cezalarıyla karşı karşıya kalabilecek önerilen önlemlerle yanıt vermesi için 20 günü var.

Yasağı kaldırmaya yönelik potansiyel hafifletme çabaları arasında, kullanıcılara OpenAI'nin verilerini nasıl topladığı hakkında bilgi verilmesi ve küçük çocukların ChatGPT kullanmasını engellemek için bir yaş doğrulama sistemi uygulanması yer alabilir.

GPDP ayrıca, ChatGPT'nin metin istemlerine verdiği yanıtların verileri manipüle edebileceğinden ve verileri yanlış bir şekilde işleyerek ve nihayetinde yanlış bilgileri paylaşarak potansiyel olarak kullanıcıları yanıltabileceğinden endişe duymaktadır.

Şu anda GPDP, ChatGPT'nin inandırıcı bir şekilde gerçek konuşmaları simüle etmek ve işlemek için kullandığı AI modelini eğitmek için OpenAI'nin kişisel verileri toplaması ve depolaması için yasal bir dayanak olmadığını söyledi. Küçüklerin, daha genç kullanıcıların "gelişme ve kişisel farkındalık derecesine" "kesinlikle uygun olmayan" metin istemlerine verilen yanıtlara maruz kalmasını önleyecek bir yaş doğrulama sistemi de yoktur.

Ars, soruşturmasındaki sonraki adımlar hakkında yorum yapmak için hemen GPDP'ye ulaşamadı.

OpenAI şu anda Avrupa Birliği'nde bulunmadığından, bir GPDP belgesine göre şirketin yasağa itiraz etmek için 60 günü var.

Hükümetler AI araçlarını kısıtlamalı mı?

ChatGPT, canlı bir etik tartışmasını alevlendiren birçok yapay zeka aracından yalnızca biri ve bazı eleştirmenler, düzenleyicileri, kitlesel benimsemenin riskleri tam olarak anlaşılana kadar yapay zeka teknolojisi gelişimini yavaşlatmaya çağırıyor. Ancak Reuters'e göre, ChatGPT tarihteki en hızlı büyüyen tüketici uygulamasıdır - lansmanından sonraki birkaç ay içinde aylık 100 aktif kullanıcıya ulaşır - bu nedenle muhtemelen hükümet yasağıyla karşı karşıya kalan ilk popüler yapay zeka araçlarından biri haline gelmiştir. .

Özellikle OpenAI ürünlerinin artan incelemesi, görünüşe göre daha yeni başladı. Bu haftanın başlarında, kar amacı gütmeyen bir AI araştırma grubu, ABD Federal Ticaret Komisyonu'na OpenAI'nin GPT-4 ürünü hakkında "önyargılı, aldatıcı" olduğunu ve "gizlilik ve kamu güvenliği için bir risk" oluşturduğunu iddia eden bir şikayette bulundu. GPT-4, çok büyük miktarda çevrimiçi veri üzerinde eğitilmiştir ve ChatGPT Plus aboneleri tarafından zaten kullanılabilir ve Microsoft'un Bing'ini destekler.

GPT-4 yayınlandıktan sonra Life of Life Enstitüsü, 30.000 politikacı, önde gelen yapay zeka araştırmacısı ve teknoloji paydaşlarından (Elon Musk gibi) gelen, yapay zeka sistemlerinin eğitimine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektup yayınladı. GPT-4'ten daha güçlü hale gelebilecek AI sistemlerini geliştirmeyi derhal durdurmanın acil bir ihtiyaç olduğunu söylüyorlar ve düzenleyicilerden bu sistemlerin toplumsal etkileri daha iyi anlaşılana kadar geliştirmeleri durdurmalarını istiyorlar.

Birleşmiş Milletler Eğitim, Bilim ve Kültür Örgütü (UNESCO), açık mektuba desteğini tweetledi ve bir basın açıklamasında tüm hükümetlerin UNESCO'nun etik yapay zeka sistemlerini geliştirmeye yönelik tavsiyelerini derhal uygulaması gerektiğini yazdı.

Ancak, Vice'ın bildirdiğine göre mektubu reddeden, pozisyonlarını geri çeken veya sahte olduğu ortaya çıkan bazı imzacılar da dahil olmak üzere, herkes açık mektuba veya UNESCO'nun tavsiyelerine katılmadı.

Açık mektubun en önemli eleştirmenlerinden biri, Dağıtılmış Yapay Zeka Araştırma Enstitüsü'nün kurucusu ve açık mektupta adı geçen bir araştırmacı olan Timnit Gebru idi. Gebru, Future of Life Institute gibi kuruluşların potansiyel olarak milletvekillerini yanıltabilecek bir konumda olduğunu tweetledi ve açık mektuptaki iddiaları "ciddi bir şekilde geri çevirmezsek", "bu anlatı her türlü mevzuatı belirleyecek" dedi.

Gebru'nun AI araştırmasındaki ortak yazarlarından biri olan Emily Bender, Medium'da açık mektubun bazı politika tavsiyelerinin "mantıklı" olmasına rağmen, mektubun genel olarak "sıcak bir karmaşa" olduğunu yazarak, hangi geri tepmenin gerekli olduğunu netleştirmeye yardımcı oldu. Bunun nedeni, Bender'in söylediğine göre, mektup çoğunlukla "Yapay zeka yutturmaca" anlamına gelen, "Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz?" ya da "Nihayetinde sayıca üstün olabilecek, zekasını geride bırakabilecek, modası geçmiş ve bizim yerimizi alabilecek insan dışı zihinler geliştirmeli miyiz?" veya "Medeniyetimizin kontrolünü kaybetme riskini almalı mıyız?"

Bender'e göre, açık mektubun sorduğu tek uygun soru şuydu: "Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?" Şirketleri veya kişileri yanlış bilgilendirmeden sorumlu tutan yasalar oluşturmak, yapay zeka tarafından üretilen tüm içeriğin açıkça etiketlenmesini zorunlu kılmak ve bu teknolojilerin etkilerini araştıran güçlü bir kamu finansmanı sağlamak da dahil olmak üzere mektubun bazı politika önerilerine katıldı.

Ancak Bender, geliştirmeyi duraklatmaya zorlanmak yerine, ChatGPT gibi araçların yaratıcılarının, özellikle de dışarıdaki araştırmacılara "eğitim verileri, model mimarisi ve eğitim rejimleri hakkında daha fazla şeffaflık" sağlamaları gerekiyorsa, herhangi bir yanlış bilgiyi zaten "güvenilir bir şekilde kontrol edebileceklerini" öne sürdü. .

Ars, yorum için UNESCO, Future of Life Institute, Gebru veya Bender'e hemen ulaşamadı. [Güncelleme: Bender ve Gebru, açık mektuba yanıt olarak bir bildiri yayınlayan ortak yazarlara katıldı. Açıklamaları, "şeffaflığı zorunlu kılan düzenleme" öneriyor ve milletvekillerini, "yapay zeka deneyleri" yürüten ve "gücü hızla merkezileştirirken" "güçlü dijital zihinler" inşa ettiklerini iddia eden "şirketlerin çok gerçek ve çok mevcut sömürücü uygulamalarını" düzenlemeye odaklanmaya çağırıyor. artan sosyal eşitsizlikler."]

UNESCO, bu tartışma devam ederken, yapay zeka araçlarının ayrımcılığa, klişeleştirmeye, cinsiyet eşitsizliğine, dezenformasyona, mahremiyet ihlaline ve insan ve çevre hakları ihlallerine nasıl katkıda bulunabileceği de dahil olmak üzere, düzenleyicilerin kullanıcılara yönelik çeşitli etik riskleri tartması gerekeceğini söyledi.

Future of Life Institute, düzenlemeleri bilgilendirmeye yardımcı olmak için yapay zeka laboratuvarlarının ve bağımsız uzmanların yapay zeka tasarımı ve geliştirmesi için ortak güvenlik protokolleri oluşturmak üzere işbirliği yapmasını tavsiye etti. Bender, milletvekillerine AI'nın "teknik bros"tan gelen tehlikeli olduğunu söyleyerek her türlü abartıyı görmezden gelmelerini ve bunun yerine "şirketlerin (ve hükümetlerin) teknolojiyi (ve "AI anlatılarını") konsantre olmak ve gücü kullanmak için nasıl kullandıklarını inceleyenleri dinlemelerini tavsiye etti. ”
Daha yeni Daha eski