Rapor: Microsoft, önemli bir yapay zeka etik ekibini görevden aldı

 Uzman, kararı "lanetleyici" olarak nitelendiriyor ve düzenleyicilerin müdahil olma zamanının geldiğini söylüyor.


Platformer'ın bildirdiğine göre, Microsoft'un AI ürünlerinin sosyal zararları hafifletmek için güvenlik önlemleriyle birlikte gönderilmesinden sorumlu olan tüm ekip, şirketin en son 10.000 çalışanını işten çıkarması sırasında işten çıkarıldı.

Eski çalışanlar, etik ve toplum ekibinin, Microsoft ürünlerinde OpenAI teknolojisinin kullanılmasıyla ilişkili riskleri azaltma stratejisinin kritik bir parçası olduğunu söyledi. Ekip, yok edilmeden önce, Microsoft mühendislerinin yapay zekanın neden olabileceği zararları tahmin etmesine ve ardından bu zararları azaltmasına yardımcı olmak için eksiksiz bir "sorumlu inovasyon araç seti" geliştirdi.

Reuters'in bildirdiğine göre, Platformer'ın raporu, OpenAI muhtemelen şimdiye kadarki en güçlü AI modeli olan ve halihazırda Bing aramasını güçlendirmeye yardımcı olan GPT-4'ü yayınlamadan hemen önce geldi.

Microsoft, Ars'a yaptığı açıklamada, "AI ürünlerini ve deneyimlerini güvenli ve sorumlu bir şekilde geliştirmeye kararlı olduğunu ve bunu, buna öncelik veren insanlara, süreçlere ve ortaklıklara yatırım yaparak yaptığını" söyledi.

Etik ve toplum ekibinin çalışmalarını "çığır açan" olarak nitelendiren Microsoft, şirketin son altı yılda Sorumlu Yapay Zeka Ofisi'ne yatırım yapmaya ve boyutunu genişletmeye daha fazla odaklandığını söyledi. Bu ofis, Microsoft'un diğer sorumlu AI çalışma grupları, Aether Komitesi ve Mühendislikte Sorumlu AI Stratejisi ile birlikte aktif olmaya devam ediyor.

Hesaplamalı dilbilim ve doğal dil işlemede etik sorunlar konusunda Washington Üniversitesi uzmanı Emily Bender, Microsoft'un etik ve toplum ekibini feshetme kararını kınamak için tweet atan diğer eleştirmenlere katıldı. Bender, Ars'a dışarıdan biri olarak Microsoft'un kararının "kısa görüşlü" olduğunu düşündüğünü söyledi ve ekledi: "Bu işin ne kadar zor ve önemli olduğu göz önüne alındığında, işi yapan insanlara yapılan önemli kesintiler lanetleyici."

Etik ve toplum ekibinin kısa tarihi

CNBC'nin bildirdiğine göre Microsoft, sorumlu yapay zekayı keşfetmeye adanmış ekiplere 2017'de odaklanmaya başladı. Platformer, 2020 yılına kadar, bu çabanın en fazla 30 üyeye sahip etik ve toplum ekibini kapsadığını belirtti. Ancak Google ile yapay zeka yarışı kızıştıkça Microsoft, etik ve toplum ekibi üyelerinin çoğunu geçen Ekim ayında belirli ürün ekiplerine taşımaya başladı. Çalışanlar, Platformer'a, bunun etik ve toplum ekibinin "iddialı planlarını" uygulamaya kendini adamış yalnızca yedi kişi kaldığını söyledi.

Bu kadar küçük bir ekip için çok fazla işti ve Platformer, eski ekip üyelerinin, Microsoft'un Bing Image Creator için önerilen ve canlı sanatçıların markalarını kopyalamasını engelleyebilecek azaltma stratejileri gibi önerilerine her zaman uymadığını söylediklerini bildirdi. (Microsoft, ekibin endişelerini gidermek için lansmandan önce aracı değiştirdiğini söyleyerek bu iddiaya itiraz etti.)

Platformer'a göre Microsoft'un yapay zekadan sorumlu kurumsal başkan yardımcısı John Montgomery, geçen sonbaharda ekip küçülürken, "bu en son OpenAI modellerini ve onlardan sonra gelenleri alıp müşterilere taşımak" konusunda büyük bir baskı olduğunu söyledi. eller çok yüksek bir hızda.” Çalışanlar, bu hıza dayalı stratejinin olası olumsuz etkileri hakkında sahip oldukları "önemli" endişeler konusunda Montgomery'yi uyardı, ancak Montgomery "baskıların aynı kaldığı" konusunda ısrar etti.

Etik ve toplum ekibinin boyutu küçülürken bile Microsoft ekibe bunun ortadan kaldırılmayacağını söyledi. Ancak şirket, 6 Mart'ta bir Zoom toplantısında ekibin geri kalanına ekibi tamamen feshetmenin "iş açısından kritik" olduğu söylendiğinde bir değişiklik duyurdu.

Bender, Ars'a kararın özellikle hayal kırıklığı yarattığını çünkü Microsoft'un "yapay zeka, etik ve teknoloji için toplumsal etki üzerinde çalışan gerçekten harika insanları bir araya getirmeyi başardığını" söyledi. Ancak Bender, Microsoft'un bu hareketle "temel olarak" şirket etik ve toplum ekibi tavsiyelerini "kısa vadede bize para kazandıracak şeylerin aksine olarak algılarsa, o zaman gitmeleri gerektiğini" söylediğini söyledi.

Bender gibi uzmanlara göre Microsoft, yapay zeka modellerinin yasal riskler de dahil olmak üzere riskler taşıyabileceği durumlarda şirkete yavaşlamasını söylemeye adanmış bir ekibi finanse etmekle artık daha az ilgileniyor gibi görünüyor. Bir çalışan, Platformer'a potansiyel olarak sorumsuz tasarımlar kullanıcılara itildiğinde "hayır" diyecek kimse kalmadığına göre artık hem markaya hem de kullanıcılara ne olacağını merak ettiklerini söyledi.

Eski bir çalışan Platformer'a "En kötüsü, işletmeyi riske ve insanları riske maruz bırakmamızdır" dedi.

Sorumlu yapay zekanın sallantılı geleceği

Şirket Bing'i AI ile yeniden piyasaya sürdüğünde, kullanıcılar Bing Sohbet aracının komplolar oluşturmak, yanlış bilgi yaymak ve hatta görünüşte insanlara iftira atmak gibi beklenmedik davranışlar sergilediğini hemen keşfetti. Şimdiye kadar, Microsoft ve Google gibi teknoloji şirketlerine yapay zeka araçlarının sürümlerini kendi kendine düzenleyerek riskleri belirleme ve zararları azaltma konusunda güvenildi. Ancak eski Google etik AI araştırmacısı Timnit Gebru ile birlikte yazan ve Gebru'nun birçok AI aracının dayandığı büyük dil modellerini eleştirdiği için kovulmasına neden olan makaleyi yazan Bender, Ars'a "bir model olarak öz düzenlemenin işe yaramayacağını" söyledi.

Bender, Ars'a sorumlu yapay zeka ekiplerine yatırım yapmak için "dış baskı olmalı" dedi.

Bender, toplum "mevcut AI yutturmaca dalgasının" ortasında şirketlerden daha fazla şeffaflık istiyorsa, düzenleyicilerin bu noktada müdahil olmasını savunuyor. Aksi takdirde, kullanıcılar, kullanıcıların bu araçlardan nasıl zarar görebileceğine dair sağlam bir anlayışa sahip olmadan, popüler araçları (şu anda aylık 100 milyon aktif kullanıcıya sahip olan yapay zeka destekli Bing'de olduğu gibi) kullanmak için çoğunluğa atlama riskiyle karşı karşıya kalır.

Bender, Ars'a "Bununla karşılaşan her kullanıcının neyle çalıştıklarına dair gerçekten net bir fikre sahip olması gerektiğini düşünüyorum" dedi. "Ve bu konuda iyi bir iş çıkaran hiçbir şirket görmüyorum."

Bender, şirketlerin yapay zekanın "İnternet kadar büyük ve yıkıcı olacağını" iddia eden yapay zeka aldatmacasından yararlanarak tüketilmiş gibi görünmesinin "korkutucu" olduğunu söyledi. Bunun yerine şirketlerin "neyin yanlış gidebileceğini düşünme" görevi var.

Bir sözcü Ars'a Microsoft'ta bu görevin artık Sorumlu Yapay Zeka Ofisine düştüğünü söyledi.

Microsoft sözcüsü, "Hassas kullanım durumlarını incelemek ve müşterileri koruyan politikaları savunmak gibi konularda şirketler arası destek sağlayan Sorumlu Yapay Zeka Ofisimizin ölçeğini ve kapsamını da artırdık" dedi.

Bender'e göre, Microsoft gibi şirketlerin doğru şeyi yapmasına güvenmekten daha iyi bir çözüm, toplumun düzenlemeleri savunmasıdır - "belirli teknolojileri mikro düzeyde yönetmek değil, bunun yerine hakları kalıcı bir şekilde oluşturmak ve korumak" diye tweet attı.

Uygun düzenlemeler, potansiyel zararlar hakkında daha fazla şeffaflık ve kullanıcılar arasında daha iyi bilgi okuryazarlığı bulunana kadar Bender, kullanıcıların "AI tıbbi tavsiyesini, yasal tavsiyeyi, psikoterapiyi" veya AI'nın diğer hassas uygulamalarını asla kabul etmemesini tavsiye ediyor.

Bender, mevcut AI yutturmaca hakkında "Bana çok, çok dar görüşlü geldi" dedi.
Daha yeni Daha eski