Büyük hukuk firmaları, yasal belgeleri araştırmak ve yazmak için OpenAI tarafından yapılmış bir araç kullanıyor.
Londra merkezli hukuk firması Allen & Overy'nin pazar inovasyonu grubunun başkanı David Wakeling, yasa odaklı üretken yapay zeka aracı Harvey ile ilk olarak Eylül 2022'de karşılaştı. Küçük bir deney yürütmek için sistemin geliştiricisi OpenAI ile görüştü. Firmasının bir avuç avukatı, kanunla ilgili basit soruları yanıtlamak, belge taslağı hazırlamak ve müvekkillere gönderilen mesajlarda ilk geçişleri yapmak için sistemi kullanırdı.
Wakeling, duruşmanın küçük başladığını, ancak kısa sürede balon gibi büyüdüğünü söylüyor. Şirketin 43 ofisinde yaklaşık 3.500 çalışan aracı kullandı ve toplamda yaklaşık 40.000 sorgu sordu. Wakeling, anlaşmanın ne kadar değerli olduğunu söylemeyi reddetse de, hukuk firması AI aracını şirket genelinde daha yaygın kullanmak için bir ortaklığa girdi. Harvey'e göre, Allen & Overy'nin avukat ekibindeki dört kişiden biri artık AI platformunu her gün kullanıyor ve yüzde 80'i ayda bir veya daha fazla kullanıyor. Şirket, diğer büyük hukuk firmalarının da platformu benimsemeye başladığını söylüyor.
Yapay zekanın yükselişi ve hukuk endüstrisini bozma potansiyeli daha önce birçok kez tahmin edilmişti. Ancak ChatGPT'nin ön saflarda yer aldığı en son üretken yapay zeka araçları dalgasının yükselişi, sektördekileri her zamankinden daha fazla ikna etti.
Wakeling, "Bunun bir paradigma değişiminin başlangıcı olduğunu düşünüyorum" diyor. "Bence bu teknoloji hukuk sektörü için çok uygun."
Üretken yapay zeka, kültürel ve ticari bir an yaşıyor, aramanın geleceği olarak lanse ediliyor, telif hakkıyla ilgili yasal anlaşmazlıkları ateşliyor ve okullarda ve üniversitelerde paniğe neden oluyor.
Doğal görünen resimler veya metinler oluşturmayı öğrenmek için büyük veri kümelerini kullanan teknoloji, büyük ölçüde standartlaştırılmış belgelere ve emsallere dayanan hukuk endüstrisi için uygun olabilir.
Newcastle Üniversitesi'nde hukuk, inovasyon ve toplum profesörü olan Lilian Edwards, "Sözleşme, aktarım veya lisans oluşturma gibi yasal uygulamalar aslında ChatGPT ve kuzenlerini kullanmak için nispeten güvenli bir alandır" diyor. "Otomatik yasal belge oluşturma, onlarca yıldır, hatta kural tabanlı teknoloji günlerinde bile bir büyüme alanı olmuştur, çünkü hukuk firmaları, belge oluşturma iskelesi oluşturmak için büyük miktarlarda yüksek oranda standartlaştırılmış şablonlardan ve emsal bankalardan yararlanabilir ve sonuçları çoğundan çok daha öngörülebilir hale getirir. serbest metin çıktıları.”
Ancak mevcut üretken yapay zeka nesilleriyle ilgili sorunlar şimdiden kendini göstermeye başladı. En önemlisi, kendinden emin bir şekilde bir şeyler uydurma ya da "halüsinasyon görme" eğilimleri. Bu, aramada yeterince sorunludur, ancak hukukta başarı ile başarısızlık arasındaki fark ciddi ve maliyetli olabilir.
Harvey'in kurucusu ve CEO'su Gabriel Pereyra e-posta yoluyla yapay zekanın halüsinasyonları önlemek ve tespit etmek için bir dizi sistemi olduğunu söylüyor. "Sistemlerimiz, mevcut sistemlere kıyasla halüsinasyonları büyük ölçüde azaltan çok büyük yasal veri kümelerindeki yasal kullanım durumları için ince ayarlanmıştır" diyor.
Wakeling, buna rağmen Harvey'in bazı şeyleri yanlış anladığını söylüyor - bu nedenle Allen & Overy, teknoloji konusunda dikkatli bir risk yönetimi programına sahip.
Wakeling, "En üst düzeyde profesyonel hizmetler sağlamalıyız" diyor. "Hukuki tavsiyeyi kirleten halüsinasyonlara sahip olamayız." Allen & Overy'nin Harvey portalında oturum açan kullanıcılar, aracı kullanmak için bir kurallar listesiyle karşı karşıya kalır. Wakeling'in aklına göre en önemlisi? “Sistemden çıkan her şeyi doğrulamanız gerekir. Her şeyi kontrol etmelisin.”
Wakeling, Harvey'in çeviri konusundaki hünerinden özellikle etkilenmiş. Ana akım hukukta güçlüdür, ancak halüsinasyona daha yatkın olduğu belirli alanlarda mücadele eder. "Sınırları biliyoruz ve insanlar halüsinasyon riski konusunda son derece iyi bilgilendirildi" diyor. "Firma içinde, büyük bir eğitim programıyla çok yol kat ettik."
WIRED ile konuşan diğer avukatlar, uygulamalarında AI kullanımı konusunda temkinli bir şekilde iyimserdi.
Hukuk firması TLT'nin müşteri dönüşüm ortağı Sian Ashton, "Kesinlikle çok ilginç ve kesinlikle hukuk endüstrisinde meydana gelen bazı harika yeniliklerin bir göstergesi," diyor. "Ancak, bu kesinlikle emekleme aşamasında bir araç ve sektörde veya abonelik hizmetlerinde zaten mevcut olan emsal belgeleri sağlamaktan çok daha fazlasını yapıp yapmadığını gerçekten merak ediyorum."
Fransa, Paris'te yerleşik bir veri koruma avukatı olan Daniel Sereduick, AI'nın giriş seviyesi işler için kullanılmaya devam edeceğini söylüyor. "Yasal belge taslağı hazırlamak, yapay zekanın oldukça iyi kavrayabildiği çok emek yoğun bir görev olabilir. Sözleşmeler, politikalar ve diğer yasal belgeler normatif olma eğilimindedir, bu nedenle AI'nın bilgi toplama ve sentezleme yetenekleri çok fazla ağır yük kaldırabilir."
Ancak Allen & Overy'nin bulduğu gibi, bir yapay zeka platformundan elde edilen çıktının dikkatli bir şekilde gözden geçirilmesi gerektiğini söylüyor. "Hukuk uygulamanın bir kısmı, müvekkilinizin özel koşullarını anlamakla ilgilidir, bu nedenle çıktı nadiren optimal olacaktır."
Sereduick, yasal yapay zekadan elde edilen çıktıların dikkatli bir şekilde izlenmesini gerektirse de, girdilerin yönetilmesinin de aynı derecede zor olabileceğini söylüyor. "Bir yapay zekaya gönderilen veriler, veri modelinin ve/veya eğitim verilerinin bir parçası olabilir ve bu, büyük olasılıkla müşterilere ve bireylerin veri koruma ve gizlilik haklarına yönelik gizlilik yükümlülüklerini ihlal eder" diyor.
Bu, özellikle, bu tür yapay zeka kullanımının şirketler tarafından bireyler hakkında ne kadar veri toplanabileceğini ve işlenebileceğini düzenleyen Avrupa Birliği Genel Veri Koruma Yönetmeliği'nin (GDPR) ilkelerini ihlal edebileceği Avrupa'da bir sorundur.
“[Toplu veri kazıma] temeli üzerine inşa edilmiş bir yazılımı yasal olarak kullanabilir misiniz? Bence bu ucu açık bir soru," diyor veri koruma uzmanı Robert Bateman.
Bateman, hukuk firmalarının kontrol ettikleri müvekkiller hakkındaki kişisel verileri Harvey gibi üretken bir yapay zeka aracına beslemek için GDPR kapsamında sağlam bir yasal temele ve bu verilerin yapay zeka araçlarını çalıştıran üçüncü taraflarca işlenmesini kapsayan sözleşmelere ihtiyaç duyacağını söylüyor.
Wakeling, Allen & Overy'nin Harvey dağıtımı için kişisel verileri kullanmadığını ve herhangi bir verinin çitle çevrileceğine ve başka herhangi bir kullanımdan korunacağına ikna olmadıkça bunu yapmayacağını söylüyor. Bu şartın ne zaman karşılanacağına karar vermek, şirketin bilgi güvenliği departmanının işi olacaktır. Wakeling, "Müşteri verileri konusunda son derece dikkatli davranıyoruz" diyor. "Şu anda araştırma veya taslak hazırlama ya da slaytlar için bir plan hazırlama - bu tür şeyler için zaman kazanmak için kişisel olmayan bir veri sistemi, müşteri olmayan bir veri sistemi olarak kullanıyoruz."
Üretken yapay zeka araçlarının kişisel verilerle beslenmesi söz konusu olduğunda uluslararası hukuk zaten sertleşiyor. Avrupa çapında, AB'nin Yapay Zeka Yasası, yapay zeka kullanımını daha sıkı bir şekilde düzenlemeye çalışıyor. Şubat ayı başlarında, İtalya Veri Koruma Dairesi, üretici yapay zeka sohbet robotu Replika'nın kullanıcılarının kişisel verilerini kullanmasını engellemek için devreye girdi.
Ancak Wakeling, Allen & Overy'nin AI'dan yararlanırken müşteri verilerini güvenli ve emniyette tutabileceğine ve aynı zamanda şirketin çalışma şeklini iyileştirebileceğine inanıyor. "Üretkenlik ve verimlilikte gerçek bir maddi fark yaratacak" diyor. Aksi takdirde bir avukatın gününden değerli dakikalar alacak olan küçük görevler artık yapay zekaya yaptırılabilir. "Şu anda erişimi olan 3.500'den fazla avukatı bir araya getirirseniz, bu çok fazla" diyor. "Tam bir kesinti olmasa bile etkileyici."
