SEO

Yapay Zeka’nın Etik Sorunları

Yapay zeka, GPT-3 ve GPT-4 gibi metin üreten Al araçlarının, DALL-E2 ve Stabla Diffusion gibi görüntü üreten Al araçlarının veya Microsoft’ un VALL-E  gibi ses üreten Al araçlarının ve henüz olmayan diğer her şeyin yükseliyle henüz duyurulmadı, yeni bir içerik oluşturma çağına giriyoruz. Ve bununla birlikte pek çok çetrefilli etik sorun da geliyor.

Yapay zeka hayatımızı kolaylaştırdığı gibi dikkat edilmesi gereken konulardan birini barındıyor işte yapay zeka için etik sorunları beraber inceleyelim:

Yapay Zekada Etik: Nelere Dikkat Edilmeli?

Bu, önümüzdeki birkaç yıl içinde ortaya çıkacak tüm olası Al etik sorunlarının kapsamlı bir listesi olmayacak, ancak umarım sizleri düşündürebilirler.

Risk Ortamı

Yeni nesil Al araçlarının çoğu oldukça geniş kapsamlıdır. Bunları, iş dünyasında ve günlük hayat’ a kadar her şeyi yapmak için kullanabilirsiniz. Yapay zekayı nasıl kullandığınız konusunda ne kadar dikkatli olmanız gerektiği ve sürece ne kadar insan denetimi vermeniz gerektiği risk ortamına bağlıdır.

Otamatik olarak oluşturulan e-posta ve toplantı özetleri alabilirsiniz. Google’ ın uzantısı olan “Compose.ai” yapay zekasının bir Gmail ileti dizisindeki önceki tüm e-posyaları birkaç kısa madde işareti halinde özetlemesine izin vermenin neredeyse hiç riski olmayacaktır.

Sınırlı bir bilgi kümesinde çalışıyor, bu nedenle aniden dünya hakimiyeti planlamaya başlaması pek olası değil ve önemli bir noktayı gözden kaçırsa bile, orjinal e-postalar hala insanların kontrol etmelsi için saklanabiliyor. Bir toplantıyı özetlemek için GPT kullamakla hemen hemen aynı şeydir.

Oldukça güvenli bir şekilde AL’ nın işini yapmasına izin verebilir, ardından her taslağı manuel olarak incelemek zorunda kalmadan tüm katılımcılara bir e-posta veya Slack mesajı gönderebilirsiniz. Ama daha aşırı bir seçeneği ele alalım. Mail tavsiye veya daha kötüsü tıbbi tavsiye oluşturmak için bir yapay zeka aracı kullanmak istediğinizi varsayalım ve bunu popüler bir web sitesinde yayınlayın. Ozaman muhtemelen çok dikkatli olmanız gerekebilir.

Yapay zekalar “Halüsinasyon” görebilir veya gerçek olmasalar bile kulağa doğru şeyler uydurabilir ve izleyicilerinizi yanıltmak oldukça kötü bir seçim olur.

Yapay zekaları yalnızca kendi zevkiniz için kullanmayı planlıyorsanız da durum aynıdır. Arkadaşlarınıza göstermek için DALL-E2  ile birkaç görüntü oluşturuyorsanız, endişelecek pek bir şey yoktur. Öte yandan resim yarışmalarına giriyorsanız veya dergilerde yayınlanmaya çalışıyorsanız, geri adım atmalı ve herşeyi dikkatlice düşünmelisiinz.

Bütün bunlar şunu söylemek içindir ki, soyut olarak yapay zeka ile ilgili bazı etik sorunlardan bahsedersek de, her durum aynı değildir. Zarar verme riski ne kadar yüksekse, yapay zeka araçlarının denetimsiz çalışmasına izin verilip verilmeyeceği konusunda o kadar çok düşünmeniz gerekir. Çoğu durumda elimizdeki mevcut araçlarla bu olmayabilir.

Yapay Zekanın Etik Sorunları

Aldatma Potansiyeli

Üretken Al araçları inanılmaz derecede yararlı ve güçlü olabilir ve bunları kullandığınızda her zaman açıklamanız gerekir. Tedbiri elden bırakmamak ve herkesin bir yapay zekanın bir şeyler ürettiğini bildiğinden emin olmak, potansiyel zararların çoğunu hafifletir.

  • İlk olarak; Al kullandığınızda insanlara bunu söylemeyi taahhüt ederseniz, ChatGPT ile bir ödeve kopya çekmeyi imkansız hala getirebilirsiniz. Benzer şeşilde, yapay zeka tarafından oluşturulan bir işi müşterilerinize, onlar farkında olmadan teslim edemezsiniz.
  • İkinici olarak; İnsanlara yapay zeka kullandığınızı söylerseniz, onun ne söylediğini değerlendirmek için muhakemelerini kullanabilirler. ChatGPT gibi araçların en büyük sorunlarından bir, doğru olsun ya da olmasın her şeyi aynı otorite ve kesinlikle ifade etmesidir. Birisi olgusal veya muhakeme hataları olabileceğini bilirse, bunlara dikkat edilmelidir.

Teklif Hakkı Endişeleri

Üretken yapay zekaların büyük miktarda veriyle eğitilmesi gerekmektedir. GPT-3 ve GPT-3 gibi metin üreçleri için bu, temek olarak mümkün olduğu kadar genel olarak sunduğu şeyler intertten çekilen verilerdir. Görüntü oluşturucular için bu, tahmin ettiğiniz gibi internetten kazınan milyarlarca fotoğraftır. Telif hakkıyla korunan bazı materyaller her zaman oraya gitmiştir.

İşte bu yüzden Al geliştiricileri şu anda dava ediliyor. OpenAl ve Micresoft, kod yazmaya yardımcı olabilecek yapay zeka Copilot’ u eğitmek için GitHub’ da barındırılan kodu kullandıkları için anonim telif hakkı sahipleri tarafından dava ediliyor. Stable Diffusion’ ın geliştiricisi Stability Al, görünütülerini izinsiz kullandığı için hem sanatçılar hem Getty ımages tarafından dava ediliyor ve bunun gibi daha bir sürü örnek vardır.

Hepsinden önemlisi, çeşitli üretici yapay zekaların hak durumu belirsizdir ve DALL-E2 bu konuda kullanıcılara oluşturdukları görüntüleri ticari amaçlarla kullanma hakkını vermiştir.

Sonuç olarak, üretken Al’ ları kullanmayala ilgili yasal durum karmaşık ve tanımsızdır. Birkaç sosyal medya gönderisi oluşturmak için Al kullanırsanız kimsenin itiraz etmesi muhtemel olmasa da, yaşayan belirli bir insanı taklit etmeye çalışırsanız daha zor durumlarla karşılaşabilirsiniz. Ya da sadece içindeki tüm görüntülerin herkes tarafından kullanılabileceğini bulmak için bir kitap yayınlamak için para harcayabilirsiniz.

Yapay Zekanın Etik Sorunları 01

Ön Yargı

Üretken yappay zekalar, insan tarafından oluşturulan içeriğin veri kümeleri üzerinden eğitilir. Bu, basmakalıp, ırkçı ve diğer türden önyargılı ve zararlı içerikleri kendi başlarına veya insanların teşvikiyle oluşturabilecekleri anlamına geliyor.

Geliştiriciler, veri kümelerindeki sorunları gidermek için ellerinden gelenin en iyisini yapıyor, ancak bu inanılmaz derecede zor ve incelik isteyen bir durum ve milyarlarca kelime ve görüntü içeren veri kümeleriyle, pratik olarak imkansız bir  görevdir.

Önyargılı eğitim verileri nedeniyle yapay zeka araçlarından uzak durmanızı tavsiye etmesem de, bunun farkında olmanızı öneriyorum. Bir yapay zeka aracından verilerde önyargılara tabi olabilecek bir şey oluşturmasını isterseniz, onun basmakalıp ve zararlı içerik oluşturmadığından emin olmak size düşebilir.

Veri kümelerindeki ön yargılar çok derindir. Üretken yapay zeka araçlarını kullanacaksınız, bunu kabul etmeniz ve bunu düzeltmek için adımlar atmanız önemlidir. Yapay zeka araçları geliştiren çoğu kişi, kendi verilerinden daha iyi hale getirmek için çalışırken, kazınan eğitim verilerine güveniyorlar.

Etik ve Yapay Zeka: Şüpheye Düştüğünüzde Her şeyi Gözden Geçirin

Yapay zekanın en büyük vaatlerinden biri sürekli aktif insan müdahalesi olmadan çalışabilmesidir. Blog gönderiniz için meta veriler yazmanıza gerek yok; bunu sizin için “Jasper” yapacak. Photoshop’ ta saatler harcamanıza gerek yok “DALL-E 2”, sosyal medya kampanız için sürekli görüntüler oluşturabilirsiniz.

Üretken yapay zekalardan bazıları artık işleri otomatik olarak yapabiliyor olsa da şimdilik, yapay zekaların denetimsiz çalışmasına izin verme konusunda çok dikkatli olmalısınız, özellikle de sizin veya işiniz için önemli bir şey üretiyorlarsa.

Bu nedenle, şüpheniz varsa, yapay zekanın sizinveya ekibinizdeki bir başkasının inceleyebileceği veya doğruluk kontrolü yapabileceği taslaklar oluşturmasını sağlayın.

Son olarak, kullandığınız bir Al aracı halüsinasyon görüp bazı gerçekleri uydurur veya zararlı bir yere yönelse bile, döngüde bazı şeylerin başında daima düzeltilebilecek bir insan vardır.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu