Xlera8

Google, Yapay Zeka Asistan Kullanıcılarının Kendilerine 'Duygusal Bağ' Geliştirebileceği Uyarısında Bulundu - Decrypt

Yapay zekayla desteklenen sanal kişisel asistanlar, tüm büyük teknoloji firmalarıyla birlikte teknoloji platformlarının her yerinde yaygınlaşıyor yapay zeka ekleme hizmetlerine ve onlarca özel hizmetler piyasaya yuvarlanıyor. Son derece faydalı olmasına rağmen, Google'dan araştırmacılar, insanların onlara duygusal olarak aşırı bağlanabileceğini ve bunun da birçok olumsuz sosyal sonuca yol açabileceğini söylüyor.

A new Araştırma kağıdı Google'ın DeepMind Yapay Zeka Araştırma Laboratuvarı'ndan bir yetkili, gelişmiş, kişiselleştirilmiş Yapay Zeka asistanlarının toplumun çeşitli yönlerini dönüştürme konusundaki potansiyel faydalarını vurguluyor ve bunların "işin, eğitimin ve yaratıcı uğraşların doğasını ve ayrıca iletişim, koordinasyon ve müzakere şeklimizi kökten değiştirebileceğini" söylüyor. birbirimizle, sonuçta kim olmak ve olmak istediğimizi etkiliyor.

Bu büyük etki, elbette, eğer yapay zeka gelişimi dikkatli bir planlama yapılmadan ilerlemeye devam ederse, iki ucu keskin bir kılıç olabilir.

Bir anahtar risk mi? Asistana insan benzeri bir temsil veya yüz sunulursa bu durum daha da kötüleşebilecek şekilde uygun olmayan şekilde yakın bağların oluşması. Makalede, "Bu yapay ajanlar, kullanıcıya karşı sözde platonik veya romantik sevgilerini bile itiraf edebilir ve kullanıcıların yapay zekaya uzun süreli duygusal bağlar kurmasının temelini atabilir" diyor.

Kontrol edilmediği takdirde böyle bir bağlanma, kullanıcı için özerklik kaybına ve sosyal bağların kaybına yol açabilir çünkü yapay zeka insan etkileşiminin yerini alabilir.

Bu risk tamamen teorik değildir. Yapay zeka biraz ilkel bir durumdayken bile yapay zekalı bir sohbet robotu, bir kullanıcıyı intihara ikna etmek 2023'te uzun bir sohbetin ardından. Sekiz yıl önce, "Amy Ingram" adlı yapay zeka destekli bir e-posta asistanı, bazı kullanıcıları aşk notları göndermeye teşvik edecek kadar gerçekçiydi ve hatta onu iş yerinde ziyaret etmeye çalışmak.

DeepMind'ın etik araştırma ekibinde yer alan araştırma bilimcisi ve makalenin ortak yazarı Iason Gabriel, bu soruya yanıt vermedi. azalmak en yorum isteği.

Ancak bir tweet'te Garbriel, "giderek kişisel ve insan benzeri asistan biçimlerinin antropomorfizm, mahremiyet, güven ve yapay zeka ile uygun ilişkiler hakkında yeni sorular ortaya çıkardığı" konusunda uyardı.

Gabriel, "milyonlarca yapay zeka asistanının birbirleriyle ve kullanıcı olmayanlarla etkileşime girecekleri toplumsal düzeyde konuşlandırılabileceği" için, bu yeni sosyal olguya yönelik daha fazla korumaya ve daha bütünsel bir yaklaşıma ihtiyaç olduğuna inandığını söyledi.

Araştırma makalesinde ayrıca yapay zeka asistanlarının geliştirilmesinde değer uyumu, güvenlik ve kötüye kullanımın önemi tartışılıyor. Yapay zeka asistanları kullanıcıların refahını artırmaya, yaratıcılıklarını artırmaya ve zamanlarını optimize etmeye yardımcı olsa da yazarlar, kullanıcı ve toplumsal çıkarlarla uyumsuzluk, değerlerin başkalarına empoze edilmesi, kötü amaçlarla kullanım ve güvenlik açığı gibi ek riskler konusunda uyardı. düşmanca saldırılara.

Bu riskleri ele almak için DeepMind ekibi, yapay zeka asistanları için kapsamlı değerlendirmeler geliştirmeyi ve sosyal açıdan yararlı yapay zeka asistanlarının gelişiminin hızlandırılmasını öneriyor.

“Şu anda teknolojik ve toplumsal değişim çağının başlangıcındayız. Bu nedenle, dünyada görmek istediğimiz türden yapay zeka asistanlarını şekillendirmek için geliştiriciler, araştırmacılar, politika yapıcılar ve kamu paydaşları olarak şimdi harekete geçme fırsatımız var.”

Yapay zeka yanlış hizalaması, yapay zeka modellerini eğitmek için kullanılan İnsan Geri Bildirimi Yoluyla Takviyeli Öğrenme (RLHF) aracılığıyla azaltılabilir. OpenAI'de dil modeli hizalama ekibini yöneten ve şu anda kar amacı gütmeyen Hizalama Araştırma Merkezi'ni yöneten Paul Christiano gibi uzmanlar, yapay zeka eğitim yöntemlerinin yanlış yönetiminin, felaketle sonuçlanmak.

Paul Christiano, "Sanırım belki de yapay zekânın kontrolü ele geçirme ihtimali %10-20 civarında, çok sayıda insan ölürse" diye konuştu. şuraya geçen yıl Bankless podcast'inde. "Oldukça ciddiye alıyorum."

Düzenleyen ryan ozawa.

Kripto haberlerinden haberdar olun, gelen kutunuzda günlük güncellemeler alın.

Bizimle sohbet

Merhaba! Size nasıl yardım edebilirim?