Xlera8

AI Assistant-användare kan utveckla en "emotionell anknytning" till dem, varnar Google - Dekryptera

Virtuella personliga assistenter som drivs av artificiell intelligens blir allestädes närvarande på alla tekniska plattformar, med alla större teknikföretag lägga till AI till sina tjänster och dussintals specialiserade tjänster faller ut på marknaden. Även om de är oerhört användbara, säger forskare från Google att människor kan bli för känslomässigt fästa vid dem, vilket leder till en mängd negativa sociala konsekvenser.

En ny uppsats från Googles DeepMind AI-forskningslaboratorium belyser de potentiella fördelarna med avancerade, personliga AI-assistenter för att förändra olika aspekter av samhället, och säger att de "radikalt kan förändra karaktären av arbete, utbildning och kreativa sysselsättningar samt hur vi kommunicerar, koordinerar och förhandlar med varandra och i slutändan påverka vem vi vill vara och bli.”

Denna stora inverkan kan naturligtvis bli ett tveeggat svärd om AI-utvecklingen fortsätter att gå framåt utan genomtänkt planering.

En viktig risk? Bildandet av olämpligt nära band – vilket kan förvärras om assistenten presenteras med en människoliknande representation eller ansikte. "Dessa konstgjorda agenter kan till och med bekänna sin förmodade platoniska eller romantiska tillgivenhet för användaren, vilket lägger grunden för användare att bilda långvariga känslomässiga bindningar till AI", säger tidningen.

Om den inte är markerad kan en sådan anknytning leda till förlust av autonomi för användaren och förlust av sociala band eftersom AI kan ersätta mänsklig interaktion.

Denna risk är inte rent teoretisk. Även när AI var i ett något primitivt tillstånd var en AI-chatbot tillräckligt inflytelserik för att övertyga en användare att begå självmord efter en lång chatt tillbaka 2023. För åtta år sedan var en AI-driven e-postassistent vid namn "Amy Ingram" realistisk nog att uppmana vissa användare att skicka kärleksanteckningar och till och med försök att besöka henne på jobbet.

Iason Gabriel, en forskare i DeepMinds etikforskare och medförfattare till artikeln, svarade inte på Dekryptera s begäran om kommentar.

I en tweet varnade Garbriel dock att "allt mer personliga och människoliknande former av assistenter introducerar nya frågor kring antropomorfism, integritet, förtroende och lämpliga relationer med AI."

Eftersom "miljontals AI-assistenter skulle kunna distribueras på en samhällsnivå där de kommer att interagera med varandra och med icke-användare," sa Gabriel att han tror på behovet av fler skyddsåtgärder och ett mer holistiskt förhållningssätt till detta nya sociala fenomen.

Forskningsdokumentet diskuterar också vikten av värdeanpassning, säkerhet och missbruk i utvecklingen av AI-assistenter. Även om AI-assistenter kan hjälpa användare att förbättra deras välbefinnande, förbättra deras kreativitet och optimera sin tid, varnade författarna för ytterligare risker som en felaktig anpassning till användarnas och samhälleliga intressen, påtvingande av värderingar på andra, användning i skadliga syften och sårbarhet till kontradiktoriska attacker.

För att ta itu med dessa risker rekommenderar DeepMind-teamet att utveckla omfattande bedömningar för AI-assistenter och att påskynda utvecklingen av socialt fördelaktiga AI-assistenter.

"Vi står för närvarande i början av denna era av tekniska och samhälleliga förändringar. Vi har därför en möjlighet att agera nu – som utvecklare, forskare, beslutsfattare och offentliga intressenter – för att forma den typ av AI-assistenter som vi vill se i världen.”

AI-felanpassning kan mildras genom Reinforcement Learning Through Human Feedback (RLHF), som används för att träna AI-modeller. Experter som Paul Christiano, som drev teamet för språkmodellanpassning på OpenAI och nu leder det ideella Alignment Research Center, varnar för att felaktig hantering av AI-träningsmetoder kan sluta i katastrof.

"Jag tror att det kanske finns en 10-20% chans att AI tar över, [med] många [eller] de flesta människor döda," Paul Christiano sade på Bankless-podden förra året. "Jag tar det på största allvar."

Redigerad av Ryan Ozawa.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?