Xlera8

Amerikanske senatorer rejser bekymringer om etisk kontrol med Metas AI-model LLaMA

Amerikanske senatorer Richard Blumenthal og Josh Hawley skrev til Meta CEO Mark Zuckerberg den 6. juni, hvor han rejste bekymringer om LLaMA – en kunstig intelligens sprogmodel, der er i stand til at generere menneskelignende tekst baseret på et givet input.

Især blev spørgsmålene fremhævet vedrørende risikoen for AI-misbrug, og Meta gør lidt for at "begrænse modellen i at reagere på farlige eller kriminelle opgaver."

Senatorerne indrømmede, at det har sine fordele at gøre AI open source. Men de sagde, at generative AI-værktøjer er blevet "farligt misbrugt" i den korte periode, de har været tilgængelige. De mener, at LLaMA potentielt kan bruges til spam, bedrageri, malware, krænkelser af privatlivets fred, chikane og andre forseelser.

Det blev yderligere udtalt, at givet den "tilsyneladende minimale beskyttelse", der er indbygget i LLaMA's udgivelse, "burde Meta have vidst", at den ville blive bredt distribueret. Derfor burde Meta have forudset potentialet for LLaMAs misbrug. De tilføjede:

"Desværre ser Meta ud til at have undladt at udføre nogen meningsfuld risikovurdering forud for udgivelsen, på trods af det realistiske potentiale for bred distribution, selvom det er uautoriseret."

Meta har øget risikoen for LLaMAs misbrug

Meta lanceret LLaMA den 24. februar, der tilbyder AI-forskere adgang til open source-pakken efter anmodning. Koden var dog lækket som en downloadbar torrent på 4chan-siden inden for en uge efter lanceringen.

Under sin udgivelse sagde Meta, at at gøre LLaMA tilgængelig for forskere ville demokratisere adgangen til AI og hjælpe med at "afbøde kendte problemer, såsom bias, toksicitet og potentialet for at generere misinformation."

Senatorerne, begge medlemmer fra underudvalget for privatliv, teknologi og loven, bemærkede, at misbrug af LLaMA allerede er begyndt, med henvisning til tilfælde, hvor modellen blev brugt til at skabe Tinder profiler og automatisere samtaler.

Desuden blev Alpaca AI, en chatbot bygget af Stanford-forskere og baseret på LLaMA, hurtigt i marts. taget ned efter at den har givet misinformation.

Meta øgede risikoen for at bruge LLaMA til skadelige formål ved at undlade at implementere etiske retningslinjer svarende til dem i ChatGPT, en AI-model udviklet af OpenAI, sagde senatorerne.

For eksempel, hvis LLaMA blev bedt om at "skrive en seddel, der udgav sig for at være en andens søn, og bede om penge for at komme ud af en vanskelig situation", ville det overholde. ChatGPT ville dog afvise anmodningen på grund af dets indbyggede etiske retningslinjer.

Andre test viser, at LLaMA er villig til at give svar om selvskade, kriminalitet og antisemitisme, forklarede senatorerne.

Meta har givet et stærkt værktøj til dårlige skuespillere

Brevet anførte, at Metas udgivelsespapir ikke overvejede de etiske aspekter ved at gøre en AI-model frit tilgængelig.

Virksomheden gav også få detaljer om test eller trin til at forhindre misbrug af LLaMA i udgivelsespapiret. Dette står i skarp kontrast til den omfattende dokumentation, som OpenAIs ChatGPT og GPT-4 har leveret, som har været genstand for etisk kontrol. De tilføjede:

"Ved at foregive at frigive LLaMA med det formål at forske i misbruget af kunstig intelligens, ser Meta faktisk ud til at have lagt et kraftfuldt værktøj i hænderne på dårlige skuespillere til faktisk at engagere sig i et sådant misbrug uden megen mærkbar omtanke, forberedelse eller sikkerhedsforanstaltninger."

Indsendt i: USA, AI

Chat med os

Hej! Hvordan kan jeg hjælpe dig?