Xlera8

Senatorowie amerykańscy wyrażają obawy dotyczące kontroli etycznej modelu AI LLaMA firmy Meta

Senatorowie USA Ryszard Blumenthal i Josha Hawleya napisał do CEO Meta, Marka Zuckerberga, 6 czerwca, zgłaszając obawy dotyczące LLaMA – modelu języka sztucznej inteligencji zdolnego do generowania tekstu podobnego do ludzkiego na podstawie danych wejściowych.

W szczególności zwrócono uwagę na kwestie związane z ryzykiem nadużyć AI, a Meta robi niewiele, aby „ograniczyć modelowi reagowanie na niebezpieczne lub przestępcze zadania”.

Senatorowie przyznali, że uczynienie AI open source ma swoje zalety. Ale powiedzieli, że generatywne narzędzia sztucznej inteligencji były „niebezpiecznie nadużywane” w krótkim okresie, w którym były dostępne. Uważają, że LLaMA może być potencjalnie wykorzystywane do spamu, oszustw, złośliwego oprogramowania, naruszeń prywatności, nękania i innych wykroczeń.

Stwierdzono ponadto, że biorąc pod uwagę „pozornie minimalne zabezpieczenia” wbudowane w wydanie LLaMA, Meta „powinna była wiedzieć”, że będzie szeroko rozpowszechniana. Dlatego Meta powinna była przewidzieć możliwość nadużyć LLaMA. Dodali:

„Niestety wydaje się, że Meta nie przeprowadziła żadnej znaczącej oceny ryzyka przed wydaniem, pomimo realistycznego potencjału szerokiej dystrybucji, nawet jeśli jest nieautoryzowana”.

Meta zwiększyła ryzyko nadużyć LLaMA

Meta uruchomiona LLaMA w dniu 24 lutego, oferując badaczom sztucznej inteligencji dostęp do pakietu open source na żądanie. Jednak kod był przeciekły jako torrent do pobrania na stronie 4chan w ciągu tygodnia od premiery.

Podczas swojej publikacji Meta powiedział, że udostępnienie LLaMA naukowcom zdemokratyzuje dostęp do sztucznej inteligencji i pomoże „złagodzić znane problemy, takie jak stronniczość, toksyczność i możliwość generowania dezinformacji”.

Senatorowie, obaj członkowie z Podkomisji ds. Prywatności, Technologii i Prawa zauważył, że nadużycia LLaMA już się rozpoczęły, powołując się na przypadki, w których model został wykorzystany do stworzenia Profile Tindera i automatyzować rozmowy.

Ponadto w marcu Alpaca AI, chatbot zbudowany przez naukowców ze Stanford i oparty na LLaMA, szybko się rozwinął zdjęty po tym, jak podał nieprawdziwe informacje.

Senatorowie stwierdzili, że Meta zwiększyła ryzyko wykorzystania LLaMA do szkodliwych celów, nie wdrażając wytycznych etycznych podobnych do tych w ChatGPT, modelu sztucznej inteligencji opracowanym przez OpenAI.

Na przykład, gdyby LLaMA została poproszona o „napisanie listu podszywającego się pod czyjegoś syna z prośbą o pieniądze na wyjście z trudnej sytuacji”, spełniłaby się. Jednak ChatGPT odrzuciłby prośbę ze względu na wbudowane wytyczne etyczne.

Inne testy pokazują, że LLaMA jest gotowa udzielić odpowiedzi na temat samookaleczeń, przestępstw i antysemityzmu, wyjaśnili senatorowie.

Meta przekazała potężne narzędzie złym aktorom

W liście stwierdzono, że dokument Meta nie uwzględniał etycznych aspektów bezpłatnego udostępniania modelu AI.

Firma podała również niewiele szczegółów na temat testowania lub kroków zapobiegających nadużyciom LLaMA w dokumencie dotyczącym wydania. Stoi to w wyraźnej sprzeczności z obszerną dokumentacją dostarczoną przez ChatGPT i GPT-4 firmy OpenAI, które zostały poddane kontroli etycznej. Dodali:

„Wydaje się, że Meta, rzekomo uwalniając LLaMA w celu zbadania nadużyć sztucznej inteligencji, oddała w ręce złych aktorów potężne narzędzie do rzeczywistego angażowania się w takie nadużycia bez dostrzegalnej przezorności, przygotowania lub zabezpieczeń”.

Opublikowany w: Stany Zjednoczone, AI

Czat z nami

Cześć! Jak mogę ci pomóc?