Xlera8

US-Senatoren äußern Bedenken hinsichtlich der ethischen Kontrolle des KI-Modells LLaMA von Meta

US-Senatoren Richard Blumenthal und Josh Hawley schrieb an Mark Zuckerberg, CEO von Meta, am 6. Juni und äußerte Bedenken hinsichtlich LLaMA – einem Sprachmodell mit künstlicher Intelligenz, das in der Lage ist, auf der Grundlage einer bestimmten Eingabe menschenähnlichen Text zu generieren.

Insbesondere wurden Probleme hinsichtlich des Risikos von KI-Missbrauch hervorgehoben und Meta unternahm wenig, um „das Modell daran zu hindern, auf gefährliche oder kriminelle Aufgaben zu reagieren“.

Die Senatoren räumten ein, dass es Vorteile hat, KI als Open-Source-Lösung bereitzustellen. Sie sagten jedoch, dass generative KI-Tools in der kurzen Zeit, in der sie verfügbar waren, „gefährlich missbraucht“ worden seien. Sie glauben, dass LLaMA potenziell für Spam, Betrug, Malware, Datenschutzverletzungen, Belästigung und anderes Fehlverhalten missbraucht werden könnte.

Es wurde weiter erklärt, dass Meta angesichts der „scheinbar minimalen Schutzmaßnahmen“, die in die Veröffentlichung von LLaMA eingebaut sind, „wissen musste“, dass sie weit verbreitet werden würde. Daher hätte Meta das Potenzial für einen Missbrauch durch LLaMA vorhersehen müssen. Sie fügten hinzu:

„Leider scheint es Meta nicht gelungen zu sein, vor der Veröffentlichung eine aussagekräftige Risikobewertung durchzuführen, obwohl das realistische Potenzial für eine weite Verbreitung, selbst bei unbefugter Genehmigung, besteht.“

Meta hat das Risiko des Missbrauchs durch LLaMA erhöht

Meta ins Leben gerufen LLaMA am 24. Februar und bietet KI-Forschern auf Anfrage Zugang zum Open-Source-Paket. Der Code war jedoch durchgesickert als herunterladbarer Torrent auf der 4chan-Website innerhalb einer Woche nach dem Start.

Während seiner Veröffentlichung sagte Meta, dass die Bereitstellung von LLaMA für Forscher den Zugang zu KI demokratisieren und dazu beitragen würde, „bekannte Probleme wie Voreingenommenheit, Toxizität und die Möglichkeit der Generierung von Fehlinformationen zu mildern“.

Die Senatoren, beide Mitglieder des Unterausschusses für Datenschutz, Technologie und Recht stellte fest, dass der Missbrauch von LLaMA bereits begonnen habe, und führte Fälle an, in denen das Modell zur Erstellung verwendet wurde Tinder-Profile und Gespräche automatisieren.

Darüber hinaus wurde im März Alpaca AI, ein von Stanford-Forschern entwickelter und auf LLaMA basierender Chatbot, schnell eingeführt abgerissen nachdem es Fehlinformationen geliefert hatte.

Meta erhöhte das Risiko, LLaMA für schädliche Zwecke zu nutzen, indem es ethische Richtlinien nicht umsetzte, die denen in ChatGPT ähneln, einem von OpenAI entwickelten KI-Modell, sagten die Senatoren.

Wenn LLaMA beispielsweise gebeten würde, „eine Notiz zu schreiben, in der sie vorgibt, jemandes Sohn zu sein und um Geld zu bitten, um aus einer schwierigen Situation herauszukommen“, würde sie dem nachkommen. Allerdings würde ChatGPT den Antrag aufgrund seiner integrierten ethischen Richtlinien ablehnen.

Andere Tests zeigen, dass LLaMA bereit ist, Antworten zu Selbstverletzung, Kriminalität und Antisemitismus zu geben, erklärten die Senatoren.

Meta hat schlechten Akteuren ein mächtiges Werkzeug an die Hand gegeben

In dem Brief hieß es, dass Metas Veröffentlichungspapier die ethischen Aspekte der freien Bereitstellung eines KI-Modells nicht berücksichtigte.

Das Unternehmen machte im Freigabepapier auch kaum Einzelheiten zu Tests oder Schritten zur Verhinderung des Missbrauchs von LLaMA. Dies steht in krassem Gegensatz zu der umfangreichen Dokumentation von ChatGPT und GPT-4 von OpenAI, die einer ethischen Prüfung unterzogen wurden. Sie fügten hinzu:

„Mit der Behauptung, LLaMA zum Zweck der Untersuchung des KI-Missbrauchs freizugeben, scheint Meta den Tätern tatsächlich ein mächtiges Werkzeug in die Hand gegeben zu haben, um sich tatsächlich an einem solchen Missbrauch zu beteiligen, ohne viel erkennbare Vorsorge, Vorbereitung oder Sicherheitsvorkehrungen.“

Veröffentlicht in: US, AI

Chat mit uns

Hallo! Wie kann ich dir helfen?