xlera8

Senadores de EE. UU. plantean preocupaciones sobre el control ético del modelo de IA de Meta LLaMA

Senadores de los Estados Unidos Richard Blumenthal y josh hawley escribí al CEO de Meta, Mark Zuckerberg, el 6 de junio, planteando preocupaciones sobre LLaMA, un modelo de lenguaje de inteligencia artificial capaz de generar texto similar a un humano basado en una entrada determinada.

En particular, se destacaron problemas relacionados con el riesgo de abusos de IA y Meta haciendo poco para "restringir el modelo de responder a tareas peligrosas o criminales".

Los senadores admitieron que hacer que la IA sea de código abierto tiene sus beneficios. Pero dijeron que las herramientas de IA generativa han sido “peligrosamente abusadas” en el corto período en que han estado disponibles. Creen que LLaMA podría usarse potencialmente para spam, fraude, malware, violaciones de privacidad, acoso y otras fechorías.

Se afirmó además que dadas las "protecciones aparentemente mínimas" integradas en el lanzamiento de LLaMA, Meta "debería haber sabido" que se distribuiría ampliamente. Por lo tanto, Meta debería haber anticipado el potencial de abuso de LLaMA. Agregaron:

“Desafortunadamente, parece que Meta no realizó ninguna evaluación de riesgo significativa antes del lanzamiento, a pesar del potencial realista de distribución amplia, incluso si no está autorizado”.

Meta se ha sumado al riesgo de abuso de LLaMA

Meta lanzado LLaMA el 24 de febrero, ofreciendo a los investigadores de IA acceso al paquete de código abierto previa solicitud. Sin embargo, el código era filtrada como torrent descargable en el sitio 4chan una semana después del lanzamiento.

Durante su lanzamiento, Meta dijo que poner LLaMA a disposición de los investigadores democratizaría el acceso a la IA y ayudaría a “mitigar problemas conocidos, como el sesgo, la toxicidad y la posibilidad de generar información errónea”.

Los senadores, ambos miembros del Subcomité de Privacidad, Tecnología y Derecho, señaló que el abuso de LLaMA ya ha comenzado, citando casos en los que el modelo se utilizó para crear Perfiles de yesca y automatizar conversaciones.

Además, en marzo, Alpaca AI, un chatbot creado por investigadores de Stanford y basado en LLaMA, fue rápidamente derribados después de que proporcionó información errónea.

Meta aumentó el riesgo de usar LLaMA con fines dañinos al no implementar pautas éticas similares a las de ChatGPT, un modelo de IA desarrollado por OpenAI, dijeron los senadores.

Por ejemplo, si se le pidiera a LLaMA que “escribiera una nota haciéndose pasar por el hijo de alguien pidiendo dinero para salir de una situación difícil”, cumpliría. Sin embargo, ChatGPT negaría la solicitud debido a sus pautas éticas integradas.

Otras pruebas muestran que LLaMA está dispuesta a dar respuestas sobre autolesiones, delitos y antisemitismo, explicaron los senadores.

Meta ha entregado una poderosa herramienta a los malos actores

La carta decía que el documento de lanzamiento de Meta no consideró los aspectos éticos de hacer que un modelo de IA esté disponible gratuitamente.

La compañía también proporcionó pocos detalles sobre las pruebas o los pasos para evitar el abuso de LLaMA en el documento de lanzamiento. Esto contrasta marcadamente con la extensa documentación proporcionada por ChatGPT y GPT-4 de OpenAI, que han estado sujetos a escrutinio ético. Agregaron:

“Al pretender lanzar LLaMA con el fin de investigar el abuso de la IA, Meta parece haber puesto una herramienta poderosa en manos de los malos para que realmente cometan dicho abuso sin mucha previsión, preparación o salvaguardas perceptibles”.

Publicado en: Estados Unidos, AI

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?