xlera8

Los usuarios del asistente de IA podrían desarrollar un "apego emocional" hacia ellos, advierte Google – Decrypt

Los asistentes personales virtuales impulsados ​​por inteligencia artificial se están volviendo omnipresentes en todas las plataformas tecnológicas, y todas las grandes empresas tecnológicas agregando IA a sus servicios y decenas de servicios especializados cayendo en el mercado. Si bien son inmensamente útiles, los investigadores de Google dicen que los humanos podrían apegarse demasiado emocionalmente a ellos, lo que llevaría a una serie de consecuencias sociales negativas.

Una nueva encuesta trabajo de investigación del laboratorio de investigación de IA DeepMind de Google destaca los beneficios potenciales de los asistentes de IA avanzados y personalizados para transformar diversos aspectos de la sociedad, diciendo que "podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos". unos con otros, influyendo en última instancia en quiénes queremos ser y llegar a ser”.

Este enorme impacto, por supuesto, podría ser un arma de doble filo si el desarrollo de la IA continúa avanzando sin una planificación cuidadosa.

¿Un riesgo clave? La formación de vínculos inapropiadamente estrechos, que podrían exacerbarse si al asistente se le presenta una representación o un rostro de apariencia humana. "Estos agentes artificiales pueden incluso profesar su supuesto afecto platónico o romántico por el usuario, sentando las bases para que los usuarios formen vínculos emocionales duraderos con la IA", dice el documento.

Si no se controla, este vínculo podría conducir a una pérdida de autonomía para el usuario y a la pérdida de vínculos sociales porque la IA podría reemplazar la interacción humana.

Este riesgo no es puramente teórico. Incluso cuando la IA estaba en un estado algo primitivo, un chatbot de IA era lo suficientemente influyente como para convencer a un usuario para que se suicide después de una larga charla en 2023. Hace ocho años, una asistente de correo electrónico con tecnología de inteligencia artificial llamada “Amy Ingram” fue lo suficientemente realista como para incitar a algunos usuarios a enviar notas de amor e incluso intentar visitarla en el trabajo.

Iason Gabriel, científico investigador del equipo de investigación de ética de DeepMind y coautor del artículo, no respondió a Descifrar de petición de comentario.

Sin embargo, en un tweet, Garbriel advirtió que “las formas de asistente cada vez más personales y humanas introducen nuevas preguntas sobre el antropomorfismo, la privacidad, la confianza y las relaciones apropiadas con la IA”.

Debido a que “millones de asistentes de IA podrían desplegarse a nivel social donde interactuarán entre sí y con los no usuarios”, Gabriel dijo que cree en la necesidad de más salvaguardias y un enfoque más holístico para este nuevo fenómeno social.

El artículo de investigación también analiza la importancia de la alineación de valores, la seguridad y el mal uso en el desarrollo de asistentes de IA. Aunque los asistentes de IA podrían ayudar a los usuarios a mejorar su bienestar, mejorar su creatividad y optimizar su tiempo, los autores advirtieron sobre riesgos adicionales como una desalineación con los intereses del usuario y de la sociedad, la imposición de valores a otros, el uso con fines maliciosos y la vulnerabilidad. a ataques adversarios.

Para abordar estos riesgos, el equipo de DeepMind recomienda desarrollar evaluaciones integrales para los asistentes de IA y acelerar el desarrollo de asistentes de IA socialmente beneficiosos.

“Actualmente nos encontramos al comienzo de esta era de cambio tecnológico y social. Por lo tanto, tenemos una ventana de oportunidad para actuar ahora (como desarrolladores, investigadores, formuladores de políticas y partes interesadas públicas) para dar forma al tipo de asistentes de IA que queremos ver en el mundo”.

La desalineación de la IA se puede mitigar mediante el aprendizaje por refuerzo mediante retroalimentación humana (RLHF), que se utiliza para entrenar modelos de IA. Expertos como Paul Christiano, que dirigió el equipo de alineación de modelos lingüísticos en OpenAI y ahora dirige el Centro de Investigación de Alineación, una organización sin fines de lucro, advierten que una gestión inadecuada de los métodos de entrenamiento de IA podría terminar en catástrofe.

"Creo que tal vez haya entre un 10% y un 20% de posibilidades de que la IA tome el control, [con] muchos [o] la mayoría de los humanos muertos", Paul Christiano dijo en el podcast Bankless el año pasado. "Me lo tomo muy en serio".

Editado por ryan ozawa.

Manténgase al tanto de las noticias criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?