xlera8

AI necesita un ecosistema regulatorio como su automóvil, no un zar

El mundo necesitará un ecosistema de reguladores de IA entrelazados, argumentaron los expertos en la conferencia ATxSG en Singapur hoy.

A lo largo de varias sesiones, el advenimiento de la IA generativa fue aclamado por muchos en la conferencia como un momento decisivo en la historia humana, a la par del uso generalizado con los combustibles fósiles o la revolución industrial.

La tecnología emergente naturalmente tuvo su propio segmento en la cumbre, con mucha discusión sobre regulación. Como el gobierno y la industria se comprometieron en un robusto de ida y vuelta, surgieron dos temas: comparaciones de la regulación generativa de IA con las leyes aplicadas a las leyes de automóviles, y los abogados no deberían usar ChatGPT para escribir informes de casos.

La semana pasada, un abogado hizo Exactamente eso, completo con citas de seis decisiones judiciales anteriores, en casos que no existían.

Según Kat Frith Butterfield, directora ejecutiva del Centro de Tecnología Confiable asociado al Foro Económico Mundial, ese abogado incluso le pidió a ChatGPT que verificara que los casos citados eran reales.

Casi todos los paneles El reg asistieron expertos involucrados riéndose de la locura del abogado.

Pero también dejó a mucha gente pensando: ¿es el usuario final el culpable de las alucinaciones de la IA generativa, el término cortés que se usa para describir los errores cometidos por las cajas cerebrales digitales?

El líder global de ética y regulación de IA en EY, el Dr. Ansgar Koene, expresó su disgusto por el término porque antropomorfiza los errores hechos por máquinas. Aplicar un término para el comportamiento humano a la salida de una computadora puede llevar a las personas a malinterpretar qué está sucediendo exactamente, argumentó Koene.

“La IA generativa no está operando en un estado alterado, sino como se supone que debe hacerlo”, dijo Koene. Luego planteó la pregunta: "¿Cómo damos forma al gobierno en torno a la IA generativa si no sabemos cómo se usa?"

Y eso a su vez genera otra pregunta: ¿Quién tiene la culpa en este escenario?

“Los médicos y los abogados están utilizando estas herramientas”, sugirió Butterfield. “Es incluso más importante cuando personas no expertas utilizan estas herramientas que existe responsabilidad, no responsabilidad. Si no eres un experto, ¿dónde vas a comprobar la herramienta? La responsabilidad debería recaer en quienes lo crean”.

Y con ese proceso de pensamiento, casi todos los paneles El reg asistió terminó apoyándose en la metáfora del automóvil, y no solo porque los automóviles y la IA son divertidos de manejar, costosos de manejar y peligrosos después de diez cervezas. Más bien, es probable que la IA deba regularse de la misma manera que la sociedad ha regulado la industria del automóvil.

“Cada vez que produce un automóvil nuevo, primero quiere asegurarse de que sea seguro conducirlo antes de permitir que esté en las calles”. dijo Ministra de Digitalización de los Países Bajos, Alexandra van Huffelen.

Pero no solo los fabricantes deben realizar pruebas rigurosas y seguir los estándares. Los conductores necesitan licencias y deben registrar su vehículo, que debe someterse a pruebas de emisiones. Las carreteras se construyen según ciertos estándares y los flujos de tráfico se regulan con semáforos, señales y límites de velocidad. El estacionamiento solo está permitido en ciertos lugares.

Butterfield incluso reflexionó en voz alta el martes si el seguro para mitigar los riesgos de la IA generativa se convertiría en la norma.

“No se trata solo de los automóviles y las carreteras, sino también de la ciudad y la forma en que construimos la ciudad”, resumió Koene.

Los marcos de IA generativa también deben considerar cómo se anuncian, cómo se gestionan los datos con consentimiento y seguridad, y cómo se ven afectados por la ley de derechos de autor; la lista continúa.

La conclusión inevitable es que cualquier marco regulatorio resultante será un ecosistema, no un esfuerzo de arriba hacia abajo dirigido por un policía de IA. Y para una tecnología que tiene menos de un año, la regulación está llegando rápidamente.

“Creo que el nivel de cooperación internacional entre EE. UU. y sus aliados en Europa y en otros lugares es realmente fenomenal en el área de la política de IA, y se están realizando muchos esfuerzos de armonización”, dijo el vicepresidente de Nvidia, Keith Strier, un hombre cuyo empleador, un fabricante de hardware de IA, tiene muchas razones para rechazar la regulación de la IA.

Pero incluso cuando rechazó al gobierno, sugirió que la tecnología podría estar regulada por estándares profesionales, normas sociales que definen los límites y la educación, que recuerda a un enfoque de "Gran Sociedad".

“Esta tecnología ha estado en el mercado durante seis meses, nunca había visto tanta actividad”, dijo Strier, minimizando la necesidad de una acción urgente.

Pero al menos esta semana en Singapur, esa opinión, que la IA generativa puede estar recibiendo más atención de la que necesita, parecía ser minoritaria. ®

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?