Pedidos para regular la IA son cada vez más fuertes. Pero, ¿Cómo se regula exactamente una tecnología como esta?

Milthon Lujan Monja

Inteligencia Artificial para las empresas. Imagen de sujin soman en Pixabay
Inteligencia Artificial para las empresas. Imagen de sujin soman en Pixabay

Por: Stan Karanasios
Associate professor, The University of Queensland

Olga Kokshagina
Associate Professor – Innovation & Entrepreneurship, EDHEC Business School

Pauline C. Reinecke
Assistant researcher, University of Hamburg

La semana pasada, los pioneros y expertos en inteligencia artificial instaron a los principales laboratorios de Inteligencia Artificial (IA) a pausar de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4 durante al menos seis meses.

En una carta abierta del Future of Life Institute advierte que los sistemas de inteligencia artificial con “inteligencia competitiva humana” podrían convertirse en una gran amenaza para la humanidad. Entre los riesgos, la posibilidad de que la IA supere a los humanos, nos vuelva obsoletos y tome el control de la civilización.

La carta enfatiza la necesidad de desarrollar un conjunto integral de protocolos para regir el desarrollo y la implementación de la IA. El documento afirma:

“Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”.

Por lo general, la batalla por la regulación ha enfrentado a gobiernos y grandes empresas de tecnología entre sí. Pero la carta abierta reciente, firmada hasta ahora por más de 5,000 signatarios, incluidos el CEO de Twitter y Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y el científico de OpenAI, Yonas Kassa, parece sugerir que más partes finalmente están convergiendo
en un lado.

¿Podríamos realmente implementar un marco global simplificado para la regulación de la IA? Y si es así, ¿Cómo sería esto?

¿Qué regulación ya existe?

En Australia, el gobierno ha establecido el National AI Centre para ayudar a desarrollar la IA y el ecosistema digital de la nación. Bajo este paraguas se encuentra la Responsible AI Network, que tiene como objetivo impulsar la práctica responsable y proporcionar liderazgo en leyes y estándares.

READ  13 riesgos que debes evaluar al invertir en criptomonedas

Sin embargo, actualmente no existe una regulación específica sobre la IA y toma de decisiones algorítmica. El gobierno ha adoptado un enfoque ligero que adopta ampliamente el concepto de IA responsable, pero no llega a establecer parámetros que aseguren que se logre.

De manera similar, Estados Unidos ha adoptado una estrategia de no intervención. Los legisladores no han mostrado ninguna urgencia en los intentos de regular la IA y se han basado en las leyes existentes para regular su uso. La US Chamber of Commerce solicitó recientemente la regulación de la IA para garantizar que no perjudique el crecimiento ni se convierta en un riesgo para la seguridad nacional, pero aún no se ha tomado ninguna medida.

Liderando el camino en la regulación de la IA está la Unión Europea, que está compitiendo para crear una Artificial Intelligence Act. Esta propuesta de ley asignará tres categorías de riesgo relacionadas con la IA:

  • Se prohibirán las aplicaciones y los sistemas que creen un “riesgo inaceptable”, como la calificación social administrada por el gobierno que se usa en China;
  • Aplicaciones consideradas de “alto riesgo”; como las herramientas de escaneo de los currículum vitae que clasificación a los solicitantes de empleo, estarán sometidos a requerimientos legales específicos; y
  • Todas las otras aplicaciones no estarán reguladas en gran medida.

Aunque algunos grupos argumentan que el enfoque de la UE sofocará la innovación, es algo que Australia debería monitorear de cerca, porque equilibra ofrecer previsibilidad con el ritmo de desarrollo de la IA.

El enfoque de China hacia la IA se ha centrado en apuntar a aplicaciones de algoritmos específicos y redactar regulaciones que aborden su implementación en ciertos contextos, como algoritmos que generan información dañina, por ejemplo. Si bien este enfoque ofrece especificidad, corre el riesgo de tener reglas que rápidamente se quedarán atrás de las tecnología en rápida evolución.

READ  ¿Puede la IA escribir los documentos del alta médica?

Los pros y los contras

Hay varios argumentos tanto a favor como en contra de permitir que la precaución impulse el control de la IA.

Por un lado, la IA es celebrada por ser capaz de generar todo tipo de contenido, manejar tareas mundanas y detectar cánceres, entre otras cosas. Por otro lado, puede engañar, perpetuar prejuicios, plagiar y, por supuesto, tiene a algunos expertos preocupados por el futuro colectivo de la humanidad. Incluso el CTO de OpenAI, Mira Murati, ha sugerido que debería haber un movimiento hacia la regulación de la IA.

Algunos académicos han argumentado que la regulación excesiva puede obstaculizar todo el potencial de la IA e interferir con la “destrucción creativa”, una teoría que sugiere que las normas y prácticas de larga data deben eliminarse para que la innovación prospere.

Asimismo, a lo largo de los años, los grupos empresariales han presionado por una regulación flexible y limitada a aplicaciones específicas, para que no obstaculice la competencia. Y las asociaciones de la industria han pedido una “orientación” ética en lugar de una regulación, argumentando que el desarrollo de la IA es demasiado rápido y abierto para regularlo adecuadamente.

Pero los ciudadanos parecen abogar por una mayor supervisión. Según informes de Bristows y KPMG, alrededor de dos tercios de los australianos y británicos creen que la industria de la IA debería ser regulada y responsable.

¿Qué sigue?

Una pausa de seis meses en el desarrollo de sistemas avanzados de IA podría ofrecer un bienvenido respiro de una carrera armamentista de IA que simplemente no parece amainar. Sin embargo, hasta la fecha no ha habido ningún esfuerzo global efectivo para regular de manera significativa la IA. Los esfuerzos en todo el mundo se han fracturado, retrasado y, en general, debilitado.

Una moratoria global sería difícil de hacer cumplir, pero no imposible. La carta abierta plantea preguntas sobre el papel de los gobiernos, que en gran medida se han mantenido en silencio con respecto a los daños potenciales de las herramientas de inteligencia artificial extremadamente capaces.

READ  Por qué la tecnología educativa debe priorizar la investigación y la innovación del sur global

Si algo va a cambiar, los gobiernos y los organismos reguladores nacionales y supranacionales deberán tomar la iniciativa para garantizar la responsabilidad y la seguridad. Como argumenta la carta, las decisiones relativas a la IA a nivel social no deberían estar en manos de “líderes tecnológicos no elegidos”.

Por lo tanto, los gobiernos deben comprometerse con la industria para desarrollar conjuntamente un marco global que establezca reglas integrales que rijan el desarrollo de la IA. Esta es la mejor manera de protegerse contra impactos dañinos y evitar una carrera hacia el abismo. También evita la situación indeseable en que los gobiernos y los gigantes tecnológicos luchan por dominar el futuro de la IA.

El artículo es republicado de “Calls to regulate AI are growing louder. But how exactly do you regulate a technology like this?” publicado en la web The Conversation, bajo una licencia Creative Commons.
Traducción: http://innovaromorir.com

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.