La Unión Europea y Estados Unidos han comenzado a trabajar en el primer código de conducta voluntario sobre inteligencia artificial para abordar las preocupaciones que comparten la industria, las ONG y los expertos sobre la irrupción de esta tecnología revolucionaria.
Este ha sido uno de los principales resultados de la reunión ministerial que representantes de ambos socios internacionales han mantenido en la ciudad sueca de Lulea, y en la que han participado el vicepresidente económico y comisario europeo de comercio, Valdis Dombrovskis; la comisaria de Competencia, Margrethe Vestager; el secretario de Estado de Estados Unidos, Antony Blinken; la secretaria de Comercio de Estados Unidos Gina Raimondo, y la representante comercial de Estados Unidos, Katherine Tai.
La comisaria Vestager ha reconocido en declaraciones a los medios que «esto es más grande que Europa y Estados Unidos», por lo que ha animado a ambos actores a «tomar la iniciativa» para impulsar una normativa que ayude a todos a sentirse «más cómodos con el hecho de que la inteligencia artificial ya esté en el mundo y se desarrolle a una velocidad asombrosa».
La UE quiere ser pionera en la regulación de la Inteligencia artificial, para lo cual ha realizado una propuesta legislativa, la AI Act. El texto debería ser aprobado en el próximo pleno del Parlamento Europeo, a mediados de junio, tras lo cual comenzará la etapa de negociación con el Consejo de la UE y la Comisión para llegar a un acuerdo sobre un texto final que, tras su nueva ratificación por los Veintisiete y la Eurocámara, entrará en vigor en toda la UE.
Este movimiento se produce justo un día después de que un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología firmaran una carta abierta de tan solo 22 palabras sobre el riesgo de esta tecnología. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Entre quienes creen que los temores de que la IA acabe con la humanidad son poco realistas, y una distracción de cuestiones que ya son un problema como el sesgo en los sistemas, se encuentra Arvind Narayanan, informático de la Universidad de Princeton.
«La IA actual no es lo suficientemente capaz como para que estos riesgos se materialicen», aseguró Narayanan en declaraciones a la prensa en marzo pasado.
Narayanan agregó que los escenarios catastróficos propios de la ciencia ficción no son realistas y que el problema es que «se ha desviado la atención de los daños a corto plazo de la IA».