La lucha por controlar la IA – POLITICO

La lucha por controlar la IA – POLITICO

Dale al play para escuchar este artículo

Expresado por inteligencia artificial.

LULEÅ, Suecia – Altos funcionarios europeos y estadounidenses se reunieron en Suecia para conversaciones sobre tecnología y comercio el miércoles y trataron de encontrar una respuesta a uno de los problemas más difíciles que enfrenta el mundo: cómo vigilar la inteligencia artificial.

Durante un almuerzo de una hora de lomo de bacalao y praliné de chocolate, los funcionarios de Washington y Bruselas elaboraron un «código de conducta» voluntario diseñado para prevenir daños, incluida la tecnología de inteligencia artificial más avanzada conocida como IA generativa, como el ChatGPT de la empresa. Bardo de Google. En pocos meses, la tecnología conquistó al público, despertando esperanzas y anhelos por el futuro de la humanidad.

Mientras que algunos están entusiasmados con el potencial de la IA para generar código informático y resolver problemas médicos, otros temen que dejará a millones de personas sin empleo e incluso podría amenazar la seguridad.

“La democracia debe demostrar que somos tan rápidos como la tecnología”, dijo Margrethe Vestager, comisaria digital de Europa, a los periodistas al entrar en la cumbre del Consejo de Comercio y Tecnología (TTC) UE-EE. UU. en la pequeña ciudad industrial de Luleå, 150 kilómetros al sur de el círculo polar ártico.

El TTC se ha convertido en una reunión bianual donde los principales líderes transatlánticos, como el Secretario de Estado de EE. UU., Antony Blinken, y el Jefe de Comercio de la UE, Valdis Dombrovskis, discuten enfoques comunes en todo, desde semiconductores hasta inversiones en tecnología verde. La cuarta edición de esta semana está dominada por cómo reaccionar contra China, donde las dos partes aún luchan por llegar a un acuerdo.

Pero cuando se trata del auge de la IA, EE. UU. y la UE están cada vez más ansiosos por avanzar juntos.

“Está llegando a un ritmo como ninguna otra tecnología”, dijo Gina Raimondo, Secretaria de Comercio de EE. UU., refiriéndose a la IA generativa. «Tomará un poco de tiempo para que el Congreso de los Estados Unidos o el parlamento (de un país) o nuestras otras agencias reguladoras se pongan al día».

Pero el plan conjunto todavía está en forma de borrador en el mejor de los casos. Vestager le dijo a POLITICO que el código de conducta voluntario era actualmente una nota informativa de dos páginas producida por la Comisión Europea que ella personalmente entregó a Raimondo el miércoles.

El objetivo, según el político danés, debe presentar estándares no vinculantes sobre transparencia, auditorías de riesgo y otros detalles técnicos para las empresas que desarrollan la tecnología. Esto se presentaría luego a los líderes del G7 como una propuesta transatlántica conjunta en otoño.

Con las reglas obligatorias de IA dentro de unos años, un código voluntario es, en el mejor de los casos, un recurso provisional hasta que se establezca una legislación vinculante.

«La democracia debe demostrar que somos tan rápidos como la tecnología», dijo la comisaria digital de Europa, Margrethe Vestager, al entrar en el Consejo de Comercio y Tecnología UE-EE.UU. | JOnas Ekstromer/TT News Agency/AFP vía Getty Images

«Acordamos que vamos a trabajar en ello, traer a colegas a bordo, para encajar en el proceso del G7», dijo Vestager a los periodistas.

Si ese esfuerzo falla, podría dejar una oportunidad para que China promueva su propia versión autoritaria de la tecnología en todo el mundo.

Donde Europa y EE.UU. divergen

Sin embargo, sigue existiendo una enorme división en forma de IA entre Washington y Bruselas sobre las reglas.

La UE, respaldada por una historia de escribir gran parte del libro de reglas digitales que ahora domina el mundo occidental, está avanzando con reglas obligatorias para la inteligencia artificial que exigirían que las empresas no usen la tecnología de formas «dañinas» predefinidas. Para fines de diciembre, los funcionarios europeos esperan finalizar la Ley de IA de la UE, luego de duras negociaciones políticas que se prolongaron durante más de dos años.

Pero los países europeos y los miembros del Parlamento Europeo, que deben acordar un texto final, están en desacuerdo sobre algunos aspectos clave del texto, en particular, sobre el reconocimiento facial en lugares públicos. La industria de la tecnología, por su parte, se ha resistido a lo que considera una supervisión demasiado onerosa de la IA generativa.

El esfuerzo en Bruselas ha llevado a la industria estadounidense, que está invirtiendo miles de millones de dólares en inteligencia artificial, a buscar en la UE una legislación concreta, muy similar a lo que sucedió cuando el bloque comenzó a promulgar leyes sobre privacidad y contenido en línea.

EE. UU., por otro lado, prefiere un enfoque más directo, confiando en la industria para crear sus propias salvaguardas. Las divisiones políticas en curso en el Congreso hacen que sea poco probable que se apruebe una legislación específica de IA antes de las elecciones estadounidenses del próximo año.

La administración Biden ha hecho de la colaboración internacional en IA una prioridad política, especialmente porque la mayoría de las principales empresas de IA como Google, Microsoft y OpenAI tienen su sede en los EE. UU. Para Washington, ayudar a estas empresas a competir contra los rivales de China también es una prioridad de seguridad nacional.

En las últimas semanas, la Casa Blanca abrió sus puertas a la industria y dio la bienvenida a los directores ejecutivos de cuatro importantes empresas de inteligencia artificial a principios de mayo para una discusión privada. Ella ha lanzado esfuerzos para lograr que las empresas de tecnología se comprometan voluntariamente con las reglas de comportamiento responsable. Y cuando se trata de establecer estándares internacionales, ha impulsado el marco de gestión de riesgos desarrollado en EE. UU. por los Institutos Nacionales de Estándares y Tecnología.

Construyendo el enfoque occidental

El miércoles, altos funcionarios de EE. UU. y la UE intentaron eludir esos defectos con un enfoque que se basaría en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económicos. Tenían la intención de ir más allá de la OCDE destacando específicamente los peligros potenciales de la IA generativa.

Un acuerdo preliminar ofrecería a las empresas más certeza sobre cómo esta tecnología emergente será vigilada por los dos bloques económicos más grandes de Occidente. El objetivo es acelerar un código voluntario, aunque probablemente se basará en las normas europeas existentes para la IA y no está claro si las autoridades y las empresas estadounidenses apoyarán tal enfoque.

«La claridad regulatoria será algo bueno», dijo Sam Altman, director ejecutivo de OpenAI, la empresa de tecnología detrás de ChatGPT, durante un evento en París la semana pasada durante una gira europea que también incluyó Varsovia, Madrid, Múnich y Londres. El jefe de tecnología se reunió virtualmente con Vestager el miércoles, durante el cual discutieron el código de conducta voluntario propuesto.

Aún así, hay dudas sobre si la UE está hablando con una sola voz.

Algunos funcionarios en Bruselas esperan poder anticipar algunas de las reglas del bloque en el llamado Pacto AI. un compromiso voluntario separado que las empresas pueden firmar relacionado con la próxima Ley de IA de Europa, que probablemente entrará en vigor en 2026.

Thierry Breton, comisionado del mercado interno de la UE, dijo que cualquier coordinación regulatoria con socios de ideas afines, como los EE. UU., se basaría en el enfoque existente de Europa. “Si otros quieren ser inspirados, por supuesto, son bienvenidos”, dijo.

By Sergio Giraldo

Te puede interesar