EE.UU. y la UE anuncian una normativa colaborativa sobre IA en la reunión del TTC

Rosslyn Elliott / Actualizado Apr 17, 2024 | Pub. 16 abr 2024

Declaración del Consejo sobre riesgos para la seguridad y necesidades de mano de obra

El viernes 5 de abril, Estados Unidos y la Unión Europea emitieron una declaración conjunta sobre la cooperación prevista en el desarrollo de la tecnología de IA para aumentar la supervisión y la seguridad.

El acuerdo surgió durante la reunión del Consejo de Comercio y Tecnología(TTC) UE-EE.UU. celebrada en Bélgica.

El Secretario de Estado estadounidense, Anthony Blinken, copresidió el comité junto con la Vicepresidenta Ejecutiva de la Comisión Europea, Margrethe Vestager, y otros funcionarios.

Necesidad de proteger los derechos humanos y las oportunidades de los trabajadores

El Consejo anunció su intención de colaborar en "normas de circulación para tecnologías emergentes como la inteligencia artificial (IA)". La declaración hacía hincapié en la necesidad de proteger los derechos humanos al tiempo que se fomenta la innovación. El TTC también hizo un llamamiento para "dotar a nuestra mano de obra de las competencias necesarias para satisfacer las necesidades creadas por la rápida evolución de la tecnología, incluida la IA."

Los expertos técnicos apoyan la regulación de la IA

Muchos líderes de la industria tecnológica han manifestado su apoyo a la regulación de la IA.

Elon Musk, consejero delegado de SpaceX, dijo en una entrevista en noviembre de 2023 que lleva tiempo presionando para que haya una supervisión reguladora de la IA. "Creo que queremos tener mucho cuidado con la forma en que desarrollamos la IA... Creo que sería prudente que tuviéramos al menos una tercera parte objetiva que pueda ser un árbitro que pueda entrar y entender lo que los diversos actores principales están haciendo con la IA".

Meses antes, en marzo de 2023, Musk y más de mil expertos en tecnología firmaron una carta conjunta en la que pedían una pausa de seis meses en el desarrollo de la IA. Los expertos citaban "profundos riesgos para la sociedad y la humanidad" derivados de la carrera desenfrenada por desarrollar sistemas de IA.

El propósito de la pausa sugerida era permitir que expertos independientes desarrollaran protocolos para que las herramientas de IA fueran "seguras más allá de toda duda razonable." Pero esa pausa nunca se produjo, porque no había ninguna política gubernamental ni supervisión en vigor.

 

"Creo que debemos tener mucho cuidado con el desarrollo de la inteligencia artificial..." - Elon Musk

 

cerebro brillante en la pantalla del ordenador para simbolizar la IA

La IA avanza demasiado rápido

Riesgos significativos de la IA para la economía y la estabilidad social

Los gobiernos han sido muy lentos a la hora de comprender y regular la tecnología en rápida evolución. MIT Technology Review puso recientemente un ejemplo de cautela con la IA, comparando los riesgos con los muchos resultados negativos para las sociedades que se derivaron del rápido desarrollo de las redes sociales. "El mayor error que cometimos con las redes sociales fue dejarlas como un espacio no regulado", afirmaron los autores Nathan Sanders y Bruce Schneier. Ahora, los dirigentes deben actuar con mayor rapidez para evitar que la IA cause grandes daños a la sociedad mediante la creación de una regulación adecuada".

La amenaza de la IA de sustituir el empleo humano se conoce desde hace tiempo como uno de los principales riesgos sociales de la tecnología. Ahora, unos 18 meses después del meteórico ascenso de la IA generativa en octubre de 2022, empiezan a extenderse los efectos disruptivos para el empleo humano.

El New York Times informó el 10 de abril de que Accenture estimaba que la IA podría sustituir casi tres cuartas partes de las horas de trabajo de la mayoría de los empleados del sector bancario. Titanes como Goldman Sachs y Morgan Stanley están reduciendo considerablemente la contratación de analistas junior.

Los incentivos a la automatización de la mano de obra son demasiado grandes para ser saludables para la economía, como señalan los analistas de la Brookings Institution en un comentario para 2023. "Debemos prepararnos para un futuro potencial en el que la demanda de mano de obra humana experimente cambios drásticos", afirman los autores Katya Klinova y Anton Korinek. "Los incentivos masivamente distorsionados y un movimiento sindical debilitado hacen más probable que la IA se destine a usos que pongan el énfasis en el recorte de costes laborales por encima de la mejora de la calidad del trabajo".

El potencial de la IA para alterar gravemente el mercado laboral (y, por tanto, la economía) es una de las razones urgentes por las que EE.UU. y la UE planean colaborar en la supervisión y formación de la mano de obra. Pero hasta ahora no ha habido una visión clara de los "nuevos empleos" que los defensores de la IA afirman que creará.

La mayoría de los artículos sobre el tema de los nuevos empleos de la IA hablan de una necesidad impulsada por la IA de operadores tecnológicos y científicos de datos de alto nivel. Pero no abordan el hecho de que la mayoría de los trabajadores del mundo nunca podrán realizar esos trabajos.

Así pues, el llamamiento de la TTC para formar a los trabajadores en nuevas habilidades es solo un gesto por ahora, porque nadie ha propuesto aún ningún plan educativo concreto para un futuro radicalmente cambiante. No ha habido ningún debate político de alto nivel sobre qué ocurre con los millones de trabajadores sin los años de educación o la capacidad de pensamiento abstracto necesarios para formarse en un trabajo de alta tecnología o de ciencia de datos.

 

Un robot toca un botón luminoso con una ilustración de un humano

¿Robots contra humanidad?

El riesgo de la IA para los derechos humanos y la privacidad

La declaración del TTC sobre la regulación de la IA se ha hecho esperar, teniendo en cuenta que los expertos llevan más de un año advirtiendo de estos importantes riesgos de la IA.

Otro riesgo bien conocido de la IA que aborda el TTC es el riesgo de parcialidad, pérdida de privacidad y otras amenazas a los derechos humanos.

Más de ochenta grupos de defensa de los derechos humanos y de los consumidores firmaron en octubre de 2023 una carta abierta al Congreso de Estados Unidos advirtiendo de la necesidad de una legislación que proteja a la sociedad de los peligros de la IA.

EE.UU. y la UE colaborarán, pero ¿en qué acciones?

Todas las advertencias públicas de líderes tecnológicos, periodistas y ciudadanos comprometidos han cobrado suficiente fuerza como para llegar a los gobiernos.

Por ahora, la reciente declaración del TTC es sólo un comienzo. Llevará aún más tiempo reunir a expertos o elaborar planes de acción. Es probable que los grupos de trabajo del TTC desempeñen un papel de coordinación más allá de las fronteras nacionales.

Hay algunos indicios de avances concretos. El 1 de abril, el Reino Unido y Estados Unidos firmaron un memorándum de entendimiento para desarrollar marcos que comprueben la seguridad de los grandes modelos lingüísticos (LLM).

 

ciborg brillante más fino y dedo humano tocando

Limitar los riesgos de la IA

Lo que debe saber sobre la seguridad y los riesgos de la IA

Por el momento, la mayoría de los riesgos graves de la IA escapan al control de los ciudadanos de a pie.

Sin embargo, ser consciente de esos riesgos de la IA puede ayudarle a alzar la voz y votar para apoyar una política sensata.

También puede entender mejor las cosas que ve en las noticias si sigue la información sobre los avances relacionados con la IA.

La IA tiene un gran potencial para hacer avanzar ciertos aspectos de la vida humana, especialmente en medicina y educación.

Pero conocer los riesgos de la IA para la economía, su privacidad y la cultura de Internet le ayudará a tomar medidas para evitar algunos problemas.

Cuanto más conozcas los deepfakes y tipos de estafas de IA como la suplantación de identidad, menos probabilidades tendrás de caer en ellas.

Consulte nuestra biblioteca de recursos para obtener más información sobre la IA y muchos otros temas útiles de Internet.