Diario Bernabéu

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

La tormenta antes de la calma.  La guerra por la regulación de la inteligencia artificial continúa no sólo en Europa

La tormenta antes de la calma. La guerra por la regulación de la inteligencia artificial continúa no sólo en Europa

Paralelamente a la carrera mundial en la que el país será líder en el desarrollo de la inteligencia artificial, se está llevando a cabo otra competencia. Lo que está en juego es quién marcará las reglas que deben seguir las empresas e instituciones involucradas en el desarrollo de la inteligencia artificial.

Hasta hace poco, parecía que Europa era la favorita en la lucha por “abordar” legalmente las amenazas que plantea la inteligencia artificial. Cuando las negociaciones sobre una ley de la UE sobre inteligencia artificial parecían haber llegado a su fin, Estados Unidos y China entraron en juego. Por si esto fuera poco, las Naciones Unidas, la Organización para la Cooperación y el Desarrollo Económico, el Consejo de Europa y el Reino Unido también están trabajando actualmente para introducir normas internacionales. Hay tantas iniciativas en las que puedes perderte. A pesar del revuelo regulatorio y de relaciones públicas, una cosa parece segura: el futuro de las tecnologías digitales estará determinado no sólo por innovadores inspirados, sino también por políticos, funcionarios, abogados y auditores.

Capítulo uno: Europa

Hace apenas unos años, las reglas y estándares técnicos para el software y hardware conocidos colectivamente como inteligencia artificial eran de interés para un grupo reducido de entusiastas del derecho de las nuevas tecnologías. Los principales innovadores e investigadores de la IA se han vuelto más dispuestos a hablar sobre la “ética de las máquinas”, “el apocalipsis de los robots”, “el fin del trabajo” y otras visiones de largo alcance extraídas de libros y películas de ciencia ficción.

Pero la situación cambió con la Comisión Europea, que presentó un proyecto de ley sobre inteligencia artificial en 2021. El proyecto de la UE aborda el problema desde una perspectiva de seguridad de los productos y se basa en un modelo basado en riesgos. Desde entonces, en lugar de ética o reglas de “buenas prácticas”, se habla cada vez más de leyes y obligaciones. La UE espera crear un “efecto Bruselas”, en el que las empresas fuera de su territorio también aplicarán las normas europeas.

Lea también: Aprobación de la Ley de Inteligencia Artificial. ¿Podemos manejar la IA en Europa?

Además de proporcionar una lista de aplicaciones prohibidas (como el sistema de «etiquetado» para los ciudadanos), la ley pretende imponer requisitos adecuados a las amenazas a los creadores, empresas e instituciones que ofrecen sistemas de IA para su uso, que serán coherentes con los «valores europeos». ”.

Determinar esto último resulta muy problemático en la práctica. En este sentido, la versión original del texto de la Comisión difiere de los textos posteriores (presentados primero por el Consejo Europeo y luego por el Parlamento) en puntos importantes. Los parlamentarios europeos decidieron “democratizar” el proyecto y, entre otras cosas, ampliar su alcance. Lista de usos prohibidos y lista de sistemas de IA de alto riesgo, y los derechos otorgados (de información y de recurso) a las personas sujetas a su funcionamiento.

En este punto, los estados respaldados por grandes empresas digitales buscan debilitar las enmiendas prosociales a la ley. En nombre de los «innovadores discretos», el Consejo de la UE quiere eliminar las «válvulas» democráticas añadidas por el Parlamento, sobre las que advirtió, entre otras cosas, a las organizaciones cívicas de la red EDRi. El resultado de la presión de los ministerios empresariales y jurídicos puede, en última instancia, ser una falta de control real sobre cómo utilizan la IA los servicios secretos, la policía o las grandes plataformas de Internet.

READ  España se centra en una semana laboral de cuatro días. El gobierno apoyará a las empresas que lo implementen

Lea también: Bolas de espías. La inteligencia artificial mira a las personas a los ojos. literalmente

Deberíamos conocer el resultado final de estas discusiones durante la presidencia española, es decir, a finales de este año. Pero en las últimas semanas han aumentado las voces que piden que se vuelva a prorrogar el proceso. O incluso llegar a un callejón sin salida, lo que constituiría un enorme fracaso político y de imagen no sólo para la Comisión, sino también para la propia Unión Europea.

EE.UU. dice: ¡Estoy comprobando!

Bajo Joe Biden, Estados Unidos está tratando de beneficiarse de la falta de decisión, los conflictos de intereses y las fricciones internas en Europa. El Decreto Presidencial sobre la Seguridad del Desarrollo y la Implementación de la Inteligencia Artificial, publicado el 30 de octubre, no es sólo la primera ley de este tipo en los EE.UU., sino sobre todo una expresión de grandes ambiciones políticas para “domesticar” esta tecnología. No sólo en el país, sino también por el papel dominante de la ciencia y las empresas estadounidenses en el escenario global.

El decreto otorga a la Casa Blanca herramientas legales para supervisar las principales empresas de inteligencia artificial y cómo la administración pública, el ejército y sus servicios afiliados utilizan la tecnología. Según la nueva política, las agencias gubernamentales son responsables, entre otras cosas, de: Para proteger la competencia y los consumidores (FTC) o combatir la discriminación en el mercado laboral (EEOC), deben luchar más eficazmente para garantizar que las empresas y organizaciones no utilizar algoritmos que discriminen o abusen de los derechos civiles.

Lea también: ¿Qué tipo de empleado tiene inteligencia artificial? Y cuyo trabajo podría ser quitado en un instante

El reglamento no tiene rango de ley, lo que significa que el presidente (este o el próximo) puede derogarlo con una sola firma. Esto se debe a que las posibilidades de que el proyecto de ley se apruebe en el Congreso dominado por los republicanos son muy escasas. Sin embargo, sería un gran error subestimar la importancia del decreto.

La mayor diferencia entre los enfoques estadounidense y europeo es quién (no) se verá obligado a seguirlos. La nueva ley estadounidense sujeta, entre otras cosas, la supervisión oficial y judicial: cómo los servicios secretos y el ejército estadounidense utilizan los sistemas y programas autónomos. Mientras tanto, desde el principio, el alcance del proyecto de ley sobre IA no se limitó sólo a la defensa, sino que también excluyó la investigación y la ciencia. Además, los representantes de los países de la UE están haciendo todo lo que está a su alcance para garantizar que la ley no se aplique en el ámbito de la seguridad nacional (incluidas las actividades de los servicios de inteligencia). Puede resultar que la regulación «débil» de Biden en materia de protección de los derechos de los ciudadanos sea en la práctica «más fuerte» que el proyecto de ley sobre inteligencia artificial que se viene debatiendo desde hace años.

READ  Tipos de cambio NBP el 27 de mayo de 2021: euro, dólar, libra esterlina y franco el jueves 27 de mayo (euro, dólar estadounidense, libra esterlina y franco suizo)

Lea también: La Inteligencia Artificial aprende a hacer trampa. ¿Destruirá el gobierno del pueblo?

Inteligencia artificial en el modelo chino

Y los países del Sur Global no pierden el tiempo. En los últimos dos años, los organismos reguladores chinos (incluida la Comisión Central, el Ministerio de Ciencia y Tecnología y la Agencia de Administración del Ciberespacio) han publicado varias regulaciones que regulan directamente cómo funcionan los algoritmos basados ​​en IA. Las nuevas regulaciones se aplican a sistemas que recomiendan contenido en plataformas, software que genera contenido de audio y video y chatbots.

Contrariamente a la opinión estereotipada, el enfoque del Partido Comunista hacia el sector de la IA también es flexible, lo que se evidencia, entre otras cosas, en tener en cuenta los comentarios del sector privado durante la legislación. Sin embargo, esto sólo se aplica a los negocios. A diferencia de los intentos occidentales de dominar la inteligencia artificial, los derechos y libertades civiles no están en el centro de la discusión en el Reino Medio. Además de las cuestiones de seguridad y responsabilidad por errores, el modelo regulatorio de la IA de China se centra en la moderación o censura del contenido. Tampoco debemos esperar que China abandone el uso de la inteligencia artificial para monitorear a los opositores o críticos del sistema político, siendo ejemplos especialmente extremos las acciones contra la minoría étnica uigur o los activistas en Hong Kong.

Lea también: ¿De quién serán los trabajos que quitará la inteligencia artificial? Los expertos no tienen piedad: esto será un gran avance

Las Naciones Unidas, la Organización para la Cooperación y el Desarrollo Económico, el Consejo de Europa y el resto del mundo

Además de Estados Unidos, la Unión Europea y China, las organizaciones internacionales también quieren entrar en el juego de la regulación de la IA. En octubre, las Naciones Unidas establecieron un grupo asesor sobre inteligencia artificial, encabezado por la funcionaria española Carme Artigas y el representante de Google, James Manica. Según (bajas) expectativas, la Comisión discutirá principalmente con expertos y desarrollará recomendaciones. Veremos los resultados de nuestro trabajo en septiembre del próximo año, cuando se celebre la “Conferencia para el futuro”. Las posibilidades de que la iniciativa conduzca eventualmente a la firma de un tratado global sobre inteligencia artificial son muy escasas.

Paralelamente, Naciones Unidas está trabajando en un reglamento que puede ser aún más importante: una resolución sobre armas autónomas. El proyecto, presentado a principios de noviembre, hace hincapié en garantizar que las decisiones sobre el uso de sistemas letales las tome un ser humano, no un algoritmo. En última instancia, deberíamos contar con la regulación del hardware y software de IA “letal” que se controlará de la misma manera que las armas nucleares o las minas terrestres.

Este trabajo también lo lleva a cabo la Organización para la Cooperación y el Desarrollo Económico, organización que incluye a las mayores economías occidentales. Y aquí, a su vez, lo más importante son las definiciones técnicas (incluidas las definiciones de inteligencia artificial en sí), que “toman prestadas” de la organización, entre otras cosas: la Unión Europea está trabajando en una ley de inteligencia artificial. La OCDE también logró persuadir al G7 para que adoptara un código de buenas prácticas al que las empresas que desarrollan modelos y sistemas de IA pueden unirse voluntariamente.

READ  Jamón español procedente de cerdos polacos. Hubo un alboroto en España, que fue imperdonable para muchos.

La lista de enfoques internacionales para regular la IA también incluye al Consejo de Europa y al Reino Unido. La primera organización anunció su propio proyecto de convención sobre inteligencia artificial hace unos meses. Las posibilidades de introducir normas estrictas para la protección de los derechos civiles parecen escasas, como lo simboliza la eliminación de representantes de organizaciones civiles del grupo de trabajo a principios de este año.

La carrera mundial se cerró por iniciativa de Gran Bretaña, que acogió en los primeros días de noviembre a representantes de decenas de países (incluidos China y Estados Unidos) y varios cientos de empresas. La Cumbre de Seguridad del Reino Unido es un proyecto patrocinado por el primer ministro Rishi Sunak, quien tal vez contaba con mejorar su imagen, lo que le permitiría recuperar el menguante apoyo al gobierno. El efecto no puede considerarse exitoso. La conferencia terminó con el anuncio de una declaración y un código de principios a los que las empresas del sector de la IA pueden unirse, por supuesto, de forma voluntaria y sin posibles sanciones por violarlos.

Lea también: Jihad contra las máquinas. ¿Aún es posible limitar la inteligencia artificial?

Conclusión

El revuelo entre abogados, políticos y funcionarios apunta a un proceso más amplio. Las tecnologías digitales que entran en nuevas áreas de nuestras vidas pierden su aura mágica. Al igual que ocurre con Internet y las redes sociales, el entusiasmo inicial finalmente da paso a un enfoque escéptico. El entusiasmo por las innovaciones tecnológicas se convierte en expectativas: seguridad, privacidad y confiabilidad.

Existe una alta probabilidad de que el episodio final de la “guerra por la regulación de la IA” no sea la firma del tratado global sobre IA por parte de los jefes de Estado. Contrariamente a las visiones grandilocuentes de personas como Sam Altman (OpenAI) o Elon Musk (Tesla, SpaceX), el futuro de la IA puede estar determinado por regulaciones y estándares técnicos complejos y tediosos en los que organizaciones experimentadas han trabajado durante años. Nombres difíciles de recordar como la ISO internacional, la europea CEN-CENELEC o la americana NIIT.

Desde el punto de vista de la democracia y los derechos civiles, es importante que estos estándares vayan acompañados de regulaciones que establezcan límites a la interferencia de la policía y los servicios especiales en nuestra privacidad utilizando inteligencia artificial, impidan la discriminación “automática” y nos permitan apelar las decisiones. . Realizado con la participación de algoritmos de personas «inteligentes».

Lea también: El poeta canta ahora en polaco. Los polacos ya pueden utilizar la inteligencia artificial de Google