La velocidad a la que avanza la innovación en IA ha sorprendido a muchos. En algunos países, los legisladores tienen dificultades para seguir el ritmo, oscilando entre la autorregulación (de la que Estados Unidos es un defensor) y un enfoque más práctico (por ejemplo, la Ley de IA de la UE). Pero la mayoría reconoce ahora el potencial de la tecnología para socavar los derechos humanos y el estado de derecho. Convenio Marco del Consejo de Europa sobre Inteligencia Artificial aborda estas preocupaciones.

Su objetivo es complementar los estándares globales existentes en materia de derechos humanos, democracia y estado de derecho, y al mismo tiempo abordar las lagunas legales derivadas de los rápidos avances tecnológicos de la inteligencia artificial. Sin embargo, ¿es probable que su enfoque, vagamente redactado y agnóstico en cuanto a la tecnología, tenga el tipo de impacto que afirman sus defensores?

¿Qué es y por qué ahora?

La convención, que se ha elaborado durante cinco años, se describe como el “primer tratado internacional jurídicamente vinculante” que rige la IA. Fue redactada por los 46 estados miembros del Consejo de Europa (incluido el Reino Unido), la UE y 11 estados no miembros, entre ellos Australia, Japón y los EE. UU.

Esto se puede observar en el contexto de un número creciente de iniciativas gubernamentales diversas para regular la IA de una manera que mitigue los riesgos emergentes. Entre ellas se incluyen las del presidente Biden. Orden Ejecutiva sobre IA a partir de octubre de 2023, la Declaración de Bletchley Un mes después (noviembre de 2023), y el Anuncio del discurso del rey que el gobierno británico planea introducir una legislación sobre IA para regular los modelos de IA potentes.

¿En qué se diferencia de la Ley de Inteligencia Artificial de la UE?

Según el Consejo de Europa, la convención incluye varios principios fundamentales que deben regir el ciclo de vida de los sistemas de IA:

  • Dignidad humana y autonomía individual
  • Igualdad y no discriminación
  • Respeto a la privacidad y protección de datos personales
  • Transparencia y supervisión
  • Responsabilidad y responsabilidad
  • Fiabilidad
  • Innovación segura

Los firmantes deben documentar la información pertinente sobre los sistemas de IA y ponerla a disposición de cualquier persona afectada. Esta información debe ser lo suficientemente detallada como para que las personas puedan impugnar las decisiones adoptadas a través de la IA o incluso el uso de la propia IA. También deben poder presentar una queja ante las autoridades. Estas autoridades deben proporcionar "garantías procesales, salvaguardas y derechos efectivos" a cualquier persona afectada por la IA que pueda afectar a sus derechos humanos y libertades. El Consejo dice que también se debe notificar a los usuarios de IA que están interactuando con inteligencia no humana.

La convención exige que los Estados realicen también evaluaciones de riesgos e impactos relacionados con el impacto de la IA en los derechos humanos, la democracia y el Estado de derecho. Como resultado, deben establecer “medidas de prevención y mitigación suficientes” e incluso introducir prohibiciones o moratorias sobre ciertas aplicaciones de la IA.

¿En qué se diferencia entonces de la Ley de Inteligencia Artificial de la UE? La más obvia es que se aplica a los estados-nación, no a las empresas privadas, aunque también afecta a las entidades privadas que actúan en nombre de los gobiernos. Aunque ambas tienen por objeto proteger los derechos humanos en el contexto del uso de la IA, son “leyes distintas con bases jurídicas muy diferentes”, según Sarah Pearce, socia de Hunton Andrews Kurth.

“La Ley de Inteligencia Artificial de la UE es una ley promulgada por la Unión Europea que se aplicará directamente. El Tratado de Inteligencia Artificial es una convención internacional firmada por varios estados-nación. Los firmantes se comprometen a cumplir ciertos principios/obligaciones y a trabajar con legisladores y reguladores a nivel nacional para implementar y hacer cumplir esos principios/requisitos”, explica a ISMS.online.

“Los principios de la Convención sobre IA parecen bastante amplios y requieren de más acciones por parte de los Estados-nación para garantizar su aplicación y cumplimiento, por lo que su eficacia es cuestionable en esta etapa. En cambio, la Ley de IA de la UE es una legislación vigente y contiene un conjunto de requisitos legales que las organizaciones que se encuentran en el ámbito de aplicación deben cumplir o se arriesgan a ser sancionadas por incumplimiento. También incluye disposiciones sobre cómo se hará cumplir la legislación”.

¿Hará la diferencia?

Según un informe, la convención enfrenta varios desafíos potenciales. Análisis de aves y pájaros:

  • Los Estados pueden elegir cómo aplicar sus normas a los actores privados, directamente o a través de “otras medidas apropiadas”. Esto podría generar discrepancias en la forma en que se aplican en todo el mundo, como también lo podría hacer el hecho de que el término “autoridad pública” no esté definido en el texto.
  • En general, la convención se ciñe a principios generales más que a requisitos específicos, lo que significa que cuando se transpone a las leyes locales puede haber una amplia variación en las regulaciones.
  • Si bien se exige la presentación de informes sobre el cumplimiento, la falta de criterios estrictos de aplicación hace que la convención sea algo ineficaz.
  • No se han sugerido remedios, como multas, para las violaciones de los derechos humanos relacionados con la Convención, lo que significa que éstas también podrían variar significativamente entre jurisdicciones.

“Lo más probable es que la mayoría de las organizaciones encuentren difícil cumplir con la convención debido al lenguaje impreciso y las amplias obligaciones”, le dice el socio de Cripps, Matthew Holman, a ISMS.online.

“La UE dice que lo ha hecho al implementar la Ley de Inteligencia Artificial de la UE, y básicamente tiene razón en ese punto. El gobierno del Reino Unido dice que las leyes nacionales existentes ya abordan los puntos que surgen de la convención, por lo que no se necesita una ley independiente. Si tiene razón en ese punto es algo que está muy sujeto a debate, pero me inclino a discrepar”.

 ¿Cuáles son los siguientes pasos?

El gobierno del reino unido Parece dispuesto a defender La UE ha reafirmado su posición como líder en materia de seguridad de la IA. Afirma que las leyes y medidas existentes se “mejorarán” una vez que se ratifique el tratado y que trabajará en estrecha colaboración con “los reguladores, las administraciones descentralizadas y las autoridades locales” para implementar los nuevos requisitos.

Hasta entonces, dice Holman, las organizaciones del sector público y privado potencialmente afectadas por la convención deben asegurarse de que cualquier desarrollo de IA esté en línea con los valores fundamentales del Consejo de Europa: derechos humanos, democracia, estado de derecho y transparencia.

“Las autoridades públicas y los actores privados deberían procurar mejorar la transparencia de los procesos y colaborar con las autoridades públicas para crear un marco para prácticas éticas estándar en la industria”, concluye.