La Inteligencia Artificial (IA) transformará radicalmente nuestras vidas y nuestro trabajo en los próximos años. Pero esta tecnología, que depende en gran medida de la recopilación y el análisis de grandes conjuntos de datos, también plantea importantes riesgos para la privacidad. 

Según Segun una investigacion Según Cisco, al 60% de los consumidores les preocupa cómo las organizaciones utilizan los sistemas de IA. Y el 65% confía menos en las empresas que utilizan esta tecnología en sus productos y servicios.

Estos temores han llevado a muchos organismos gubernamentales e instituciones importantes a desarrollar marcos en un intento de regular el uso de la tecnología de IA. En junio, la UE anunció planea una innovadora Ley de IA para garantizar que esta tecnología sea “segura, transparente, rastreable, no discriminatoria y respetuosa con el medio ambiente”.

Incluso el Vaticano, con la ayuda del Centro Markkula de Ética Aplicada de la Universidad de Santa Clara, ha desarrollado un manual que describe las implicaciones éticas de la tecnología de inteligencia artificial. Esperan "promover una reflexión más profunda sobre el impacto de la tecnología en la humanidad". El Instituto Nacional de Estándares y Tecnología también ha desarrollado un Marco de gestión de riesgos de IA. 

A medida que la tecnología de la IA evolucione, sin duda surgirán nuevas leyes que regirán su desarrollo y uso. Al mismo tiempo, aumentará la presión sobre las empresas y los usuarios de IA para que comprendan y cumplan las nuevas leyes. Pero, ¿cómo pueden realmente hacerlo con éxito? ¿Y hay algo más que necesiten saber? Le pedimos consejo a varios expertos de la industria. 

Las regulaciones de IA no son malas para la industria 

Si bien la introducción de regulaciones sobre IA puede parecer una perspectiva desalentadora para las organizaciones que desarrollan y utilizan esta tecnología, en realidad podría ser algo bueno para la industria. Aleksandr Gornostal, arquitecto de software y experto en inteligencia artificial de Estrella cree que las normas de IA “crearán un terreno de juego más justo e igualitario a largo plazo”.

Gornostal espera que las nuevas regulaciones perjudiquen los esfuerzos de investigación y desarrollo de IA en el corto plazo. Pero esto no durará para siempre; Confía en que eventualmente habrá una oportunidad para que las empresas de tecnología desarrollen productos que resuelvan algunos de los mayores problemas de la IA, especialmente en torno a la supervisión humana, la privacidad y la no discriminación. 

Por supuesto, las empresas deberán asegurarse de que sus sistemas de IA cumplan con las leyes nuevas y emergentes si quieren tener éxito en el largo plazo. Gornostal aconseja a las empresas que comiencen por realizar evaluaciones de impacto periódicas y garantizar una transparencia constante con las partes interesadas. También deben reservar presupuestos y recursos importantes para cumplir con estas normas. 

"El cumplimiento de las regulaciones de IA se convertirá en un requisito previo para ingresar al mercado europeo, y cualquier empresa que desee comerciar o realizar negocios en la UE deberá cumplir con los estándares", dice. 

Además de las preocupaciones sobre la privacidad, Gornostal dice que la IA generativa plantea riesgos en materia de diversidad, representación e inclusión. “Los modelos tienden a reforzar la visión más dominante sin emitir un juicio sobre cuán justa o correcta es. Necesitamos ser conscientes de estas deficiencias y evitar que el uso de la IA cree cámaras de eco”.

Adoptar un principio por diseño 

Las empresas que quieran beneficiarse de la revolución de la IA no tendrán más remedio que prepararse para las nuevas y cambiantes regulaciones de la industria. Sin embargo, como immuta Como señaló Sophie Stalla-Bourdillon, asesora principal de privacidad e ingeniera jurídica, muchos ya están acostumbrados a lidiar con leyes como el Reglamento General de Protección de Datos. También sugiere que cumplir con las nuevas reglas de IA será similar. 

“La mejor manera de anticipar nuevas leyes y regulaciones es hacer operativo lo antes posible el enfoque basado en principios introducido por regulaciones como GDPR; en otras palabras, aplicar un enfoque de cumplimiento por diseño”, afirma. 

Esto implica diseñar entornos controlados donde las organizaciones busquen rutinariamente "incidentes potenciales y prácticas no deseadas", según Stalla-Bourdillon. También aconseja a las empresas que los prueben con métricas como la confidencialidad y la equidad. 

Continúa explicando que las empresas pueden elegir entre dos estrategias de diseño para "mostrar que la privacidad y la seguridad realmente están convergiendo". El primero utiliza principios de protección de datos como la minimización y la necesidad de saber.  

“Cuando se ponga en práctica, esto debería conducir a políticas de control de acceso detalladas. Estas políticas son relevantes para los datos de entrenamiento, los parámetros del modelo, las consultas o indicaciones, los resultados o las respuestas”, afirma.

La segunda estrategia de diseño proporciona a las empresas métricas, KPI y registros de auditoría para mejorar la transparencia y la observabilidad durante la confirmación del sistema, la capacitación, las pruebas, la implementación y muchos otros períodos de tiempo. Y añade: "Tener visibilidad de todo el ciclo de vida de los datos aumenta el control y simplifica la realización de evaluaciones periódicas".

Todo el mundo debe comprender los riesgos de la IA

Aunque las regulaciones sobre IA son “desesperadamente necesarias”, ESET Jake Moore, asesor global en ciberseguridad, admite que a las empresas probablemente les resultará difícil mantenerse al día con sus requisitos en constante cambio. 

“Las regulaciones pueden empoderar a las empresas y hacerlas sentir protegidas, pero no significan nada para los desarrolladores de malware sofisticado. Las regulaciones del Reino Unido llegan notoriamente tarde, pero esto ya parece más prometedor”, continúa. 

Califica de “vital” la intervención gubernamental sobre los riesgos de la IA, pero insta a los reguladores a establecer expectativas realistas. "Controlar a la bestia [la IA] será casi imposible con una tecnología avanzada en constante mejora", afirma. "Además, la labor policial se vuelve más difícil, como siempre, en el caso de jurisdicciones internacionales cruzadas".

Además de cumplir con las nuevas regulaciones sobre IA, advierte a las organizaciones que no ignoren la amenaza que representan los ciberataques impulsados ​​por IA. Espera que estos aumenten en complejidad y escala, y se dirijan a empresas e individuos en los próximos años. 

Y añade: “Es importante enseñar al personal y al público en general que ver no siempre es creer y que debemos 'pecar de cautelosos' más que nunca, ya que todavía se abusa mucho del elemento humano [de la IA]. "

Aviv Raff, CIO de Alcance de la floración, está de acuerdo con la importancia de educar a las personas sobre los riesgos asociados con la IA y los pasos que pueden tomar para utilizar esta tecnología de manera segura.

Aconseja: “Para las empresas, es importante que introduzcan políticas y estándares que aborden el uso aceptable de la IA, organicen la capacitación de los empleados sobre el uso apropiado de la IA, se aseguren de que solo utilicen instancias privadas de IA que estén vinculadas contractualmente, opten por no participar en el modelo. capacitación y emplear el principio de privilegio mínimo para evitar el acceso no autorizado. “

La IA ofrece inmensas oportunidades para la sociedad en su conjunto, pero también plantea importantes riesgos éticos. Fomentar la comprensión global de estos riesgos y contrarrestarlos es fundamental para aprovechar el enorme potencial que ofrece la tecnología de IA. 

Las regulaciones desempeñarán un papel esencial en este proceso, pero está claro que cumplirlas será una tarea desafiante para las empresas. Además, a medida que la tecnología de IA evoluciona y surgen nuevos riesgos, los organismos gubernamentales deben adaptar sus regulaciones en consecuencia para garantizar que sigan siendo relevantes.