El año pasado ha sido uno de los más importantes en el ámbito de la IA desde que los científicos propusieron el concepto por primera vez a finales de los años 1940. Los proveedores de IA han seguido innovando, con modelos de IA más potentes que aparecen regularmente y los proveedores de tecnología están ocupados incorporándolos a sus ofertas principales. Si bien la Casa Blanca ha emitido un Orden Ejecutiva intentar poner algunas barreras a esta poderosa tecnología, es limitada sin el apoyo del Congreso, y los legisladores han hecho muy poco para ayudar. Todavía no existe una regulación general sobre la IA a nivel federal.
Esto ha dejado a los gobiernos estatales para llenar el vacío, y han estado asumiendo el desafío. Según Business Software Alliance, los legisladores estatales Introducido Un 440% más de facturas relacionadas con la IA en 2023 que el año anterior. Estas leyes han explorado una variedad de cuestiones relacionadas con la IA, incluido el potencial de sesgo, la transparencia sobre qué datos se utilizan para entrenar sistemas de IA y amenazas específicas como las deepfakes.
Una avalancha de medidas estatales
Las medidas regulatorias tomadas por los estados varían ampliamente. Algunos, como Texas, se han centrado en el uso de la IA por parte del propio estado. Es Proyecto de la Cámara 2060, promulgada como ley el año pasado, estableció un consejo asesor de IA para revisar el uso de los sistemas de IA por parte del estado y evaluar la necesidad de un código de ética.
Otras regulaciones de IA abarcan el uso de estos sistemas por parte del sector privado, a menudo incluidas en las leyes de privacidad del consumidor. oregon SB619, que entrará en vigor el 1 de julio de este año, incluye una disposición de exclusión voluntaria para los datos utilizados en la elaboración de perfiles automatizados. montana SB384 La legislación sobre privacidad del consumidor, introducida en febrero de 2023, incluye una disposición similar, al igual que la de Virginia. Ley de protección de datos del consumidor y de New Hampshire SB255. Todas ellas ya han sido promulgadas, al igual que la ley de Tennessee. HB1181, que exige evaluaciones de protección de datos para la elaboración de perfiles de datos.
Algunos se centran en la IA generativa. utah SB149, promulgada como ley en marzo de este año, exige que se informe a las personas si interactúan con la IA en una ocupación regulada (una que les exige tener una licencia o un certificado estatal).
Otros estados han intentado ir más allá de las disposiciones de exclusión voluntaria con más protecciones relacionadas con la IA. Connecticut, que el año pasado aplicó tal disposición en su Ley de Privacidad de Connecticut, intentó otro proyecto de ley, el SB2, que habría regulado el desarrollo de herramientas de toma de decisiones automatizadas y los propios sistemas de inteligencia artificial. Habría exigido una documentación exhaustiva de dichos sistemas y su comportamiento, junto con los datos utilizados durante el desarrollo (esto habría incluido datos de entrenamiento). También habría requerido evaluaciones de riesgos en torno a su despliegue, junto con transparencia.
El Senado estatal de Connecticut aprobó la SB2, pero no logró llegar a una votación en la Cámara antes de la fecha límite de mayo, debido en parte a la promesa del gobernador de Connecticut, Ned Lamont, de vetar el proyecto de ley.
Sin embargo, Colorado tuvo más suerte traspasando los límites de la regulación de la IA. Una semana después de que la SB2 cayera en el último obstáculo, la legislatura del estado de Colorado aprobó SB24-205, que regula específicamente la IA. La ley introduce un marco ético para el desarrollo de sistemas de IA de alto riesgo, obliga a revelar su uso y brinda a los consumidores la oportunidad de cuestionar sus resultados y corregir cualquier dato personal que haya utilizado el sistema de IA. Los sistemas de IA de alto riesgo, que la ley define como aquellos que conducen a “decisiones consecuentes”, también estarán sujetos a una evaluación de riesgos y una revisión anual.
Otros estados se han centrado en usos específicos de la IA. En 2020, Illinois aprobó 820 ILCS 42/1 (el Ley de entrevistas en vídeo sobre inteligencia artificial), que obliga a los empleadores potenciales a obtener el consentimiento de los candidatos a un puesto de trabajo si utilizan IA para analizar sus entrevistas en video.
Hay otros billetes agresivos en la tolva. En mayo, el Senado de California aprobó SB1047 por 32 votos contra uno. Este proyecto de ley, que tiene como fecha límite el 31 de agosto para ser aprobado por la asamblea estatal, se hace eco de algunas de las medidas de la Orden Ejecutiva de la Casa Blanca sobre IA. En particular, impone medidas de seguridad como equipos rojos y pruebas de ciberseguridad para grandes modelos de IA. Crearía una oficina distinta para regular la IA, junto con una nube pública para entrenar modelos de IA, y garantizaría que se incorporara un "interruptor de apagado" en los modelos de IA para desactivarlos en caso de que algo saliera mal.
Seguirán surgiendo leyes estatales que trasciendan los límites de la regulación de la IA mientras los legisladores federales permanezcan impasibles. Ha habido algunas medidas prometedoras, como la introducción del Marco de Innovación SAFE del senador Schumer para investigar el uso responsable de la IA. Sin embargo, esa iniciativa avanza a un ritmo glacial. una propuesta Ley federal de gestión de riesgos de inteligencia artificial También obligaría a las agencias federales a adoptar el marco de gestión de riesgos de IA del NIST y crear directrices de adquisición de IA para las agencias. En este momento, sin embargo, los estados son donde está la acción.
¿Cómo te puedes preparar?
¿Cómo pueden las empresas empezar a prepararse para lo que ya se está convirtiendo en un mosaico de regulaciones a nivel estatal en torno a la IA? La norma ISO 42001 sirve como referencia útil. Describe los requisitos para un Sistema de Gestión de Inteligencia Artificial (AIMS) que incluye políticas, procedimientos y objetivos como parte de una estructura de gobernanza para el uso de sistemas de IA. También insta a la transparencia y la rendición de cuentas en la toma de decisiones basadas en la IA, al tiempo que ayuda a las organizaciones a identificar y mitigar los riesgos relacionados con la IA.
A medida que proliferan las normas estatales, una norma ISO es un criterio que demuestra buenas prácticas y previsión durante una época incierta para la regulación de la IA.










