Septiembre fue un momento decisivo para los defensores de la ética de la IA. La FTC emitido La Sección 6(b) ordena a siete importantes empresas tecnológicas que producen chatbots que se utilicen como acompañantes. Esta es la primera investigación federal importante dirigida específicamente a los chatbots de IA que imitan características, emociones e intenciones humanas. La FTC no se anda con rodeos. Persigue a algunas de las empresas más importantes de la IA. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies y xAI de Elon Musk recibieron cartas.

Los comisionados votaron unánimemente a favor de emitir las órdenes, lo que demuestra la preocupación regulatoria bipartidista sobre la IA. Dieron a las empresas 45 días para explicar diversos aspectos de sus operaciones de IA, incluyendo cómo monetizan la interacción de los usuarios, procesan sus entradas, generan resultados en respuesta a sus consultas y desarrollan y aprueban sus personajes de IA. También deben informar sobre cómo miden, prueban y monitorean los impactos negativos antes y después de la implementación, así como cómo mitigan dichos impactos, especialmente en los niños.

Estos informes también abordan cómo informan a los usuarios y padres sobre los posibles impactos negativos, sobre sus prácticas de recopilación y manejo de datos, y sobre cómo usan o comparten información personal. Por lo tanto, existe una amplia preocupación por los posibles daños a la privacidad y a los usuarios vulnerables.

¿Cómo afecta esto a las empresas B2B?

Nos sorprende y no nos sorprende que la FTC esté haciendo esto. Por un lado, la administración Trump se opone firmemente a la regulación, especialmente en lo que respecta a la IA. Por otro lado, varias familias han presentado demandas alegando que los chatbots de IA incitaron al suicidio de adolescentes. Supuestamente, algoritmos de IA que funcionaron de forma irresponsable han incitado a niños a suicidarse. Así que ya es hora de que se tome acción.

Sin embargo, las IA que manipulan con facilidad los estados emocionales de las personas vulnerables plantean problemas de perjuicio para los consumidores. ¿Cómo podría afectar esto a las empresas B2B?

Cualquier suposición de que las organizaciones B2B pueden ignorar la regulación de la IA orientada al consumidor es peligrosa. prevenido Los abogados de Mayer Brown, Christa Bieker y Christopher Leach, en 2022. La Sección 5 de la FTC no contiene limitaciones expresas sobre quién se considera consumidor. Ha interpuesto acciones legales contra procesadores de pagos B2B y entidades de préstamos para pequeñas empresas, por ejemplo.

Y esta acción sugiere que la FTC no se involucrará tanto como algunos de nosotros podríamos haber pensado cuando se trata de corregir algunos de los daños de la IA.

En 2023, la entonces presidenta Lina M. Khan declaró: «No existe ninguna exención para la IA en las leyes vigentes, y la FTC aplicará la ley con firmeza para combatir las prácticas desleales o engañosas, así como los métodos de competencia desleal». Queda por ver cuánto de esto se mantendrá en la nueva administración, pero es evidente que aún existe un interés en exigir responsabilidades a las empresas.

Las empresas que no integran la IA correctamente se arriesgan a una "restitución algorítmica"

Sería triste y raro que alguien se enamorara de su chatbot de cuentas por cobrar. Sin embargo, el uso irresponsable de la IA aún podría causar problemas a las empresas B2B.

Por ejemplo, la FTC estableció una medida de control de eliminación algorítmica que puede usar para obligar a las empresas a eliminar IA desarrolladas con datos obtenidos indebidamente. Estas medidas se han aplicado principalmente en casos de consumidores, pero, como hemos aprendido, las empresas también pueden ser consumidores.

Utilice la norma ISO 42001 para documentar las mejores prácticas

Existen medidas que las empresas pueden tomar para protegerse, asegurándose de desarrollar e implementar sus IA de forma responsable. Una de las más importantes es documentar que se está actuando responsablemente desde el principio. La norma ISO 42001, una norma internacional específica para sistemas de gestión de inteligencia artificial (AIMS), aborda los desafíos de la IA, como la ética, la transparencia, el aprendizaje continuo, los sesgos y la rendición de cuentas. Estas son precisamente las preocupaciones que impulsan la investigación de la FTC.

Por ejemplo, las organizaciones que siguen este estándar deben identificar y documentar los posibles daños antes de su implementación, evaluar los impactos desproporcionados en los grupos protegidos, reevaluar periódicamente los riesgos e implementar medidas de mitigación documentadas. Esto es precisamente lo que la FTC exige a los proveedores de chatbots.

De igual manera, el anexo A.7 de la norma ISO 42001 exige la documentación de las fuentes de adquisición de datos, así como de su transformación, uso y almacenamiento. Analiza la gestión de la calidad de los datos, incluyendo el impacto de cualquier sesgo en el sistema.

Incluso las empresas que no tratan directamente con los consumidores deberían analizar la investigación actual de la FTC desde una perspectiva B2B. Los chatbots no son solo nuevas interfaces para los sistemas empresariales existentes. Al contrario, son mucho más potentes en cuanto a la forma en que recopilan y procesan datos, y su lenguaje es mucho más fluido y natural. Esto crea nuevas formas de interacción con los clientes empresariales y los empleados.

Las órdenes de la Sección 6(b) de la FTC no implican acciones legales; son herramientas de investigación para ayudar a profundizar en el conocimiento de la Comisión. Sin embargo, si no le convencen sus hallazgos, podrían adoptarse medidas de cumplimiento. Esto podría sentar precedentes para todo tipo de uso de la IA contra todo tipo de consumidores (incluso pequeñas empresas). En un panorama regulatorio volátil, donde los legisladores lidian con las nuevas tecnologías, conviene ser cautelosos e implementar controles.