Estamos en 2023 y la IA parece estar en todas partes. ChatGPT, la IA producida por el instituto OpenAI, fundado por Elon Musk, es escribir ensayos de estudiantes, produciendo libros, e incluso multas de estacionamiento desafiantes. En un incidente que demuestra que estamos viviendo en un episodio de Black Mirror, un empleado universitario particularmente desalmado incluso lo usé para consolar a los estudiantes después de un tiroteo masivo.

Cómo funciona ChatGPT

Los expertos en privacidad y seguridad quizás se pregunten cómo la IA podría ayudarlos también a ellos. ¿Podría, por ejemplo, redactar su política de privacidad? La respuesta es sí, más o menos.

Para analizar la pregunta más a fondo, vale la pena comprender cómo funciona la nueva marca de IA de ChatGPT. Se basa en algo llamado modelo de lenguaje grande (LLM). Se trata de un modelo de IA entrenado utilizando un gran corpus de texto, normalmente extraído de Internet. El proceso de formación divide este texto en tokens, que podrían ser partes de palabras. Luego, utiliza grandes cantidades de potencia informática para encontrar patrones en el lenguaje que le ayuden a comprender cómo se relacionan esos tokens.

Cuando alguien le hace una petición a la IA (por ejemplo, “explica la fusión fría al estilo de Sherlock Holmes”), la IA usa su vasto modelo de entrenamiento para tomar fragmentos de palabras y predecir cuáles probablemente vendrán a continuación. Así es como puede producir un lenguaje convincente que parezca seguir los conceptos descritos en la indicación.

Confiado y tonto: una mala combinación

El problema con este enfoque es que la IA no sabe de qué está hablando. Los investigadores lo han comparado con un "loro estocástico", que encadena palabras al azar sin entenderlas. Un artículo que describe esto, Sobre los peligros de los loros estocásticos, señala que “las lenguas son sistemas de signos, es decir, pares de forma y significado”. Cuando alguien dice "conejo", entiendes el concepto de conejo y cómo se relaciona con otras cosas (Pascua, primavera, mascotas, guiso sabroso, etc.). "Pero los datos de entrenamiento de los LM son sólo una forma", afirman los investigadores. "No tienen acceso al significado".

Eso crea problemas para los LLM en los que confía para obtener contenido fáctico. Debido a que obtienen palabras basadas en probabilidad estadística en lugar de conocimiento, tienden a escribir cosas que no son ciertas. En la jerga de la IA, esto se conoce como "alucinar" y es un problema si quieres confiar en ellos para obtener contenido factual.

Gente he experimentado con el uso de ChatGPT para redactar una política de privacidad, con resultados cuestionables. Como era de esperar, descubrieron que los resultados eran peores cuando el LLM tenía que llenar más espacios en blanco.

La IA simple generó políticas que no se basaban en leyes de privacidad específicas y no se relacionaban con prácticas comerciales específicas. La política de privacidad mejoró a medida que los evaluadores agregaron más información, hasta el punto de producir un resultado impresionante. Sin embargo, en ese momento, “primero necesitarás pasar horas, días o incluso semanas determinando qué leyes de privacidad se aplican a ti, analizando los requisitos de divulgación de esas leyes y luego proporcionando esta información a ChatGPT, junto con tus prácticas comerciales específicas. " ella dice. Lo que plantea la pregunta: ¿por qué no hacerlo todo tú mismo en primer lugar?

Otros han descrito ChatGPT y LLM similares como "calculadoras de palabras". Solo son realmente útiles para escribir si usted mismo se esfuerza mucho y verifica cuidadosamente los resultados.

El uso que hace la gente de la IA suele ser a la vez confiado y tonto

No podemos confiar en las herramientas de inteligencia artificial, pero podemos confiar en que las personas las usarán mal. Ya hemos visto las consecuencias de una IA mal concebida y aplicada de manera inapropiada, lo que lleva a importantes consecuencias que afectan la vida real.

Las autoridades han utilizado sistemas impulsados ​​por inteligencia artificial que han demostrado ser sesgados al recomendar sentencias judiciales. Por ejemplo, el uso indebido del software de inteligencia artificial por parte de la autoridad tributaria holandesa llevó a la agencia a acusar injustamente a los padres de fraude—La creencia ciega en algoritmos defectuosos de reconocimiento facial impulsados ​​por IA llevó a la arresto injusto de personas inocentes. El sesgo también apareció en el sistema de reclutamiento basado en inteligencia artificial de Amazon, que fue eliminado después de mantener no recomendar mujeres calificadas para trabajos tecnológicos.

¿Cómo podemos abordar este problema? Algunos expertos ya han pedido una moratoria de seis meses sobre el desarrollo de la IA para entender todo este lamentable lío antes de que las cosas se salgan aún más de control.

No faltan pautas

Ya tenemos muchas pautas de IA responsable para elegir, y dicen cosas similares. El grupo de defensa Algorithm Watch mantiene un inventario de directrices sobre IA de varias instituciones, incluida la UE Pautas de ética para la IA confiable. Uno que no estaba incluido en el momento de escribir este artículo era el Instituto Nacional de Estándares y Tecnología (NIST). Marco de gestión de riesgos de IA, lanzado en enero de este año. Como la mayoría de las otras directrices, el marco del NIST se propone proporcionar algunas vías para el desarrollo y la aplicación de la IA. También se hace eco de varios principios comunes en otras directrices éticas, como la transparencia, la rendición de cuentas, la privacidad, la seguridad y la resiliencia.

Según la OCDE, existen más de 800 iniciativas de políticas de IA en casi 70 países al momento de escribir este artículo, pero hay una gran diferencia entre políticas vinculantes y no vinculantes. El cumplimiento de la mayoría de las iniciativas, incluidos los NIST, es voluntario.

Una mirada a empresas como Clearview AI muestra la importancia de hacer cumplir legalmente políticas de IA responsables en lugar de simplemente pedir amablemente. La startup, que vende servicios de reconocimiento facial a las fuerzas del orden, los impulsa a través de millones de fotografías. hurtado de las redes sociales sin el consentimiento de las personas.

No hay suficiente regulación

Los países han estado divididos en su enfoque para regular estrictamente sus políticas. Todos enfrentan el mismo desafío: muy poca regulación y corren el riesgo de usos impredecibles e irresponsables de la tecnología. Demasiado, y podrían obligar a innovadores potencialmente lucrativos en IA a alejarse.

Estados Unidos aún no ha regulado la IA. Congreso propuesto la Ley de Responsabilidad Algorítmica en 2022, pero murió sin votación. La FTC ha prometido utilizar sus poderes existentes para proteger a los residentes estadounidenses del uso atroz de la IA. También ha emitido un notificación anticipada de la propuesta de reglamentación eso podría presagiar nuevas reglas comerciales radicales para hacer frente a los sistemas automatizados de toma de decisiones y vigilancia.

La UE ha sido más agresiva, proponiendo la Ley de IA, que se espera que pase este año. Cubriría todos los productos y servicios de IA, clasificándolos según su nivel de riesgo percibido y aplicando evaluaciones rigurosas y reglas de cumplimiento de datos a los de mayor riesgo. Los infractores se enfrentarían a fuertes multas.

El Reino Unido tiene adoptado lo que eufemísticamente llama “enfoque a favor de la innovación“. En lugar de nombrar un nuevo regulador de IA, dividirá la responsabilidad de regular la IA entre los reguladores existentes y no les otorgará inicialmente ningún nuevo poder legal para hacerlo.

Mientras los políticos caminan en la cuerda floja entre la ética y el beneficio económico, el futuro de la IA está en juego. Una cosa es segura: dejar que las empresas de tecnología actúen de manera responsable por sí solas sería… irresponsable.