Aunque perdiéramos datos personales a raudales, siempre podíamos confiar en al menos un secreto: si tenemos suficiente autocontrol, la gente nunca podrá leernos la mente. Ahora, prepárense para que incluso eso cambie.
Para muchos tecnólogos, la última frontera en la búsqueda de información personal es lo que sentimos. Para un especialista en marketing o un político, leer nuestras emociones podría ser lo más poderoso de todo.
Los fabricantes se han apresurado a desarrollar productos que puedan hacer precisamente eso. Algunos proponen utilizar tecnología que aproveche los datos del cerebro (un campo conocido como neurotecnología). Apple, por ejemplo, ha Lectura cerebral patentada AirPods. A principios de este año, investigadores del Instituto Nacional de Ciencia y Tecnología de Ulsan (UNIST) de Corea del Sur creó una mascarilla facial Afirman que pueden analizar los cambios faciales imperceptibles del usuario para leer las emociones humanas en tiempo real.
Algunos no necesitan nuevos dispositivos para leer las emociones; utilizan datos de los que ya tenemos; ya en 2018, el Instituto Nacional de Salud de EE. UU. encontrado que Los datos de los relojes inteligentes permitieron a los investigadores determinar las emociones de los usuarios con un grado considerable de precisión. Hoy, el hospital infantil Holland Bloorview Holly El sistema utiliza datos cardíacos recopilados por relojes inteligentes y rastreadores de actividad física para determinar las emociones de los niños, que luego muestra en una aplicación para los cuidadores.
Los wearables que escanean las emociones tienen un lado positivo. El proyecto de investigación de la Universidad de West Scotland usos una combinación de análisis facial y datos de dispositivos portátiles para ayudar a comprender las emociones en personas con espectro autista. Siente la terapéutica ofrece un sistema de análisis de datos portátil y back-end para analizar emociones para tratamientos médicos, incluida la terapia de salud mental.
Algunas iniciativas de lectura de emociones se centran en el bienestar de los empleados, especialmente en profesiones con mucho estrés. El programa Oscar Kilo de la fuerza policial del Reino Unido ha probado dispositivos portátiles para monitorear el estado emocional de los oficiales en posiciones especialmente estresantes, incluido el uso de armas de fuego y las investigaciones de explotación infantil.
Política de
Además de estos usos positivos, Nita Farahany, profesora distinguida Robinson O. Everett de Derecho y Filosofía en la Facultad de Derecho de Duke, también ve un posible lado oscuro.
“Los datos cerebrales que estos dispositivos recopilarán no se recopilarán en entornos de laboratorio tradicionales ni en estudios de investigación clínica realizados por médicos y científicos”, afirmó. dijo, hablando en un evento de TED.
“En cambio, serán los vendedores de estos nuevos dispositivos, las mismas empresas que han estado mercantilizando nuestros datos durante años”, añadió. Sostiene que estos datos serán más personales que los que hemos compartido en el pasado porque representan la parte de nosotros que normalmente retenemos.
La Fundación Neurorights, un grupo sin fines de lucro con orígenes en la Universidad de Columbia, se centra en proteger los derechos humanos del posible abuso o uso indebido de la neurotecnología. En abril de 2024, publicó un informe titulado Protección de los datos cerebrales: evaluación de las prácticas de privacidad de las empresas de neurotecnología de consumoSe evaluaron 30 empresas que ofrecen dispositivos para consumidores que no cuentan con certificación médica y que recopilan datos neuronales y se descubrió que 29 de ellas “parecen tener acceso a los datos neuronales del consumidor y no imponen limitaciones significativas a este acceso”. Agregó que las políticas de esas empresas les permitían compartir datos con terceros.
Del análisis de datos al control remoto
¿Cuáles son las posibilidades a medida que las empresas se vuelven más hábiles para leer y registrar emociones? En el extremo mundano del espectro, comprender qué entusiasma o aburre a las personas podría potenciar tareas como la realización de pruebas A/B con diferentes diseños de sitios web. Más interesante es su capacidad para ayudar a construir una imagen profundamente personal de los intereses de una persona que va mucho más allá del seguimiento de lo que está navegando en línea.
Las empresas pueden intentar utilizar datos para tomar decisiones comerciales. Por ejemplo, una compañía de seguros de salud o de vida puede tener en cuenta su estado emocional al evaluar su idoneidad para una póliza.
Tal vez uno de los escenarios más escalofriantes sea la idea de los ciclos de retroalimentación emocional. Si pensabas que una empresa que te proporcionaba publicaciones en las redes sociales en función de lo que hacías clic era espeluznante, imagínate que te proporcionara contenido de forma gradual en función de cómo sabe que te sientes. Facebook ya experimentado con la manipulación deliberada de las emociones de las personas a través de las redes sociales hace más de diez años.
Estos ciclos emocionales pueden ser devastadores. A medida que la tecnología evoluciona para parecer más personal, su capacidad para influir en las emociones se está volviendo tan poderosa como su capacidad para detectarlas. Ya hemos visto acusaciones de productos de IA generativa que contribuyen a los suicidios.
Protecciones legales
Los reguladores podrían invocar algunas leyes para evitar que se cometan excesos. Si bien pocas empresas analizadas en el informe de la Neurorights Foundation reconocieron explícitamente que los datos cerebrales son información personal, los abogados sugieren que entraría directamente en esta categoría en virtud de algunas regulaciones de privacidad del consumidor, como el RGPD. La Ley de IA de la UE también regula explícitamente el uso de sistemas impulsados por IA que utilizan datos biométricos para el reconocimiento emocional, prohibiéndolos directamente en algunos entornos y categorizando aquellos que están permitidos como sistemas de alto riesgo con estrictos requisitos regulatorios.
La lamentable falta de protección de la privacidad a nivel federal en Estados Unidos no ofrecerá a los defensores de la privacidad el mismo consuelo, pero los estados están dando un paso al frente. Algunos podrían abordar el tema de los wearables que leen las emociones con las leyes de privacidad del consumidor existentes, mientras que otros están avanzando para identificar los datos basados en el cerebro. En febrero, Colorado aprobó una ley que prohíbe la privacidad de los consumidores. proyecto de ley protegiendo explícitamente los datos neuronales. California aprobó su propia proyecto de ley en octubre. Otra forma podría ser clasificar los datos emocionales como biométricos.
El trabajo en dispositivos portátiles de detección de emociones continúa a buen ritmo y el mercado está creciendo rápidamente. Tecnología de reconocimiento de emociones Valía 23.5 millones de dólares en 2022 y alcanzará los 42.9 millones de dólares en 2027, una tasa de crecimiento anual compuesta del 12.8 % en cinco años. Hay mucho dinero en juego. Por el contrario, el trabajo legal y ético en este ámbito todavía está en sus inicios. Tratar los datos neuronales y emocionales como datos personales (si no como datos de categoría especial con protecciones adicionales) es una medida inteligente a corto plazo, independientemente de que los reguladores hayan probado el tema o no. Con algo tan poderoso, cuanto más cautela, mejor.










