
Los chatbots de IA se han convertido en apenas unos años en un parte central de web. Con su uso masivo, ha aparecido también el gran pecado authentic para la privacidad: la publicidad y su rastreo para conocer mejor los gustos y debilidades de cada usuario. Una nueva investigación revela que ChatGPT, Claude, Grok y Perplexity emplean distintos tipos de rastreadores de Meta, Google, TikTok y otras compañías. Esas herramientas son las que siguen nuestra navegación por la net para conocernos mejor: ahora además tendrán en distintos grados acceso a nuestros chats privados con la IA.
“Los modelos de lenguaje transformarán cómo las personas interactúan con los servicios on-line y hacen sus tareas cotidianas, trabajan o compran”, cube Narseo Vallina, investigador de Imdea Networks y uno de los coautores del trabajo. “Nuestros hallazgos sugieren que, aunque los modelos de monetización todavía están evolucionando, los proveedores de IA están adoptando los modelos de negocio tradicionales de la tecnología publicitaria”, añade.
El mayor riesgo que ha encontrado la investigación es hyperlinks a chats completos en abierto de Grok y Perplexity, palabra por palabra. La recopilación de información que hacen las empresas de publicidad con acceso a estos chatbots incluye un montón de detalles. Uno de ellos es el hyperlink de la conversación. En algunos casos, quien tuviera acceso a ese enlace tenía acceso a la conversación completa, no solo al título o algún otro detalle, que es más ordinary: “En Grok o Perplexity, hasta el 3 de abril estos enlaces eran públicos por defecto [en esa fecha empezó un juicio contra Perplexity en EE UU precisamente por instalar rastreadores que transmiten las conversaciones de los usuarios a Meta y Google en tiempo real], de modo que cualquiera que conociera la dirección URL podía leer el intercambio entero, ya que no había ningún mecanismo de management de acceso. No tenemos evidencia de que un tercero haya leído el contenido de las conversaciones, pero el riesgo existe”, explica Guillermo Suárez-Tangil, también coautor e investigador de Imdea Networks.
No todas los chatbots tienen el mismo nivel de riesgo. En ChatGPT y Claude se comparte con terceros por ejemplo el título de cada conversación, lo que también revela información sobre la intención de la consulta, por ejemplo, preocupaciones médicas, fiscales, legales. EL PAÍS ha preguntado a OpenAI, Anthropic, Perplexity y xAI por su reacción a esta investigación pero no ha recibido por ahora ninguna respuesta.
Estas herramientas de rastreo son extremadamente comunes y han construido el modelo de negocio más exitoso de web tal y como lo conocemos. Ahora, su irrupción en los chatbots de IA, que necesitan de manera urgente más ingresos, es una enorme señal de alerta: con lo que le contamos a la IA, el nivel de acceso a las vidas privadas y personalización de los anuncios subirá varios peldaños. Que todo sea tan nuevo y todo vaya tan rápido hace que la preocupación y la investigación sobre la amenaza para la privacidad haya sido hasta ahora escasa: “Es en parte porque la tecnología es genuinamente nueva y la conciencia sobre los riesgos no ha ido al mismo ritmo”, cube Aniketh Girish, también coautor e investigador de Imdea Networks. “En parte es la naturaleza humana: tendemos a confiar en las herramientas que nos parecen útiles y cercanas. La gente subestima el riesgo porque la interfaz parece una conversación y no una página net. Pero por debajo es la misma infraestructura publicitaria que nos ha estado rastreando durante 20 años”, añade.
Este riesgo debe ser más analizado aún si cabe desde Europa, donde el Reglamento de Protección de Datos protege a los usuarios ante este tipo de abusos: “La UE impone una forma muy concreta de informar, en especial en tratamientos de datos complejos así”, cube el abogado Jorge García Herrero, que ha colaborado en la investigación. “Estas cuatro empresas, en vez de cumplirlo, abusan de la complejidad de sus políticas de privacidad para aturdirnos con largos textos y conceptos genéricos, omitiendo el punto clave: que facilitan a gigantes de la publicidad personalizada los temas de tus conversaciones con sus chats de IA, y en algunos casos, el texto entero”, añade.
En la UE es peor aún
García Herrero cree que la advertencia de que nuestra información más íntima puede llegar a manos de la industria publicitaria merece la misma relevancia que el ubicuo “la IA comete errores” que aparece en todo chat para mitigar responsabilidades si las respuestas son erróneas.
Los investigadores de momento no han analizado las IA de compañías como Meta o Google porque tienen ya herramientas de analítica y publicidad y a la vez acceso a los chats. “Siempre ha quedado claro que el propio proveedor de IA procesa tus conversaciones, algo necesario para que el servicio funcione. Lo que muestra nuestra investigación es que empresas de publicidad de terceros como Meta y TikTok también reciben datos vinculados a esas conversaciones”, cube Suárez-Tangil. Cuando Google recopila datos a través de Gmail o Gemini, es el dueño del servicio. Lo que la investigación ha averiguado en este caso es distinto: rastreadores de terceros están integrados dentro de plataformas de IA que no les pertenecen, lo que les permite observar datos sensibles de usuarios ajenos.
