Yaël Eisenstat lleva más de dos décadas combatiendo el extremismo y la polarización en las redes sociales. La estadounidense ha sido diplomática, analista de la CIA y asesora del vicepresidente Joe Biden durante el segundo mandato de Barack Obama. También ha trabajado en el sector privado: fichó por Fb en 2018 como directora de integridad international de elecciones, donde debía supervisar la política corporativa en torno a los anuncios políticos. Fue justo cuando estalló el escándalo de Cambridge Analytica, la consultora británica que usó datos de los perfiles de Fb de 87 millones de estadounidenses para servirles publicidad electoral personalizada de Donald Trump en la campaña electoral de 2016. “Mark Zuckerberg [fundador y máximo responsable de Facebook] testificó por primera vez en el Senado en abril de 2018. La sesión duró cinco horas. Un minuto después de acabar, me hicieron la oferta closing. Estaba muy claro por qué me querían”, recuerda.
Duró seis meses en el cargo. Tras ver cómo funcionaba la empresa, se fue y habló públicamente de la incapacidad de Fb, más tarde rebautizada como Meta, para asegurar la limpieza de las elecciones (es decir, de no influir en los votantes con mensajes tendenciosos a la carta). Cuando le ofrecieron el puesto, creyó que “tenía la oportunidad de contribuir a corregir la trayectoria de una compañía que desempeña un papel elementary en uno de los grandes peligros que afronta la democracia”. Se equivocó.
Desde entonces, esta californiana que no quiere dar su edad se dedica a concienciar sobre la materia. Eisenstat es directora de política e impacto en el centro de investigación Cybersecurity for Democracy. Atiende a EL PAÍS en Barcelona, donde participa en el I Encuentro Internacional por los Derechos Digitales.

Pregunta. ¿La democracia está mejor protegida de la influencia de las plataformas ahora que en 2018?
Respuesta. Creo que estamos en una situación diferente. En algunas áreas, estamos peor. Las empresas que apuntalan cada parte del discurso y el debate político on-line son aún más poderosas que en 2018. Ahora también están incorporando la inteligencia synthetic (IA) a sus procesos, ya sea en sus algoritmos de clasificación de la información o permitiendo que se use para crear vídeos, audios o ediciones falsas. Al mismo tiempo, las principales empresas han retrocedido en términos de seguridad y garantías. Zuckerberg dijo tras las últimas elecciones presidenciales de EE UU que ya no harían verificación de los contenidos y dio marcha atrás en sus políticas de moderación del discurso de odio.
P. ¿Quiénes usan estas herramientas? En 2016, en las elecciones que catapultaron a Trump, se hablaba mucho de Rusia…
R. Es más complejo que eso. Hay una amplia gama de actores. Los mismos que explotan estas plataformas por razones negativas también podrían hacerlo por razones positivas. Sigue habiendo actores estatales, como Irán, China o Rusia, que difunden propaganda, pero ahora también hay individuos que solo quieren monetizar audiencias. Han aprendido que el algoritmo recompensa el contenido emocional, que a menudo está lleno de desinformación, odio y puntos de vista extremos. El propio diseño de estas herramientas incentiva a la gente a usarlas de formas más extremas.
P. Cuando empezaron a difundirse los primeros deepfakes, se distinguían claramente. Hoy en día cuesta bastante más. ¿Qué efecto pueden tener en la democracia?
R. Es injusto esperar que los individuos puedan enfrentarse cara a cara con las empresas. No podemos pretender descargar en los usuarios toda la responsabilidad de distinguir qué vídeo ha sido manipulado. Incluso yo, dedicándome a ello, he caído varias veces en la trampa de vídeos generados por IA. Necesitamos que las empresas pongan límites básicos, como el etiquetado de contenido generado por IA o que se deje clara la procedencia del contenido. El problema es que ofrecen productos rápidos, gratuitos y divertidos, y mucha gente no entiende las consecuencias. Deberíamos decidir como sociedad no dar a unos pocos individuos en Silicon Valley tanto poder sin ninguna rendición de cuentas.
P. ¿Es realista intentar que las grandes tecnológicas rindan cuentas, dado el poder económico y político que acumulan?
R. Eso espero. Es la industria más poderosa de la historia. Pero creo que, cuanto más consciente sea la gente de que es manipulada, más exigirá un cambio. No abogo por destruir estas empresas, sino por construir un producto más seguro mediante regulaciones e incentivos financieros, como se hizo con el tabaco o la industria automotriz: hay que establecer pruebas de seguridad básicas y una transparencia auditable. Eso es todo lo que pedimos.

P. ¿Cree que necesitamos que ocurra algo realmente malo, como otro Cambridge Analytica, para que lleguemos a ese punto?
R. Depende de lo que entiendas por algo malo. En EE UU hemos visto recientemente un cambio importante en cuanto a la seguridad infantil en las redes. Cada vez más padres ven que estos sistemas explotan a sus hijos a través del diseño de los algoritmos y alzan la voz, porque no quieren que eso les pase a sus familias. Las dos sentencias de hace mes y medio [que concluyeron que Meta es culpable de engañar a los consumidores sobre la seguridad de sus plataformas y de generar adicción entre los menores] han sido importantísimas. Fueron capaces de demostrar que el problema no es de libertad de expresión, que en EE UU está blindada. Esto va de que el propio diseño de las redes ha hecho adictos a los niños. Es un problema de seguridad del sistema en sí.
P. El discurso del odio y el extremismo son premiados por los algoritmos de las plataformas, ya que generan más interacciones. ¿Cómo se puede romper esta lógica?
R. Por eso hablo del diseño. El discurso del odio no es ilegal en Estados Unidos. Sé que eso en Europa os choca mucho [se ríe]; en mi país, difundir propaganda nazi es libertad de expresión protegida. Lo llamamos “horrible pero authorized” (terrible however lawful). No digo que la empresa deba ser responsable si alguien publica teorías conspirativas. Lo que me preocupa es qué hay en el modelo de negocio que incentiva a la gente a hacer eso. No se trata del discurso en sí, sino de lo que hacen las empresas para usar tus datos personales para mantenerte enganchado al sistema.
P. Entonces, ¿deberíamos cambiar ese modelo de negocio? ¿Cómo?
R. Sí. Todo el modelo se basa en la capacidad de tomar nuestros datos y personalizar nuestra experiencia. Es un mecanismo increíblemente importante que hay que abordar. A menudo me preguntan si Zuckerberg influyó en las elecciones de 2016. Creo que esa es la pregunta equivocada. El hecho de que hayamos permitido que una sola persona acumule tanto poder sobre cómo entendemos la información, con el potencial de influir en unas elecciones sin rendir cuentas, es algo que debemos cambiar. Es un poder sin management que nadie debería tener.
