The M+G+R Foundation

Los hilos que mueven tu voto

por

Laura G. de Rivera

Escritora Española



INTRODUCCIÓN
por The M+G+R Foundation

El propósito de The M+G+R Foundation en reproducir en nuestra páginas este excelente artículo de Laura G. de Rivera es para alertar a nuestro lectores - a nivel global y no solo en España - como, y hasta que punto, nuestras mentes y acciones pueden ser manipuladas por terceros de manera que la población mundial lleve a cabo la agenda de dichos terceros.

Aunque la autora enfocó su artículo en las manipulaciones electorales, la información que ella provee se aplica en un 100% a todos los aspectos de las vidas de todos los seres humanos.


El Artículo


Bots, microsegmentación de la población internauta según su personalidad y sus intereses, mensajes diseñados a medida para cada perfil, burbujas de filtrado, fake news... La propaganda de precisión, basada en sofisticados algoritmos de inteligencia artificial, sirve para orquestar nuestro sentir político. Un arma que, según muchos, atenta contra los cimientos de la democracia.


No, la Comisión Europea (CE) no se gasta 80 millones de euros al año en bebidas alcohólicas. Tampoco es verdad que Podemos (un partido Español de izquierda) proponga que los inmigrantes ilegales cobren 1.200 euros al mes, ni que los senadores del PP (un partido Español de centro-derecha) aplaudieran la paralización de la subida de pensiones. Son solo algunos de los bulos que sirven para calentar los ánimos en vísperas de las elecciones.

De desmentir fake news, o noticias falsas, como estas, se ocupa Maldita.es, portal español perteneciente a
la IFCN, una alianza internacional de verificadores independientes de trece países europeos. De cara a las votaciones del 26 de mayo para el Parlamento Europeo, han creado la página factcheckeu.info, donde cualquiera puede comprobar si cierta noticia que circula por las redes es o no verídica. Es un tema que trae de cabeza a la Comisión Europea, tanto que este año ha invertido en combatirlo 5 millones de euros (el triple que en 2018).

Su inquietud no es para menos, cuando los partidos de ultraderecha nacionalista y antieuropeísta son los que mejor explotan a su favor la propaganda de precisión. Es decir, el empleo de algoritmos de inteligencia artificial para determinar perfiles de usuarios y para crear mensajes que apunten al talón de Aquiles de cada uno de ellos. Si no, que se lo digan a los estadounidenses. O a los italianos. O a los ingleses con su Brexit.


Todo apunta a que Steve Bannon, el que fuera director de la campaña en redes sociales de Donald Trump, ha desembarcado en Europa decidido a hacerse notar. Y es que sus estrategias digitales y populistas funcionan. Después de dejar su granito de arena en Estados Unidos, ayudó a ascender en las elecciones italianas al conservador Matteo Salvini, líder de la Liga Norte (un partido Italiano de extrema derecha). En España, ha catapultado al estrellato a Vox (un partido Español de extrema derecha) que, al cierre de esta edición, tiene más del doble de seguidores en Instagram que Podemos y cuatro veces más que el PP.

The Movement
, en Bruselas, y Dignitatis Humanae, en Roma, son las sedes europeas de los dos think tanks de Bannon para manipular la intención de voto gracias a técnicas de micro-targeting, que permiten segmentar a los ciudadanos por perfiles ideológicos, género, intereses, ubicación o conducta en la Red. La clave está en dirigir dardos envenenados a las audiencias que más se van a rebotar - y más van a reaccionar a tuits incendiarios, amplificando su efecto y su publicidad -, o a los sectores de indecisos. Al más puro estilo de Trump.

Otro frente al que teme la Comunidad Europea es Rusia. Y no se trata de una teoría conspiranoica ni de una película de James Bond, no. Un documento publicado en febrero por el Consejo de Ministros de la Unión Europea afirma que "los esfuerzos defensivos deben dirigirse a las fuentes rusas, que cada vez despliegan más estrategias de desinformación". En 2016, la campaña soviética para boicotear el proceso electoral estadounidense alcanzó, sólo en Facebook a 125 millones de usuarios, según datos del citado informe. Google y Twitter fueron sus otras dos dianas. pero no eran mensajes disparados al azar, sino diseñados a medida para targets específicos, e invisibles para el público general. "Los sentimientos individuales sobre ideas o candidatos políticos suelen ser muy impresionables y, por lo tanto, manipulables", aseguran Dipayan Ghosh y Ben Scott, investigadores del informe Digital Deceit, publicado el año pasado.

La propaganda de precisión está basada en las mismas técnicas de inteligencia artificial que usa el márquetin on-line personalizado. Pero ¿qué sucede cuando no se trata de vender coches, sino candidatos electorales? "Las herramientas de publicidad digital son perfectamente legales. Todos los implicados se benefician económicamente en este ecosistema. Han desarrollado estrategias brillantes de persuasión activa. Pero también han abierto la puerta a abusos que pueden dañar el interés público y la cultura política, debilitando la integridad de la democracia", advierte Ghosh. Es decir, lo peor que te puede pasar ya no es que te veas influido para comprar cierta marca de coche, sino que seas manipulado en tu visión política... y en tu voto.


En 2017, Stephen Paddock mató a 58 personas y dejó heridas a otras 851 en el mayor asesinato en masa cometido por un solo individuo en Estados Unidos. Cuando, a la mañana siguiente, los ciudadanos quisieron ampliar la noticia en Google, se toparon con varias webs en los primeros puestos de resultados que describían a Paddock como un simpatizante liberal y anti-Trump. Además, aseguraban que el FBI había revelado su conexión con el ISIS. Pero todo era falso. La estrategia perseguía apuntalar la popularidad de Trump y fomentar el miedo a los ataques terroristas. 4Chan, una cadena especialista en desinformación, se había pasado toda la noche trabajando para cargarles la culpa de la masacre a los demócratas. Lograron que sus noticias falsas burlaran el sistema de selección de resultados del buscador, cuando alguien Googleaba el nombre del asesino.

Aunque parezca sorprendente, la desinformación está protegida por la libertad de expresión, por eso es tan difícil de frenar. Lo que sí se puede parar son técnicas como la que funcionó en la noticia de Paddock. "El Black Hat SEO está diseñado para engañar al algoritmo de búsqueda de Google durante unas horas, antes de que pueda corregir la distorsión. Es un arma crítica en el arsenal de propaganda de precisión. Los resultados de búsqueda sobre temas de actualidad juegan un papel clave para dar forma a la opinión pública. Por eso, su manipulación es un peligro para la integridad del debate político", denuncia Ghosh, que además fue consejero de tecnología en la Casa Blanca durante el mandato de Barack Obama. Por ejemplo, cuando quieres enterarte de qué dijo tal candidato en su reciente aparición pública y lo googleas, el Black Hat SEO puede hacer que los primeros puestos de resultados sean de páginas con bulos para desprestigiar al personaje en cuestión.

Imagina que eso no te pasa solo a ti, sino a millones de personas más al mismo tiempo. Supón que, además, esas noticias engañosas resultan tan verosímiles y atractivas que no solo te las crees, sino que las compartes y tuiteas a tus amigos. Eso multiplicado por millones. En menos de lo que tardas en echarte la siesta, ya se ha hecho viral. La onda expansiva es tan inmensa, para empezar, porque Google es el método de búsqueda de información que emplea el 85% de los internautas del mundo. Y porque los cinco primeros resultados de la búsqueda se llevan el 75% del tráfico en la Red. Y el primero, el 95%.

Más sofisticada es otra herramienta que les valió la victoria aplastante a Obama en 2012, a Trump en 2016, al presidente francés Emmanuel Macron en 2017, a los defensores del en la campaña del Brexit o al presidente Uhuru Kenyatta, en Kenia, en 2017. Hablamos del software de gestión de redes sociales o Social Media Management Software (SMMS), que se ocupa de determinar qué grupos de personas son más adecuados para dirigirse a ellos. Tras recabar datos personales de millones de usuarios, bien a través de su compra en el mercado de información o cosechados online, este software segmenta la población para decidir cómo mostrarles un determinado mensaje. Es lo que ocurrió en la campaña de Trump: "De cada frase del candidato hicieron once versiones muy refinadas, para perfiles psicológicamente diferentes. Cuando conozco tu personalidad, conozco tus miedos, y ahí está la clave, ahí es donde empieza el lavado de cerebro. Esto se llama populismo, no democracia. Es ajustar mi charla a lo que tú quieres escuchar", afirma Martin Hilbert, profesor de Comunicación en la Universidad de California y asesor tecnológico de la Biblioteca del Congreso de EE.UU.


En la misma línea, el llamado filter bubble o 'burbuja de filtrado' identifica la parte del programa electoral con la que podrías estar de acuerdo, para bombardearte solo con esa idea. Es lo que se hizo con gran éxito en la campaña de Obama, tal como nos cuenta Hilbert, donde crearon una base de datos de 16 millones de votantes indecisos, con el fin de enviarles propaganda a medida y ganarlos para su causa. "Podías estar en desacuerdo con su programa político en un 90%, y estar de acuerdo con una sola de sus promesas electorales. Si te muestran todo el rato - en tu feed de Facebook, en Twitter, etc. - mensajes sobre esa única idea afín a tu modo de sentir, acabas pensando: 'Mira, qué bueno es Obama'. La burbuja de filtrado es tan potente que cambiaron la opinión del 80% de la gente que atacaron de esta manera. Así ganó Obama las elecciones", recalca Hilbert.

Como guinda, los servicios de escucha de las redes sociales también ayudan a afinar los mensajes. "Por ejemplo, si mucha gente empezaba a tuitear sentimientos negativos sobre un comentario hecho por Hillary Clinton, el SMMS dirigía su propaganda pro-Trump a esos usuarios", aclara Ghosh. Aquí es clave el papel de los algoritmos de inteligencia artificial que toman decisiones complejas en tiempo real para determinar qué tipo de contenido envían a qué segmento de la población.


Y es que esos algoritmos te conocen mejor que tu propia madre. Lo sabe bien el experto en psicometría Michal Kosinski, hoy investigador en la Universidad de Stanford. Un buen día, cuando trabajaba en la de Cambridge, decidió comprobar cuánto podía saberse sobre el perfil psicológico de una persona estudiando su actividad en Facebook, en concreto, las entradas en las que pulsaba 'like'. Hizo un experimento con millones de voluntarios: les aplicó test psicológicos y estudió su comportamiento en la red social. A partir de ahí, creó borradores cada vez más refinados de un algoritmo de inteligencia artificial capaz de hacer una radiografía a tu forma de ser, solo con tener acceso a tu página de Facebook.

Con 68 'likes', Kosinski demostró que su programa podía predecir la personalidad con bastante certeza, incluso el color de piel de una persona - con un 95% de aciertos -, su inclinación sexual - 88% - o su filiación política - 85% -. No contentos con eso, comprobó que con 150 'likes', el algoritmo podía deducir cómo era alguien mejor que sus propios padres. Eso incluía sus necesidades y miedos más íntimos y cómo era de esperar que se comportara.

Enseguida, el joven Kosinski intuyó el peligro que podía tener esta herramienta en las manos equivocadas. Si alguien era capaz de conocer con tanta profundidad a cada uno del océano de usuarios de Facebook, podría usar esos conocimientos para dirigirles afinadas técnicas de persuasión... o para perseguir a los homosexuales, a las mujeres árabes liberales, a los disidentes en regímenes totalitarios... Sus hallazgos podían suponer una amenaza para el bienestar de un individuo, su libertad o, incluso, su vida, empezó a advertir el propio Kosinski en sus publicaciones científicas. Y eso fue precisamente lo que pasó, al menos, en lo que respecta a la libertad de pensamiento.

Aunque este investigador no estaba dispuesto a vender su programa algorítmico para fines comerciales o políticos, no pensaba lo mismo su colaborador Aleksandr Kogan, que firmó un acuerdo en 2014 con la compañía británica Cambridge Analytica para proporcionarles un programa similar, según revelaba el diario Británico The Guardian. Para ello, recolectaron de Facebook una base de datos de millones de votantes estadounidenses, sin avisar con qué propósito iban a usarse. No se descubrió el pastel hasta 2017, algo tarde, porque el invento ya lo había probado con éxito Cambridge Analytica en dos de las campañas más sonadas para las que ha sido contratada: la presidencial de Trump y la del Brexit en el Reino Unido.


"Tengo el honor de hablarles hoy del poder del big data y la psicometría en los procesos electorales", anunciaba su flamante CEO, Alexander Nix, en una conferencia en el Concordia Summit de 2016, donde se vanagloriaba de poseer "un modelo para predecir la personalidad de cada adulto en Estados Unidos". En sus bases de datos, tenían a 220 millones de sujetos catalogados en 32 perfiles de personalidad.

Otra compañía similar, que también trabajó para Trump en las elecciones estadounidenses, es Harris Media LLC, con base en Texas. Según el grupo en defensa de los derechos civiles Privacy International (una ONG) Harris Media fue contratada en las elecciones de Kenia en agosto de 2017 por el partido en el poder y utilizó datos de las redes sociales para dirigirse a determinadas audiencias. "Nos preocupa el rol y la responsabilidad de los asesores que trabajan en las campañas políticas en Kenia, donde la afiliación tribal y la religión de origen son datos muy sensibles políticamente", denunciaba la ONG en un comunicado a Reuters. Noticias falsas y troles dominaron la discusión pública y alimentaron la tensión y los enfrentamientos étnicos en los días previos a las votaciones.

Luego están los bots. En agosto de 2017, Trump agradeció en un tuit a una tal Nicole Mincey por haberlo felicitado por "trabajar para el pueblo norteamericano". Con 150.000 seguidores en Twitter, Mincey parecía ser, por sus comentarios y su foto, una afroamericana seguidora del líder republicano. Pero resultó que, en realidad, no era más que el avatar de un programa informático.


El mismo Trump reconoció que no habría ganado las elecciones sin Twitter. Pero, tal vez, no fue por el apoyo de los internautas, sino por el ejército de bots que amplificaron su alcance. Se trata de cuentas que no pertenecen a usuarios reales: son gestionadas por un software encargado de imitar la conducta humana. En mayo de 2017, un estudio de la Universidad de Georgia demostró que pueden servir para difundir mensajes políticos de forma masiva y convertirlos en trending topic (tema del día) en solo unas horas, simulando que son gente de carne y hueso la que está compartiendo su sentir o su opinión.

Se especializa en estas técnicas la agencia rusa Internet Research, también conocida como Kremlinbots o Trolls de Olgino. Su granja de bots produjo y diseminó miles de posts en Facebook e Instagram para apoyar la campaña del magnate rubio en las pasadas elecciones de Estados Unidos, tal y como reportó en profundidad la revista Wired. De hecho, en febrero de 2018, el Departamento de Justicia estadounidense condenó a esta agencia por haber interferido con sus procesos políticos.

Métodos similares se emplean en China y en Rusia para apoyar las ideas del régimen o desviar la atención de asuntos delicados. Y han saltado a la palestra en otros muchos países, como Francia, donde protagonizaron un intento fallido de desprestigiar a Macron antes de las pasadas elecciones.

Los bots políticos son muy útiles para difundir cientos de miles de comentarios de apoyo a un candidato... o para acosar a un contrincante o a un activista molesto con una riada de comentarios agresivos. "Su misión es engañar al público, hacerle creer que son personas quienes están expresándose en Internet y que sus mensajes representan la opinión de una mayoría de la sociedad", advierten los expertos en la materia Renée DiResta, John Little, Jonathon Morgan, Lisa Maria Neudert y Ben Nimmo, en un artículo publicado en Motherboard. Por si fuera poco, también se puede introducir en el programa de inteligencia artificial de estos autómatas la habilidad de buscar y detectar en la Red a individuos afines a determinada línea ideológica, para conectar con ellos y enviarles su propaganda, pues estos nuevos aliados humanos serán más proclives a difundirla después - sin saber que están siendo manipulados por bots, claro -.

Cuando empezó la interminable campaña del Brexit en el Reino Unido, no estaba tan clara la victoria de los independentistas. Es más, los primeros sondeos aseguraban que ganaría el no: quedarse en la UE contaba con muchos e importantes defensores. Pero no tenía a su lado una buena compañía de propaganda de precisión. Es uno de los temas que ha estudiado a fondo Vyacheslav Polonsky, investigador del Instituto de Internet de Oxford, que analizó 28.000 entradas en redes sociales y unos 13.000 hashtags para sacar sus conclusiones.

"Nos dimos cuenta de que las personas escépticas hacia la UE y los que apostaban por el Brexit dominaban el debate y eran más efectivos en su uso de Instagram para activar y movilizar a la gente en todo el país. También tendían a ser más apasionados, activos y extrovertidos en su conducta online. Generaban de media casi cinco posts por cabeza más que sus oponentes", señala. AggregatIQ, filial canadiense de Cambridge Analytica, fue contratada por los defensores del Brexit para la campaña. Sus mensajes pudieron llegar hasta siete millones de personas, según un artículo de marzo en el diario Español El Mundo, aprovechando el nicho de los indecisos y de quienes sentían resquemor hacia la inmigración.

Otro caso que Polonsky ha examinado es el éxito en la campaña online de Macron en las elecciones galas de mayo de 2017. "Todas las interacciones con los simpatizantes eran grabadas y analizadas semánticamente mediante algoritmos avanzados para extraer palabras clave que resonaran en los votantes. Estas palabras clave eran usadas luego por Macron en sus discursos, adaptadas a diferentes audiencias y regiones. Los mítines eran retransmitidos en vivo a través de Facebook, mientras un equipo de creadores de contenido armaba cada tuit con una dedicación artesana", explica Polonsky.

Así las cosas, no hay duda de que las nuevas estrategias de propaganda de precisión han llegado para quedarse. Nos hallamos, en palabras de Ghosh, en "la era de la desinformación algorítmica". Según Polonsky, "estamos siendo testigos del amanecer de una nueva frontera, donde la política es la guerra y el big data es una de las armas más poderosas de su arsenal". Eso implica que quien domine el nuevo armamento liderará el discurso político y los corazones de la gente en la nueva y dudosa democracia digital. Porque, como nos recuerda este experto, "en Facebook, Twitter e Instagram, todo el mundo puede hablar, pero no todo el mundo puede ser escuchado". Y ya no se trata de tener carisma o un discurso político de calidad: la clave está en tener de tu lado a los mejores expertos en algoritmos.

____________________
 Fuente original:  "Los hilos que mueven tu voto" de Laura G. de Rivera, pp. 22 a 28. Revista Muy Interesante - Número 456 - Mayo 2019 (España)



Documento Publicado 24 de Junio de 2019 [Solemnidad del Nacimiento de Juan Bautista]

© Copyright 2019 por Muy Interesante (España)

The M+G+R Foundation
Sobre Nosotros  y  Preguntas Frecuentes sobre Nosotros


PÁGINA DE INTRODUCCIÓN AL DOMINIO (en Inglés)

PÁGINA PRINCIPAL - English

PÁGINA PRINCIPAL - Español

PÁGINA PRINCIPAL - Portugues
 

Sitio de emergencia de la PÁGINA PRINCIPAL


Nuestro Apartado de Búsquedas

Para buscar información en nuestro dominio Pinche Aquí

Índices generales de documentos: - Ordenado por Título y Nombre de Fichero


 
Future Use

Nota:
Si la imagen de arriba no aparece sobre este documento, significa que no está usted viendo el documento original de nuestros servidores. Si tiene alguna duda sobre la autenticidad del documento, le recomendamos que acceda a nuestro servidor otra vez y pinche sobre el botón de "Refrescar" o "Recargar" de su Navegador para ver el documento original.

Si desea ponerse en contacto con The M+G+R Foundation, Pulse Aquí y siga las instrucciones.