TodЛs somos políticЛs. TodЛs hacemos política.

Un bot (versión acortada de robot) es un programa autónomo que está programado para realizar algún tipo de tarea generalmente imitando algo que haría un humano. El interés porque un ordenador nos conteste como un humano e incluso nos engañe ha estado casi desde el origen de la informática. Alan Turing habla de las posibles controversias de un sistema autónomo que imite a los humanos en su ensayo “Computer machinery and intelligence”, listando los distintos problemas que pueden tener y que posiblemente los expusiese como los “falsos humanos” que son. Si bien los bots son mucho más simples por lo general que el concepto de inteligencia artificial que Turing analiza en su ensayo, ya nos muestra la preocupación de que nos den gato por liebre digital. Los experimentos con programas conversacionales llegan a un punto interesante con la aparición de ELIZA, uno de los primeros bots conversacionales (de la década de los sesenta) que imitaba a una psiquiatra. Poco a poco el avance de informática (tanto en rapidez, como en almacenamiento y en la versatilidad a la hora de programar) han facilitado el uso de bots simples que automatizan funciones de los usuarios. Por ejemplo, Telegram tiene un tutorial sobre la creación de bots con sus servicios y animan a que la comunidad los cree, habiendo para todo: desde “mayordomos digitales” para grupos, hasta calendarios, bots que envían fotos de gatitos o que te facilitan jugar a rol; cualquier cosa.

Calvin and Hobbes

El peso de las redes sociales en la actualidad ha llevado a las diferentes personalidades políticas y de interés público en general a medir su presencia en ellas. Es muy común los usuarios que procuran dañar la imagen virtual de estas personalidades públicas rescatando viejas publicaciones, respuestas y fotos que a veces contradicen su postura pública o resulta bochornoso.

Hace poco el presidente de los Estados Unidos, Donald Trump, fue forzado a no bloquear a usuarios en Twitter puesto que la constitución estadounidense requiere que la línea de comunicación entre los ciudadanos de Estados Unidos con su presidente sean limpias y sin barreras (Según la primera enmienda) y un tribunal falló en favor de la oposición al presidente, que exigía esta curiosa medida. Aunque este caso es meramente una anécdota, demuestra las situaciones a las que las redes sociales pueden llevarnos a causa de su peso. Es por esta importancia que han aparecido sistemas para realzar la imagen digital de un usuario o, por el contrario, mancillarla.

Debido también a la aparición de Internet en nuestras vidas, las estrategias políticas y publicitarias se han vuelto más transparentes. Aunque posiblemente esto sea una consecuencia a que los partidos, sindicatos y empresas no se han integrado tan bien las redes como el resto de la sociedad. Nos permite ver un suceso que aunque no reciente sigue siendo bastante relevante: La enorme cantidad de bots políticos que pueblan las redes sociales. Aunque esta no es la única técnica que usan los partidos en redes, casos más flagrantes son cuentas de propaganda conocidas como shills, lo que no ensombrece la presencia de los bots.

Cuando el uso de Internet era anecdótico, el interés por los bots estaba reservado a investigadores y apasionados de la ciencia ficción. Sin embargo ese interés ha trascendido mucho más en el momento que Internet ha encontrado su hueco de peso en la sociedad. En el momento en que nuestra identidad digital es limitante en el mundo, los bots adquieren una nueva tarea: ser armas digitales de influencia social. La rapidez con la que la información se mueve en las redes deja poco espacio a la reflexión de ese contenido, incluso a compararlo. Los bots en este contexto son convenientes, puesto que un usuario puede no darse cuenta en primera instancia de la naturaleza artificial de un usuario-bot y crearse una opinión en base a estas acciones programadas. Por ejemplo, puede que un usuario de interés público esté usando un puñado de bots para aumentar su número de seguidores (como el PP en España) , una cifra que (por cómo están diseñadas las redes) nos generan instintivamente una idea de importancia sobre este usuario. O puede que un bot esté programado para difamar (con falsas o ciertas acusaciones) de forma automática e implacable a un usuario o un grupo de usuarios. También existe la posibilidad de usar bots para crear perfiles atractivos a una demografía concreta, con la intención de que caigan en algún engaño tal como enviar dinero a una cuenta, enviar un virus informático o similar.

La estrategia y objetivo final que tienen estos bots es una vieja conocida por aquellos que hacen marketing, se trata de astroturfing: dar la impresión de que las ideas propagadas son completamente espontáneas y provienen del entorno social, ocultando las acciones de la entidad política que esté detrás de ello. Si visitamos el último tweet de cualquier político con fama moderada, encontraremos que la gran mayoría de los comentarios al tweet vendrán de cuentas que no están ligada a ninguna persona real y que están muy en contra de cualquiera que sea la cosa de la que habla dicho político; curiosamente en España Abascal tiene muy pocos bots y shills en contra suya en sus comentarios, invitamos a los lectores a deducir los motivos. Si vemos cualquier trending topic tangencialmente político encontraremos exactamente lo mismo, una miríada de comentarios provenientes de cuentas falsas. Por suerte para el usuario promedio, el hecho de que surja de manera tan poco espontánea hace que sea fácil ver la falsa espontaneidad detrás de esto. Lo que no hace que deje de ser efectivo.

El astroturfing en política no es una invención moderna, y no se ejecuta solo en las redes sociales. Por ejemplo la plataforma de empresarios de Gran Vía, principal grupo reaccionario ante el proyecto de Madrid Central no existe, incluso su página web empresariosgranvia.com te redirecciona a una empresa de limpieza localizada en Alcobendas. España no es el único país en el que esto sucede. Otros ejemplos son la intervención Rusa en las pasadas elecciones presidenciales americanas o la actual influencia que ejercen en redes para atacar a políticos non gratos y así debilitarles de cara a la opinión pública.

Por cada situación política influyente en redes sociales es común encontrar estos bots generando cierta incertidumbre e inseguridad sobre la veracidad de la información que se comparte. A día de hoy existe un campo de batalla político enorme alrededor de las protestas de Hong Kong, en el que los bots también están tomando parte. Aunque parece que  la gran mayoría de la población  de Hong-Kong está en contra de la ley de extradición y la “continentalización” de la ciudad, el partido comunista ha hecho varios esfuerzos por simular un apoyo a la ley de extradición con cuentas en redes sociales que acosan a manifestantes haciéndose pasar por nacionalistas chinos, los conocidos como el 50-cent party (五毛党) .  A mediados de agosto, una fotoperiodista local que se encuentra cubriendo las protestas, informó a Paula con preocupación sobre la cantidad de cuentas “sospechosamente nuevas” que se dedican a insultarla y amenazarla a ella y a su familia a través de comentarios de Instagram. A pesar de la dificultad de análisis al estar en chino simplificado, es evidente que las sospechas de la mujer sobre que sean bots son más que probables. ¿Cómo puede verse? Hay una serie de pistas, que no tienen porqué cumplirse todas pero pueden llevar a duda: si los mensajes son repetitivos, no responden a contestaciones, son cuentas nuevas, tienen nombres raros (formados por una combinación aleatoria de número y/o letras)  y no siguen a otras cuentas o solo siguen a cuentas similares, sino que sólo siguen una estrategia de “ataque y derribo”, son probablemente bots.

¿Cómo es que el uso de los bots en redes sociales se ha vuelto un arma habitual tanto para la política nacional como la internacional?

Un simple análisis de la curva de beneficio del bot lo explica fácilmente. Asumamos que un agente político que encuentra en la situación de elegir si va a hacer uso de un número fijo de bots. Estos bots actuarían de forma individual pero coordinada creado una red. Asumamos también y por simplicidad que actúan bajo una intención de marketing tal y como la explicada antes sobre el astroturfing. Haciéndose pasar por personas que están a favor de un político, para así dar la sensación de que es apoyado popularmente y ganar apoyo en unas elecciones. La curva de beneficios de esta red definiría así su utilidad:

U(n)=V(n)-C(n)

Siendo n el número de bots en la red. V la curva de votos ganados, una función positiva con rendimientos marginales decrecientes (a mas bots más beneficios, pero cada bot añadido reporta menos beneficio que el anterior). Y C la función de costes. Que sería linear, ya que cada bot genera el mismo gasto que el anterior.

Sabemos por cómo se genera un bot, que el coste marginal es tan bajo que prácticamente podríamos excluir ese término de la ecuación. Por otro lado, la efectividad de los bots para ganar apoyos está probada. Por lo que existiendo beneficios que superan los costes, es solo lógico que sean usados. Pero falta un elemento en la ecuación:

U(n)=V(n)-C(n)-p(n)E

La función de probabilidad p creciente con respecto a n, que definiría la posibilidad de que el uso de bots se descubriera y se desatara un escándalo con un coste E. Mientras que los otros dos términos son relativamente exógenos a la capacidad de actuación, el coste de E no debería serlo. Y es potencialmente la única manera de hacer que los partidos no hagan uso de los bots, el miedo al escándalo. Esto no parece que esté siendo así en España al haber descubierto recientemente cuentas de varios partidos que seguían este propósito y la escasez de indignación como respuesta en el pueblo. Dos maneras de castigar este nocivo comportamiento es legislar la prohibición o penalización por multa de la creación de falsas identidades en Internet, lo que no sucederá al existir un conflicto de intereses ya que los partidos hacen uso de la estrategia; o crear un sentimiento social de rechazo hacia estas actitudes, lo que aumentaría el coste de E y permitiría que los partido interiorizaran la grave externalidad que generan al crear identidades falsas.

Incluso si fuera viable puede que esta no sea la solución correcta para este problema ya que la primera cuestiona principios éticos sobre la anonimidad en Internet, y la segunda es una muestra de ingeniería social que es bastante poco ética per se. Una tercera vía sería incrementar la concienciación de la gente sobre la existencia de este problema. Disminuyendo la influencia de estos bots y por ende la utilidad recibida. En cualquier caso, la aparición de los bots en redes no parece ser un evento temporal y seguramente sea persistente por mucho tiempo. Internet es un enorme campo de batalla en la guerra de la información, y si de verdad queremos salir ilesos de esta guerra el primer paso es concienciarnos nosotros mismos y ser escépticos. Una de las reglas no escritas de Internet es: Only a fool would take anything posted here as fact. Es hora de que apliquemos esta regla a las redes sociales y a nuestra intuición política en redes.