Los bots en la discusión política ¿Hasta dónde negarles participar es censura?

Verónica González-List

En el acto de solidaridad con el pueblo y gobierno bolivianos, realizado por el Instituto Nacional de Formación Política del partido Morena el pasado 28 de junio de 2024[1], el monero Rafael Barajas El Fisgón, refiriéndose a la discusión que ocurría en las redes sociales donde se expresaba el rechazo a que el actor Sergio Mayer, quien era identificado como conservador, recibiera una diputación de Morena, dijo: “Es una estupidez del tamaño de una catedral [pedir que se quite a Mayer]… y sí tenemos que decirles a los compañeros que están friegue y friegue… que se callen, que maduren, que crezcan, que sean responsables”.

Las palabras del monero suscitaron un amplio y rudo debate en X. En el contexto de esa discusión, tanto en las redes sociales como en espacios mediáticos donde fue entrevistado a propósito de este acontecimiento, Barajas aseguró que los ataques que estaba recibiendo eran orquestados por entes automatizados e intereses políticos de la derecha que, buscando desprestigiar al partido o a la 4T, lo atacaban.

El 3 de julio de 2024, Morena publicó una carta abierta[2] donde alude a la toxicidad de la interacción en las redes sociales en el contexto electoral y ante la incorporación del actor Sergio Mayer, pero no menciona el conflicto alrededor de lo que dijo el monero. Debido a que la carta se publicó cinco días después de pronunciadas esas palabras y un mes después de los comicios, sospecho que el disparador del comunicado fue el conflicto con Barajas y no el proceso electoral. En la carta se afirma que tanto cuentas automatizadas, como un colectivo de usuarios financiados por grupos contrarios al partido, lo atacan, y afirma que el debate debe llevarse a cabo “entre ciudadanas y ciudadanos que den la cara”.

Sobre esta afirmación de que las personas que participan políticamente en las redes sociales deben “dar la cara”, vista como fenómeno, trata este ensayo.

Los bots en la discusión política

Dice Mercedes Bunz que “el marco conceptual de la contienda o competencia entre humanos y máquinas no es adecuado para comprender la digitalización” (2017, pág. 22). Se refiere a que el ancestral miedo a que los hombres sean sustituidos por máquinas, es un contexto diferente al de la digitalización. Bunz enfatiza que se requiere “aprender a entender de qué manera en concreto los algoritmos reorganizan el conocimiento” [3] (2017, pág. 24), para tomar decisiones respecto a la participación de los algoritmos en el ámbito del conocimiento y la información. Ya no se trata de cómo las máquinas de la revolución industrial automatizaron el trabajo humano, sino de cómo los algoritmos de la revolución digital nos asisten en el conocimiento (2017, pág. 14). El conflicto con los robots de antes era por el trabajo. El de hoy, es por el conocimiento. No es lo mismo. Y entiendo el fraseo “aprender a entender” más como disposición, como estar listo, que como entendimiento o comprensión en sí mismos: es más importante mostrar apertura al hecho de que los algoritmos están reorganizando el conocimiento, que la comprensión puntual de cómo operan los algoritmos que reorganizan el conocimiento.

En su carta “La victoria del pueblo, ante las intrigas digitales”, el partido Morena afirmó que “muchas personas de buena voluntad, militantes y simpatizantes de Morena” estaban siendo manipuladas. De ese modo ofendió la inteligencia de quienes expresaron libremente su repudio a lo que dijo el monero y afirmó que no tienen un pensamiento independiente o crítico porque no discurren que están “haciendo eco de una andanada”. Con esta estrategia, el monero buscó invalidar la discusión misma, cuestionando a la cuenta @catrina_nortena (La Catrina Norteña) en X, que fue identificada como la principal promotora del debate. El monero insistía en que la persona detrás de esa cuenta debía “dar la cara” para demostrar que no era una “granja de bots” o un autómata financiado por la derecha. Argumentó que sin esa prueba que exigió tanto en la propia red como en otros espacios mediáticos que atendieron este suceso, la cuenta mostraba su coincidencia con estructuras digitales creadas por los conservadores, destinadas a calumniar y desprestigiar al movimiento de la 4T. Para el monero, era un requisito que la administradora de la cuenta @catrina_nortena demostrara ser una persona de carne y hueso, para que su participación en la discusión fuera válida.

En lo que esta pluma considera un exceso del esfuerzo por desdibujar el origen del conflicto en las palabras del monero, Morena publicó esa carta donde afirma que todo el ataque fue orquestado por cuentas encubiertas, y ubica el problema en el contexto del triunfo electoral sucedido el mes inmediato anterior al suceso, con estas palabras:

El debate y la crítica de todo asunto público son necesarios y deseables, siempre y cuando se lleven a cabo entre ciudadanas y ciudadanos que dan la cara. Si se permite que protagonicen la discusión cuentas anónimas, apoyadas por maquinarias automatizadas y granjas pagadas para distorsionar la opinión pública, se abre paso a la infiltración de la derecha, ahora dispuesta a fomentar la división, el odio y el conflicto en nuestras filas utilizando los recursos ilimitados con los que fracasó en el reciente proceso electoral.

No niego que esas estructuras de la derecha hayan participado o podido participar, capitalizando el problema. A río revuelto, como dice el clásico. Pero para resolver el conflicto, habría sido más útil, menos confuso y más transparente, que el monero se disculpara. En lugar de eso, el partido optó por generalizar la opinión de todos los que vertieron su rechazo a la conducta del monero calificándola como acciones desprovistas de raciocinio y discernimiento realizadas en granjas, y convirtió indiscriminadamente en enemigos hasta a los amigos que opinaron que el monero fue irrespetuoso con sus filas.

Demandas de “dar la cara” han sido manifestadas en las redes sociales como justificación para invalidar la interacción con quien expresa una opinión que incomoda. El señalamiento busca desacreditar a la persona para, de ese modo, invalidar su argumento. Pienso que la acusación revela más la incapacidad argumentativa del que acusa, que la posibilidad real de que detrás de la cuenta que responde, un robot esté manejando el teclado. Pero la acusación se queda en la red, es muy común que se manifieste y revela una desvalorización de los participantes. Habría que preguntarse si los usuarios que participan en las redes sociales ejercen o no su pleno derecho y hacen uso de sus libertades, al elegir no mostrar sus fotografías o sus nombres reales en sus perfiles. Y en seguida también preguntarse hasta dónde, el hecho de que una persona ponga una fotografía y un nombre con apellido en su perfil muestra de modo auténtico una imagen y un nombre que en realidad corresponden a la persona que administra la cuenta. Con excepción de los funcionarios y de las personalidades públicamente reconocidas, los perfiles de las personas comunes y sin presencia mediática en las redes sociales difícilmente se pueden corroborar, y esto, sin embargo, no constituye —no debería ser— una limitante ni una restricción a su libertad de expresión. También en la vida física las personas pueden cambiar sus nombres, alterar sus apariencias u ocultar sus rostros, sin inhibir por ello su libertad de expresión. Y en otro sentido, al afirmar que son bots o granjas de bots los que atacan a una personalidad, entidad o iniciativa en las redes sociales; esa personalidad, entidad o iniciativa se exime de asumir una responsabilidad o de reconocer un error cometido, con el argumento de que es atacada por bots.

Considero irrelevante si las interacciones que suceden en X son realizadas entre seres de carne y hueso y robots; entre personas que postean gratis y personas que postean porque son remuneradas; o entre personas sin agendas ni financiamiento y granjas de autómatas tratando de hacerlas cambiar de religión, porque en la vida física sucede lo mismo. Nadie puede determinar la verdadera intención de la persona con quien interactúa, y sin embargo, todos aprenden a escuchar a sus entrañas. Y cuando poniendo oídos sordos a la intuición se otorga credibilidad al otro, se acepta que puede estar engañando. Las personas somos seres con pensamiento propio, no robots.

No estoy diciendo que se nota cuando los posteos son escritos por robots. No se nota. De hecho, los robots están escribiendo con ortografía y sintaxis mejor alineadas a las normas que muchos humanos. Lo que digo es que no es relevante si la interacción que sucede en las redes sociales se realiza entre personas y robots, porque son las personas y no los robots quienes deben desarrollar las corazonadas que las lleven a aceptar o rechazar los argumentos. Además, no importa si el debate se realiza entre autómatas y seres de carne y hueso, porque lo que importa es el asunto del debate y el punto nodal de las opiniones de los interlocutores. Y de hecho, en otro ángulo, es deseable que haya debate aunque sea con máquinas, porque las personas se entrenan en debatir, se obligan a argumentar, se fuerzan a investigar para fundamentar, y aprenden a defender sus posiciones políticas.

No es posible distinguir personas de bots en las redes sociales

Ni siquiera los expertos en análisis de redes pueden asegurar a pie juntillas cuándo hay robots en la interacción. Los que lo aseguran, deberían abstenerse. Dado que recogen cantidades mastodónticas de datos para realizar sus investigaciones, en sus conclusiones afirman que sus resultados se aplican al universo, pero en sentido estricto y por amor a la verdad, muchas veces deberían ser más puntuales en sus aseveraciones. Aunque hayan recogido cantidades industriales de datos, sus conclusiones sólo aplican a los datos que recogieron, al tiempo que datos que quedaron fuera podrían contradecir las conclusiones del estudio mismo. El hecho estadístico de que mientras más grande es la n, más confiable es el resultado, no significa que la totalidad del universo haya sido analizada. Lo que demuestra el análisis de redes es que existe lo que, por descontado, sabe que existe, porque lo busca programando su software. Lo triste es cuando afirma que lo que no encontró no existe, cuando es probable que exista pero que haya pasado desapercibido a sus algoritmos. La práctica de argüir que tal o cual cosa es “innegable” o que está “científicamente demostrada” porque fue encontrada con análisis de redes, ha causado que se ciudadanice la idea de que en las redes sociales sólo existe lo que el Big Data puede recoger.

Dado que los propietarios de las redes sociales no comparten los algoritmos con los que programan sus plataformas, nadie puede afirmar a ciencia cierta cuáles sí y cuáles no son conversaciones automatizadas, financiadas o naturales, en la interacción entre sus cuentas. Cuando la investigadora neerlandesa José Van Dijck (2013) escribió su historia crítica de las redes sociales, le pidió a Mark Zuckerberg, en honor a la transparencia, que revelara la forma en que programa los algoritmos de Facebook. El empresario simplemente la ignoró, a pesar de que en 2010, cuando fue nombrado “persona del año” por la revista Time, le prometió al mundo apertura y transparencia con su slogan “Making the Web more social”. Ningún dueño de las diversas plataformas ha transparentado nada respecto a cómo operan sus algoritmos. Si Van Dijck, con su equipo de investigadores, su financiamiento de gran calado, y sus centros de investigación involucrados en la producción de su libro no pudo hacer que Zuckerberg soltara la sopa, nadie puede. Hoy, lo que hacen los analistas es inferir con ingeniería inversa y otras técnicas, cómo funcionan los algoritmos, pero cuando alguien dice “Facebook es de derechas porque me banea”, o “Twitter es neoliberal porque elimina los mensajes de las chairas” eso, en estricto sentido, no puede demostrarse. Voy a poner ejemplos de mi experiencia cuando realizaba la investigación doctoral, porque pueden aportar claridad a lo que aquí describo.

En la conferencia matutina del 4 de noviembre de 2019[4], el presidente Andrés Manuel López Obrador presentó un estudio donde mi cuenta de X —entonces Twitter— y la de un usuario con quien interactuaba por mensajes directos porque recabábamos firmas en pro de la consulta para el juicio a expresidentes, fueron catalogadas como administradas por robots y opuestas al presidente. En esa ocasión, el experto en Big Data que clasificó nuestras cuentas afirmó: “Nosotros identificamos con las herramientas correspondientes cuándo se trata de bots, dependiendo de los tiempos de trasmisión en que se hace el tuit o el retuit, que tiene que ser menor a [equis cantidad de] milisegundos”. Este hecho lo registré en mi tesis para dar un ejemplo del modo alarmante en que el Big Data puede equivocarse. Por postear rápido, nos quitaron la humanidad y nos incluyeron en un listado de una posición política opuesta a la que tenemos.

Durante el confinamiento del COVID-19, y por razón del encierro, muchos usuarios postearon en las redes más tiempo del habitual. Tres de mis informantes incrementaron geométricamente sus números de seguidores debido a lo que publican, pero si se observa ese fenómeno sin considerar el contexto pandémico, puede afirmarse con premura que recibieron financiamiento o que los robots comenzaron a seguirlos en un lapso muy corto de forma “sospechosa”.

A uno de mis colaboradores, los expertos del ITESO, en un espacio con Carmen Aristegui, lo clasificaron como semibot. El tuitero se molestó mucho y en la red increpó a Carlos Páez, de Signa Lab, preguntándole: “¿Cómo determinaste eso?”. La respuesta que recibió del experto fue: “Ustedes no saben cómo hacemos los algoritmos”. En estas lógicas, las personas de carne y hueso no deben sangrar cuando se hagan una herida mientras no entiendan los algoritmos del Big Data que demuestran que son bots.

Aunque lo afirme con contundencia y acompañe sus conclusiones con mapas de coocurrencias y datos estadísticos correctamente calculados, el Big Data no tiene las capacidades para determinar quiénes son humanos y quiénes bots. Se equivoca porque sus algoritmos, con criterios relacionados con la velocidad, el volumen o la frecuencia, clasifican como artificiales conductas que, aunque sean anómalas, pudieron haber sido realizadas por humanos. Dado que levanta cantidades ingentes de datos, publica sus resultados soportando sus argumentos en millones de evidencias. Pero la quisquillosa y mesurada lente del análisis cualitativo observa serios errores. Tan serios como decir que una persona de carne y hueso es “en realidad” un robot; o como constituirse en basamento de cartas al público donde se niega la libertad de expresión de los usuarios que no quieren poner su foto en su perfil.

En un universo de quince personas con quienes conversé cuando realicé la tesis doctoral en pandémicas videoconferencias, cuatro fuimos catalogadas como bots, en diversos contextos y por estudios distantes. Si por tratarse de números tuviera el permiso de la ciencia para generalizar mis experiencias, diría que el Big Data se equivoca, al menos, en un 25%. Pero no estoy afirmando estos números, sólo aludo a ellos para decir que así como en la vida física lo que no vemos no significa que no exista, así en las redes sociales.

Entiendo la tendencia a exigir o esperar que las conversaciones en X sean generadas por personas reales, y a rechazar o repudiar conversaciones creadas por algoritmos o robots, pero me pregunto hasta dónde esta demanda se asume sin reflexionar qué implica eso para los usuarios comunes que, porque lo desean y lo deciden, apoyan tal o cual causa que no gusta o que puede ser contraria —inclusive— a lo que habitualmente publican. Lo que debe mantenerse intocado en la interacción en las redes sociales es la libertad de expresión.

Si no te gusta lo que dice, llámalo bot

Los bots llegaron para quedarse, todo indica que cada día van a ser más, su inteligencia se depura y lo procedente es, como dice Bunz, “aprender a entender” los algoritmos, no en el sentido ingenieril, sino en el de la interacción humana, la comunicación y el diálogo democrático. Lo importante es el debate. Entender la conversación política de hoy desde esta perspectiva es imperativo, porque con las redes sociales las personas comunes tienen un foro donde pueden participar con su propia voz en la discusión pública. Cuestionar la organicidad de quienes participan políticamente en las redes sociales es negarles a las personas comunes, con toda su libertad para no poner sus nombres y sus fotografías en sus perfiles, el derecho a expresar su opinión.  

Antes de las redes sociales, sólo las personas con acceso a los medios de comunicación podían poner sus temas en la opinión pública. En mi comprensión, mucho de lo que hoy se considera polarización, tiene que ver con este hecho. Las posturas contrarias a las preferidas por los corporativos mediáticos o tienen poca difusión o no se dan a conocer. Ahora, con las redes sociales, se observan opiniones contrarias a las difundidas por los medios. Esas opiniones siempre han existido, aunque parecía que no porque no tenían cabida en los espacios mediáticos, pero resulta que ahora, como sí se difunden en las redes sociales, se acusa de polarización. Una incursión en las conversaciones que suceden en la Web 2.0 puede dar una idea de qué opina la gente, de modo más confiable con respecto a lo difundido por los medios. No afirmo que este sea el método que revele la opinión pública “verdadera”. Mi posición es que la opinión pública nunca ha sido una única, ni la misma para todos los ciudadanos, y que nunca como ahora, las redes sociales permiten que se escuchen múltiples voces de personas comunes con opiniones divergentes.

Afirmar que la gente se obnubila o se deja manipular porque publica lo mismo que publicaron otros, o porque suscribe lo que publicaron otros, o porque dice algo contrario a todo lo que antes había expresado, es falta de respeto a su libertad de expresión y de elección. También en la vida física las personas narran como propias experiencias que les ocurrieron a otros, se hacen amigas sólo de quienes coinciden con sus filias y sus fobias, y rechazan a los que piensan diferente. También en la vida física las personas cambian de ideología. Y en todo caso, también en la vida física hay personas adultas que actúan con inmadurez o inconsciencia, dejándose manipular y equivocándose, lo cual sigue siendo humano.

No censuren a los bots

Los bots no son entidades autogestivas. Los bots son algoritmos programados por personas con agendas políticas, comerciales, publicitarias, económicas y hasta religiosas, propias. Los bots no tienen objetivos. Los objetivos los tienen las personas que los programan. Cuando se pide acallar a los bots, se está pidiendo que se silencie a las personas con agendas políticas, comerciales, publicitarias, económicas y hasta religiosas, propias. Ahí está otra forma de censura y es inaceptable. Hasta los grandes corporativos pueden expresar sus puntos de vista. Todas las organizaciones tienen derecho a que se respete su libertad de expresión, aun cuando la usen para manipular, socavar, tergiversar o mentir. Gracias a esta libertad de expresión hay medios de comunicación que afirman que informan cuando en realidad difunden bulos. Ni modo, toca a las personas desarrollar la reflexividad, el análisis y la crítica.

Por el bien de la democracia, debe dejarse de llamar bots a los que opinan de modo opuesto o contrario en las redes sociales, y debe dejarse de exigir que den la cara las personas que en ejercicio legítimo de sus libertades eligen poner un gatito lindo y no su propia fotografía en sus perfiles digitales.

Cabría finalmente considerar que, usando sus prótesis digitales, cualquiera puede acceder a las redes sociales en cualquier momento y lugar, y entonces Haraway tiene razón cuando afirma que somos “un organismo cibernético, un híbrido de máquina y organismo, una criatura de realidad social y también de ficción” (2020), o sea que todos somos cíborg.  

Bibliografía

Bunz, M. (2017). La revolución silenciosa. Cómo los algoritmos transforman el conocimiento, el trabajo, la opinión pública y la política sin hacer mucho ruido. Buenos Aires: Cruce Casa Editora.

Haraway, D. (2020). Manifiesto Cíborg. Kaótica Libros. ISBN: 978-84-122129-1-4

Van Dijck, J. (2013). The culture of connectivity: A critical history of social media. Oxford and New York: Oxford University Press.

[1] El video con la transmisión completa de esa conferencia se encuentra en YouTube con el título “La izquierda latinoamericana frente a la derecha golpista”, en el vínculo: https://www.youtube.com/watch?v=f-0XXnxaU54&t=5484s.

[2] La carta se titula “La victoria del pueblo, ante las intrigas digitales”. Fue publicada el 3 de julio de 2024 por el partido MORENA. El texto, firmado por el presidente del Consejo Nacional, el Comité Ejecutivo Nacional, los presidentes de los Consejos Estatales, los Comités Ejecutivos Estatales y los Consejeros Nacionales, se encuentra en X, en el siguiente vínculo:

https://x.com/DurangoMorena/status/1808878807102701993

[3] En el campo de la digitalización y el conocimiento, es lo mismo hablar de bots, robots, que de algoritmos. En todos los casos nos referimos a un conjunto de pasos que convierten los datos de un problema (input) en una solución (output).

[4]   La conferencia se encuentra en YouTube con el título “Proyectos estratégicos rendirán informes semanales. Conferencia presidente AMLO”, en el vínculo: https://youtu.be/Tb5ifinLHuQ.