Fue en una conferencia con Martín Becerra, Ernesto Calvo y Beatriz Busaniche. Cómo funciona el sistema de «tierra arrasada» y el ejemplo del «Caso Maldonado».
Dominar las redes con perfiles falsos, que interactúan, «levantan la temperatura» y fijan posición, sería la estrategia de Marcos Peña para controlar la opinión pública.
Ese fue el diagnóstico de una conferencia de Amnistía Internacional y Centro de Derechos Humanos de la Facultad de derecho de la UBA sobre «Trolls y fake news», este miércoles en la casa de estudios ante más de un centenar de especialistas, estudiantes y hasta algunos diputados nacionales como Araceli Ferreyra, del Movimiento Evita.
Martín Becerra, doctor en ciencias de la información, investigador independiente del Conicet, participó de un informe de Amnistía Internacional sobre el uso de Trolls y constató «acciones organizadas» en las redes «contra quienes defienden o denuncian violaciones a los derechos humanos».
Pero más preciso fue Ernesto Calvo, profesor de Ciencia Política en la Universidad de Maryland, que investigó los trolling y confirmó que el modus operandi de Peña dejó evidencia en las semanas de búsqueda de Santiago Maldonado.
En esos días, explicó, se aplicó la doctrina de «tierra arrasada», que consiste en contaminan las conversaciones en las redes para expulsar a los tibios, mediante ataques personales y mucha fake news. Se detectaron 8 cuentas de trolls y Twitter dio de baja cuatro, después de varios meses y cuando el caso Maldonado era historia.
«Los trolls hablaban entre ellos y sólo el 1% del tiempo lo usan para pegarle a periodistas. Levantan temperatura con un diálogo agresivo, que expulsaba a los independientes. Para no hablar de un tema, los políticos toxican el debate», describió.
«Hay trolls porque hay comunidades dispuestas a aceptar un mensaje afín en términos políticos. Así como también están dispuestos a mofarse de los otros porque hay un mensaje que sostiene el mismo tipo de narrativa de la cual participan».
«Por eso las correcciones de las fake news son mucho menos replicadas que las mismas fake news», explicó. Para Becerra, es indispensable documentar «cómo se despliega el debate público» y entender su impacto colectivo para luego tomar medidas que aminoren su impacto negativo.
Y comprender que los trolls logran «un efecto disciplinador en el debate público. Cuando una persona ve que a un político o a un famoso lo atacan a la yugular de forma violenta y piensa: ‘qué queda para mí'».
Ninguno de los especialistas tenía claro cómo evitar excesos de las redes sociales y «motores de búsqueda», instrumentos esenciales para los trolls y las fake news, armas de cada campaña electoral.
Como explicó LPO, durante su visita al Senado, los directivos de Facebook y Twitter se defendieron con sus políticas de «autocontrol», que incluye la eliminación de cuentas, pero en ningún caso puede subsanar el daño causado.
«Regular la conversación pública en internet no supone una ley estatal. Se da de facto con las empresas que remueven cuentas o contenidos. La inexistencia de leyes no significa ausencia de regulaciones», aportó Becerra.
«Tenemos que definir cómo se construye un sistema dónde se habilita el debate público», sugirió Beatriz Busaniche, presidente de la Fundación Vía Libre. «Si bien son espacios de debate público, necesitamos empezar a pensar que tipo específico de espacios son la redes en tanto son empresas privadas», aportó.
Y consideró que los motores de búsqueda sólo pueden tener «responsabilidad subjetiva» por sus contenidos y los pleitos deben definirse en la justicia, pero nunca facultar a las compañías de censurar, como ya hace Facebook con la supresión de imágenes.
«No acepta mujeres con pezones y no es nada malo mostrar una teta. El problema real es que son espacios de fuerte concentración y pensar en qué estamos de acuerdo y qué es lo que incomoda a la sociedad».
Busaniche alertó que los algoritmos que usan las redes sociales para guiar las conversaciones están fuera de control. «Estamos generando mecanismos de la que intervienen en el debate público y no los conocemos».
La jornada finalizó con un informe de Azmina Dhrodia, representante de Amnistía Internacional en Inglaterra, sobre los ataques a mujeres en las redes, con frases como»Ojalá te violen», «sos una puta», «te voy a matar».
Su conclusión fue que esos mensajes logran inhibir la actividad digital de las damnificadas y que es momento de saber «cómo Twitter entrena a sus capacitadores de inteligencia artificial» y conocer «¿Quién modera?» los debates y «¿Cómo lo hace?».
Las secuelas en los niños por acoso en las redes dominaron parte de las preguntas del público. Calvo aportó un dato preocupante: en Estados Unidos ya hay apodos ofensivos a los niños que no tienen una actividad digital.