Skip to main content

3 Preguntas a Devavrat Shah: Frenar la desinformación online

Experto en el procesamiento de Social Data propone ajustar los algoritmos de suministro de noticias para mejorar las interacciones mímicas en la vida real

El espectro de las llamadas «fake news» amenaza muchas facetas de la sociedad moderna. Oleadas de desinformación online han sacudido distintos eventos sociales desde la pandemia del Covid-19 hasta las elecciones de Estados Unidos. Pero, según Devavrat Shah, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Informática y del Instituto de Datos, sistemas y sociedad, este fenómeno no tiene por qué ser así. Shah investiga los algoritmos de recomendación que generan noticias en las redes sociales. Ha propuesto un nuevo enfoque que podría limitar la difusión de información errónea al enfatizar el contenido generado por los propios contactos de un usuario, en lugar de lo que sea tendencia a nivel mundial. Mientras el Congreso y una nueva administración presidencial reflexionan sobre si se debe regular las redes sociales y cómo hacerlo, Shah compartió sus pensamientos con MIT News.

Q: ¿Cómo se propaga la desinformación online, y cómo los algoritmos de las redes sociales aceleran esa propagación?

La desinformación se propaga cuando la mentira se repite. Esto se repite desde hace miles de años. Me acordé anoche, mientras le leía un cuento a mi hijo de 6 años, de las fábulas de Panchatantra.

Un brahmán una vez realizó ceremonias sagradas para un rico comerciante y recibió una cabra a cambio. Iba de regreso con la cabra sobre sus hombros cuando tres ladrones lo vieron y decidieron engañarlo para que les diera la cabra. Los tres ladrones, uno tras otro, se cruzaron en el camino del brahmán y le hicieron la misma pregunta: «Oh, Brahmán, ¿por qué llevas un perro en la espalda?»

El tonto brahmán pensó que en verdad debía de llevar un perro si tres personas se lo habían dicho. Sin ni siquiera molestarse en mirar al animal, soltó a la cabra.

De cierta manera, esta es la forma estándar en la que se produce el fenómeno de la radicalización: escuchas algo, no haces preguntas y no buscas puntos de vista alternativos. Así la desinformación se convierte en información. Esta es la forma principal en que la información se difunde de manera incorrecta. Y ese es el problema que está pasando con los algoritmos de recomendación, como los que utilizan probablemente Facebook y Twitter. A menudo, priorizan el contenido que ha recibido muchos clics y me gustas, ya sea cierto o no, y lo mezclan con contenido proveniente de fuentes en las que confían. Estos algoritmos están diseñados fundamentalmente para concentrar su atención en algunas publicaciones virales en lugar de diversificar las cosas. Por lo tanto, desafortunadamente están facilitando el proceso de desinformación.

Q: ¿Podría esto arreglarse con mejores algoritmos? O ¿son necesarios más moderadores de contenidos humanos?

Esto es posible mediante algoritmos. El problema con la moderación del contenido humano es que es una empresa humana o tecnológica la que entra y dicta lo que está bien y lo que está mal. Y ese es un enfoque muy reduccionista. Creo que Facebook y Twitter pueden resolver este problema sin ser reduccionistas o tener un enfoque de mano dura para decidir qué está bien o qué está mal. En cambio, pueden evitar esta polarización y simplemente dejar que las redes operen de la forma en que el mundo opera naturalmente fuera de internet, a través de interacciones entre iguales. Las redes sociales online han dado la vuelta al flujo de información y han puesto la capacidad de hacer esto en manos de unos pocos. Entonces, volvamos a la normalidad.

Hay un ajuste simple que podría tener impacto: todos estos algoritmos deben incluir una cantidad moderada de diversidad en sus noticias. ¿Por qué? Bueno, piensa en un momento antes de que existieran las redes sociales, cuando podíamos charlar con personas en una oficina o conocer noticias a través de amigos. Aunque todavía estamos expuestos a información errónea, sabemos quién nos dio esa información y tendemos a compartirla solo si confiamos en esa persona. Por lo tanto, a menos que esa información errónea provenga de muchas fuentes fiables, rara vez se comparte ampliamente.

Hay dos diferencias claves online. Primero, que el contenido que insertan las plataformas se mezcla con contenido de fuentes en las que confiamos, lo que hace que sea más probable que tomemos esa información al pie de la letra. En segundo lugar, la información errónea se puede compartir fácilmente en internet para que la veamos muchas veces y nos convenzamos de que es verdad. La diversidad ayuda a diluir la desinformación al exponernos a puntos de vista alternativos sin abusar de nuestra confianza.

Q: ¿Cómo funcionaría esto con las redes sociales?

Para hacer esto, las plataformas podrían mostrarnos publicaciones al azar de manera que se parezca a la realidad. Es importante que una plataforma pueda filtrar algorítmicamente las fuentes de noticias; de lo contrario, habría demasiado contenido para consumir. Pero en lugar de depender del contenido recomendado o promocionado, un feed podría extraer la mayor parte de su contenido, totalmente al azar, en función de tus conexiones en la red. Por lo tanto, la polarización de contenido a través de recomendaciones repetidas no sucedería. Y todo esto puede y debe regularse.

Una forma de avanzar hacia un comportamiento más natural es filtrar las noticias de acuerdo a un contrato social entre usuarios y plataformas, una idea en la que los académicos del derecho ya están trabajando. Como comentamos, el suministro de noticias de los usuarios afecta tanto a sus comportamientos, como a sus preferencias de voto o de compra. En un trabajo reciente, mostramos que podemos usar métodos de estadísticas y aprendizaje automático para verificar si el suministro de noticias filtrado respeta o no el contrato social en función de cómo está afectando al comportamiento de los usuarios. Como argumentamos en este trabajo, resulta que dicha contratación puede no afectar los ingresos “finales” de la plataforma en sí. Es decir, la plataforma no necesariamente tiene que elegir entre respetar el contrato social y generar ingresos.

En cierto sentido, otras utilidades como los proveedores de servicios telefónicos ya están obedeciendo a este tipo de arreglo contractuales con la «lista de llamadas no spam» y respetando si su número de teléfono aparece en la lista pública o no. Al distribuir información, las redes sociales también brindan una utilidad pública en cierto sentido y deben ser reguladas como tales.

Para leer el artículo en idioma original:

Leer más
Close Menu