Publicidad

Luciano Ahumada: “No apostaría a que Threads no se transforme en una red que contenga fake news”

Publicidad

El director de la Escuela de Informática y Telecomunicaciones de la UDP destacó la importancia del posicionamiento y desarrollo futuro de la nueva red social para cumplir con las expectativas planteadas. Ahumada planteó interrogantes sobre la implementación de filtros de contenido y la prevención de noticias falsas, y resaltó la complejidad de abordar la línea divisoria entre la libertad de expresión y el discurso de odio. Estos desafíos, dijo, requerirán un enfoque cuidadoso y una tecnología avanzada para garantizar un entorno seguro y propicio para la interacción en la red social Threads.


Meta, la empresa que está detrás de los gigantes de las redes sociales Facebook e Instagram, ha lanzado su nueva plataforma de microblogging Threads. La nueva aplicación se parece mucho a Twitter, ya que permite a los usuarios publicar texto, imágenes o videos, así como dar “me gusta”, compartir o reenviar contenidos.

Algo que Threads no ha copiado de Twitter —propiedad de Elon Musk—es la posibilidad de enviar mensajes directos a otros usuarios, pero Mark Zuckerberg, CEO de Meta, prometió que habrá actualizaciones. ¿Estará, dentro de esas actualizaciones, alguna estrategia para evitar la circulación de noticias falsas o el uso de bots?

Más de 30 millones de personas se han registrado en la nueva aplicación, de acuerdo con Meta. Eso es menos de una décima parte de los 350 millones de usuarios estimados en Twitter, según datos de Statista. El presidente de México, Andrés Manuel López Obrador, se estrenó el jueves en Threads y, en su primer mensaje, pidió al dueño de la empresa, el multimillonario Mark Zuckerberg, evitar el uso de “bots” y así la manipulación en la red social.

En un nuevo capítulo de Al Pan Pan con Mirna Schindler, el profesor Luciano Ahumada, director de la Escuela de Informática y Telecomunicaciones de la Universidad Diego Portales (UDP), brindó su análisis sobre la red social Threads y planteó importantes desafíos que deberá enfrentar para cumplir con su visión inicial. Ahumada resaltó la importancia de observar de cerca cómo se posiciona la plataforma y si logrará materializar su discurso actual en la práctica.

Una de las primeras observaciones del académico se centró en la simplicidad de la aplicación en comparación con otras plataformas, como Instagram. En este sentido, mencionó que Instagram ofrece mejores filtros, particularmente en términos de contenido para adultos. Ahumada citó casos en los que se han eliminado publicaciones, incluso de mujeres amamantando a sus hijos, generando reclamos por parte de los usuarios. Si bien los filtros de contenido de Threads podrían ser más avanzados en el futuro, Ahumada resaltó la necesidad de evaluar la eficiencia con la que se implementarán.

“Uno puede programar y puede desarrollar tecnología para poder filtrar de mejor manera lo que se está exponiendo, pero la forma en que se desarrolla puede ser más o menos eficiente y hay que ver cómo lo termina haciendo Threads”, planteó el profesor Ahumada.

La gente participa más desde el odio

El académico de la UDP expresó cierta cautela respecto a la posibilidad de que Threads se convierta en una plataforma que promueva la difusión de noticias falsas. Destacó que esto dependerá en gran medida de la orientación tecnológica que se le otorgue a la red social. Además, mencionó que incluso el discurso de odio puede generar interacciones significativas en las plataformas en línea. “Yo no apostaría a que Threads no se transforme en una red que contenga fake news”, sentenció.

Y añadió: “La gente, eventualmente, y eso se ha visto en algunos estudios, participa más desde el odio, desde el no me gusta, que desde el me gusta en algunos sistemas. Entonces es difícil proyectarse efectivamente si Threads va a poder hacerlo o no, porque el desarrollo que ellos tienen hoy en día súper básico. Es como que están en el desde. Y hay que ver cómo desde el algoritmo, desde el procesamiento de datos, logran establecer un filtro capaz de eventualmente censurar discursos de odio”.

El director de la Escuela de Informática y Telecomunicaciones de la UDP resaltó que existe una línea muy delgada entre la libertad de expresión y el discurso de odio. Señaló que la implementación de herramientas automatizadas para distinguir entre una opinión válida y un discurso de odio puede generar numerosos errores. Ahumada subrayó la necesidad de abordar este desafío de manera cuidadosa y precisa para evitar posibles consecuencias negativas en la plataforma.

“Se pueden cometer muchos errores cuando yo estoy tratando que una máquina identifique qué es una opinión válida versus qué es un discurso de odio”, advirtió.

Publicidad