viernes, 28 de enero de 2022 Actualizado a las 16:03

Opinión

Autor Imagen

Sobre algunas críticas al proyecto de ley de plataformas digitales

Sobre algunas críticas al proyecto de ley de plataformas digitales
  • Compartir
  • Twittear
  • Compartir
  • Imprimir
  • Enviar por mail
  • Rectificar

El pasado 28 de octubre del presente año, representantes de la Global Network Initiative (GNI) publicaron una carta abierta a los miembros de la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado de Chile, para expresar su preocupación por el reciente proyecto de Ley boletín No 14.561-19 para regular las plataformas digitales en Chile. La misma ofrece una serie de argumentos que expresan preocupación por la posibilidad de que esta ponga “en riesgo los derechos a la libertad de expresión y privacidad en Chile”. Nuestra impresión general es que las críticas presentadas que son atendibles apuntan a cuestiones a desarrollar y, por lo tanto, podrían formularse más naturalmente como críticas o recomendaciones constructivas, aunque esto haría disonancia con el tono general del documento. Consideramos que hay 4 puntos atendibles en este texto, que pasamos a comentar.

En primer lugar se señala una tensión entre, por un lado, la obligación de las PD de monitorear las cuentas de sus usuarios para identificar contenido ilegal y así evitar multas y penalidades y, por otro lado, las restricciones a la moderación por parte de las mismas sobre contenido dañino pero legal. Nos parece claro que no hay una tensión aquí. Uno puede tener la función de identificar contenido ilegal e incluso dañino, pero tener una potestad limitada para decidir qué hacer con él. De hecho, suena éticamente razonable que mayor poder de regulación de contenidos sea relegado a la sociedad civil o las instituciones que la representan. Por ejemplo, respecto de aquellos contenidos que no siendo ilegales (y por lo tanto no teniendo las PD obligación de eliminarlos) son, sin embargo, dañinos (por ejemplo, porque resultan altamente adictivos), las PD deberían limitarse a informarlo (por ejemplo, por medio de algún tipo de etiqueta digital, como se da en los avisos de contenido ofensivo) y el usuario debería poder decidir qué hacer con él, si es mayor de edad.

Una segunda consideración que creemos que es atendible es que la restricción de contenidos cubre muy poco por un lado, y demasiado por otro. Por un lado, se argumenta que no se cubren algunas de las formas de expresión más dañinas, como el acoso en línea y la desinformación dirigida. Ahora bien, estas no serían formas de expresión propiamente tales, sino derechamente delitos y es por esto que se hace necesaria una expresión suficientemente abarcativa de distintos ilícitos civiles y también específicos del mundo del cibercrimen. Estos delitos sí están incluidos en los contenidos que, como reza la ley, “puedan ser considerados civilmente difamatorios, perjudiciales...”.

Por el otro lado, se indica que hay contenidos que podrían ser considerados civilmente difamatorios o perjudiciales pero que no deberían ser removidos del espacio digital si respetamos el principio de equivalencia, ya que estos no son ilegales por fuera del espacio digital. Esto nos parece un buen punto. Pero en este caso no creemos que esos contenidos deban ser permitidos, sino que debería considerarse el hecho de que son mucho más dañinos en el espacio digital que en el analógico, por el grado de difusión y la cantidad de reacciones que puede generar. Así, en este caso, creemos que la equivalencia tendría que medirse por los efectos que pueden tener los contenidos en los usuarios. De este modo, en todo caso se necesitará un ajuste al criterio de equivalencia, debido a que el mundo virtual podría tener una intensidad de efectos que en el mundo analógico no se da. De hecho, el grado de daño o el tipo de efectos que puede tener un dato sobre las personas es uno de los criterios que se usa normalmente para considerar a un tipo de información como sensible.

Un tercer argumento que se presenta es que la neutralidad propuesta en el artículo 5 podría permitir a las autoridades u otras figuras poderosas influir en la variedad de contenido permitido en las plataformas digitales, en la medida en que limita la capacidad de las plataformas digitales para rebajar o curar contenido posiblemente dañino, pero no ilegal. Nos parece que esta objeción omite el hecho (ya mencionado por los mismos autores) de que el artículo 6 limita correctamente esa neutralidad. Adicionalmente, la neutralidad misma podría ayudar justamente a reducir el daño, limitando la capacidad de privilegiar contenidos, lo que es una práctica usual en plataformas como Facebook. Por ejemplo, el aumentar el peso de ciertas publicaciones que incitan al odio (que generan más reacciones de “angry face”) y fomentan la polarización política, podría considerarse una forma de interferencia que entra en conflicto con la neutralidad.

Por último, a los autores les preocupa que el “derecho de los consumidores a desactivar programas” en el Artículo 10 sea vago y poco realista de implementar. Esta nos parece una objeción extraña y también vaga. Principalmente, que algo sea técnicamente difícil (los autores no indican por qué) no quiere decir que no sea éticamente necesario. De hecho, este punto del artículo 10 es completamente necesario para el debido proceso que los autores dicen defender, en tanto que se exige un mediador humano que sea capaz de comprender las razones que puedan presentar los usuarios respecto del manejo de sus contenidos o de ellos mismos. Aún más, esto se sigue de la equivalencia digital/analógico con la que los autores concuerdan.

En resumen, consideramos que regular las plataformas digitales es un tema complejo, en el que convergen varias disciplinas, no se trata solamente de un asunto fintech, sino que comprende también dimensiones éticas, filosóficas, económicas y de salud mental. El foco del proyecto de ley de PD en cuestión es proteger los derechos fundamentales de las personas del avance de tecnologías que pueden ser disruptivas de la condición humana y su dignidad. Las grandes plataformas utilizan avanzados sistemas de algoritmos que permiten impactar en la mente y el cerebro humano (impacto ejemplificado por la técnica de “psychological targeting”), razón por la cual se las llegó a considerar neurotecnologías indirectas.

Los análisis de datos digitales pueden usarse para vulnerar nuestra privacidad mental y libertad de pensamiento, no solo mostrando qué pensamos y sentimos, sino también proporcionando la oportunidad de identificar y explotar nuestros momentos de debilidad para obtener beneficios comerciales. Como señala la abogada de derechos humanos Susie Alegre, "lo que se ha descrito como 'la economía de la atención' consiste en utilizar técnicas psicológicas para hacer que los dispositivos y las plataformas sean 'pegajosos', de modo que nos resulte difícil dejarlos y dejar de generar datos que estas plataformas puedan emplear". El problema no se limita solo al modo en que este control atencionional pueda afectar nuestra salud mental, sino principalmente el empleo psico y sociopolítico que puede hacerse de la información obtenida a expensas de nuestra salud, influenciando nuestras mentes en la esfera política y polarizando a las sociedades por medio de la desinformación.

Un ejemplo de lo que se intenta regular es el Metaverso anunciado por Mark Zuckerberg. En este sentido, Markus Gabriel director del Centro Internacional de Filosofía en Bonn, señaló que “Meta es un sistema extremadamente deshumanizante e inmoral. Es una droga, una ideología, una máquina de propaganda pura. Todavía peor que Facebook y que ya es un gran problema porque sin Facebook no tendríamos estas teorías de la conspiración, los antivacunas... Meta va a crear problemas todavía más grandes que el populismo de Trump y Bolsonaro. Por eso creo que tenemos que prohibirlo”.

Por supuesto, la propuesta del proyecto de PD no es prohibir, sino exigir una responsabilidad a las grandes plataformas sobre la tecnología que utilizan para manipular y mantener la atención de los usuarios sin su consentimiento, sin advertencias sobre los efectos para su salud, su autonomía moral y privacidad mental, introduciendo directrices de hard law en lo que actualmente es solo una autorregulación poco eficaz, sin implicancias para las grandes plataformas, lo que para los usuarios constituye un habitar en una especie de far west digital.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Compartir Noticia

Más información sobre El Mostrador

Videos

Noticias

Blogs y Opinión

Columnas
Cartas al Director
Cartas al Director

Noticias del día

TV