Polémica por proyecto que busca derecho al olvido en redes

La primera citación que realiza la Corte Constitucional colombiana a Facebook y YouTube, que está prevista para el próximo 28 de febrero, llega después de meses de debates y tensiones que llevaron a los altos ejecutivos de estas compañías tecnológicas a comparecer ante autoridades de EE. UU. y Europa. Pero, a diferencia de dichas audiencias, la de Colombia será una comparecencia para analizar el rol de las aplicaciones y sus sistemas ante conductas como la injuria y la calumnia, que en la ley nacional son delitos.

Específicamente, en el caso colombiano, tres ciudadanos acudieron al recurso de la tutela por casos de injuria, calumnia y derecho al buen nombre en su contra. Este lunes, la Corte anunció que estudiará los procesos, que buscan la eliminación de publicaciones con contenidos injuriosos, pero además realizó una citación a una audiencia pública en la que convocó a defensores de la libertad de expresión y representantes de Facebook, YouTube y Google en Colombia.

Facebook y YouTube también responderán preguntas en Colombia
El organismo buscará discernir si en caso de que un ciudadano incurra en alguno de estos delitos está obligado o no a borrarlo y caso de que el contenido se mantenga, cuál sería el rol de las redes sociales en la restitución de esos derechos.

Durante los últimos meses, el Congreso Estadounidense, el Parlamento Británico y los Comisionados Antimonopolio en Europa han cuestionado las acciones de las plataformas y redes sociales ante posibles violaciones de derechos humanos que van desde la privacidad y la ciberseguridad hasta la libertad de expresión.

Facebook ha tenido que enfrentarse a un exigente escrutinio sobre el escándalo de privacidad de Cambridge Analytica, en el que la información privada de 87 millones de usuarios de la red social fue accedida indebidamente por terceros y luego fue vendida a una consultora política británica que trabajó en la campaña electoral de Trump en 2016. También plataformas como Twitter y Google fueron citadas para aclarar dudas sobre las medidas para enfrentar las noticias falsas y los intentos de manipulación de la opinión pública por parte de agentes externos.

Teniendo en cuenta la influencia de los sistemas en el posicionamiento y la difusión de la información, en los últimos dos años, Facebook y YouTube y también Twitter se han visto envueltos en importantes debates sobre sus algoritmos. Senadores, representantes y parlamentarios han indagado sobre cómo manejan los datos de los usuarios, si se comparten con terceros, y qué pueden hacer las redes sociales para frenar la divulgación de contenidos falsos o nocivos en sus plataformas.

Facebook por ejemplo en marzo fue acusado de tener un ‘rol determinante’ en la difusión del discurso de odio y la discriminación étnica en Myanmar. Después de reconocer que tardó mucho en responder a la situación, la red social anunció la creación de un equipo de moderadores de contenido en ese país.

También WhatsApp, propiedad de Facebook, tuvo que establecer mayores protocolos para la difusión de cadenas, después de incidentes de turbas que lincharon a inocentes en India al creer en afirmaciones de pánico que se difundieron, y viralizaron, a través del servicio de mensajería.

Así funcionaría el nuevo ‘Consejo Asesor de contenido’ de Facebook
Los ganadores y perdedores de la audiencia en el Congreso de EE. UU.
Facebook admite lentitud para atajar el ‘discurso de odio’ en Myanmar
Otras plataformas, como YouTube han tenido que mejorar sus capacidades para enfrentar contenidos que promuevan la violencia, contenido de explotación sexual de menores o videos de extrema violencia, como casos de suicidio o asesinato.

Las redes sociales, en repetidas ocasiones, han declarado que poseen protocolos para reportar el contenido que viole las normas de la comunidad. Además de analizar los casos con moderadores de contenido humanos, cuentan con sistemas automáticos que se encargan de revisar las publicaciones para dar de baja o reducir en alcance aquellos mensajes que puedan discriminar a una persona, apelar al odio en su contra y promover la violencia por razones éticas, religiosas o políticas.

Sin embargo, el control sobre el contenido vive en constante tensión con la libertad de expresión de los usuarios en internet. Ya en ocasiones anteriores, organizaciones civiles y defensores de la libertad de expresión han expresado su preocupación por el poder sobre el contenido que podrían desarrollar estos servicios digitales.

En junio, voces de pioneros de internet como Vincent Cerf, Tim Berners Lee, creador de la World Wide Web, Mitchell Baker, cofundador de The Mozilla Project y Jimmy Wales, cofundador de Wikipedia, entre otros, señalaban que algunas partes de la propuesta inicial planteaban la creación de sistemas de detección previa que violarían tanto la privacidad de los usuarios como la libertad de comunicarse.

La ‘Directiva Copyright’ plantea cambios en la internet que conocemos
Juez de EE. UU. bloquea programa para hacer trampa en Grand Theft Auto
En ese entonces, la exigencia de que las plataformas bajaran todo contenido que no contara con los permisos otorgados por los titulares de los derechos de autor habría posibilitado la creación de un sistema capaz de monitorear las acciones de los usuarios antes de que ellos mismos generaran una publicación. Después de los debates, dicho planteamiento de control previo fue excluido de la versión final aprobada por el Parlamento Europeo en septiembre pasado

Dejar respuesta

Please enter your comment!
Please enter your name here