Meta para ‘evaluar la viabilidad’ de la revisión de los derechos humanos en las prácticas de Etiopía

Lo más reciente

Noticias del Mundo en español
Meta para ‘evaluar la viabilidad’ de la revisión de los derechos humanos en las prácticas de Etiopía

El propietario de Facebook, Meta Platforms, dijo el jueves que «evaluaría la viabilidad» de encargar una evaluación independiente de los derechos humanos en su trabajo en Etiopía, luego de que su junta de supervisión recomendara una revisión de cómo se han utilizado Facebook e Instagram para difundir contenido que aumenta el riesgo de violencia allí.

La junta, establecida por la empresa para abordar las críticas sobre su manejo del material problemático, toma decisiones vinculantes sobre una pequeña cantidad de casos de moderación de contenido desafiantes y brinda recomendaciones de políticas no vinculantes.

Meta ha estado bajo el escrutinio de los legisladores y reguladores por la seguridad del usuario y el manejo de los abusos en sus plataformas en todo el mundo, particularmente después de que la denunciante Frances Haugen filtrara documentos internos que mostraban las dificultades de la empresa para controlar el contenido en países donde era más probable que ese tipo de discurso causara daños, incluida Etiopía.

Miles han muerto y millones han sido desplazados durante un conflicto de un año entre el gobierno etíope y las fuerzas rebeldes de la región norteña de Tigray.

El gigante de las redes sociales dijo que ha “invertido recursos significativos en Etiopía para identificar y eliminar contenido potencialmente dañino”, como parte de su respuesta a las recomendaciones de diciembre de la junta sobre un caso relacionado con contenido publicado en el país.

El mes pasado, la junta de supervisión confirmó la decisión original de Meta de eliminar una publicación que alegaba la participación de civiles de la etnia tigraya en atrocidades en la región de Amhara en Etiopía. Como Meta había restaurado la publicación después de la apelación del usuario a la junta, la empresa tuvo que eliminar nuevamente el contenido.

El jueves, Meta dijo que aunque había eliminado la publicación, no estaba de acuerdo con el razonamiento de la junta de que debería haber sido eliminada porque era un “rumor no verificado” que aumentaba significativamente el riesgo de violencia inminente. Dijo que esto impondría “un estándar de publicación periodística a las personas”.

Un portavoz de la junta de supervisión dijo en un comunicado: “Las políticas existentes de Meta prohíben los rumores que contribuyen a la violencia inminente que no se pueden desacreditar en un período de tiempo significativo, y
la Junta hizo recomendaciones para garantizar que estas políticas se apliquen de manera efectiva en situaciones de conflicto”.

“Los rumores que alegan que un grupo étnico es cómplice de atrocidades, como se encontró en este caso, tienen el potencial de provocar daños graves a las personas”, dijeron.

La junta había recomendado que Meta encargara una evaluación de diligencia debida en materia de derechos humanos, que se completaría en seis meses, que debería incluir una revisión de las capacidades lingüísticas de Meta en Etiopía y una revisión de las medidas adoptadas para evitar el uso indebido de sus servicios en el país.

Sin embargo, la compañía dijo que no todos los elementos de esta recomendación “pueden ser factibles en términos de tiempo, ciencia de datos o enfoque”. Dijo que continuaría con su debida diligencia existente en materia de derechos humanos y debería tener una actualización sobre si podría actuar según la recomendación de la junta en los próximos meses.

Los informes anteriores de Reuters sobre Myanmar y otros países han investigado cómo Facebook luchó para monitorear el contenido en todo el mundo en diferentes idiomas. En 2018, los investigadores de derechos humanos de la ONU dijeron que el uso de Facebook había desempeñado un papel clave en la difusión del discurso de odio que alimentó la violencia en Myanmar.

Meta, que ha dicho que fue demasiado lento para evitar la desinformación y el odio en Myanmar, ha dicho que la empresa ahora tiene hablantes nativos en todo el mundo que revisan contenido en más de 70 idiomas que trabajan para detener el abuso en sus plataformas en lugares donde hay una mayor riesgo de conflicto y violencia.

La junta también recomendó que Meta reescribiera su declaración de valores sobre seguridad para reflejar que el discurso en línea puede representar un riesgo para la seguridad física de las personas y su derecho a la vida. La empresa dijo que haría cambios a este valor, en una implementación parcial de la recomendación.

(Reporte de Elizabeth Culliford Editado por Nick Zieminski)

Fuente

spot_img




Destacados

En medio de zafarrancho, Jorge Cálix es juramentado como presidente provisional del CN

Tegucigalpa. - En medio de golpes y zafarrancho, fue elegida la junta directiva provisional del Congreso Nacional, juramentando a...

Noticias relacionados