Facebook está cambiando sus controles de verificación de datos para los usuarios de EE. UU.

Facebook está cambiando sus controles de verificación de datos para los usuarios de EE. UU.

Facebook les da a los usuarios más control sobre su feed.

Facebook, propiedad de Meta, les ha dado a los usuarios estadounidenses el control sobre el contenido verificado, un movimiento potencialmente significativo que, según la plataforma, les dará más poder sobre su algoritmo, pero algunos analistas dicen que podría beneficiar a los proveedores de desinformación.

Durante años, el algoritmo de Facebook movía automáticamente las publicaciones más abajo en el feed si uno de los socios de verificación de datos externos de la plataforma, incluida AFP, las marcaba, lo que reducía la visibilidad del contenido falso o engañoso.

Con la nueva opción de “contenido restringido por verificación de hechos” que ahora aparece en la configuración de Facebook, los usuarios tienen la libertad de mostrar publicaciones sin máscara más arriba o más abajo en el feed o mantener el status quo.

Las publicaciones verificadas se pueden reducir usando la opción “reducir más”. Esto, de acuerdo con la configuración de la plataforma, significa que las publicaciones “pueden moverse aún más abajo en el feed, por lo que es posible que no las vea en absoluto”.

Otra opción etiquetada como “no reducir” tiene el efecto contrario, moviendo más contenido más arriba en el feed, lo que hace que sea más probable que se vea.

“Estamos dando a los usuarios de Facebook aún más control sobre el algoritmo que califica las publicaciones en su feed”, dijo a la AFP un portavoz de Meta.

“Estamos haciendo esto en respuesta a los usuarios que nos dicen que quieren más control sobre lo que ven en nuestras aplicaciones”.

Meta introdujo la opción de verificación de hechos en mayo, dejando que muchos usuarios la descubran por sí mismos en la configuración.

Viene en un clima político hiperpolarizado en los Estados Unidos que ha hecho que la moderación de contenido en las plataformas de redes sociales sea un tema candente.

Los partidarios conservadores estadounidenses dicen que el gobierno ha presionado o colaborado con plataformas como Facebook y Twitter para censurar o suprimir el contenido de derecha bajo el pretexto de la verificación de hechos.

El martes, un tribunal federal de Luisiana impidió que algunos altos funcionarios y agencias de la administración del presidente Joe Biden se reunieran y se comunicaran con empresas de redes sociales para moderar su contenido.

Por separado, los investigadores de desinformación de instituciones destacadas como el Observatorio de Internet de Stanford se enfrentan a una investigación del Congreso liderada por republicanos, así como a demandas de activistas conservadores que los acusan de promover la censura, cargo que niegan.

“Exposición a la desinformación”

Los cambios de Facebook se producen antes de la votación presidencial de 2024, ya que muchos investigadores temen que las mentiras políticas puedan explotar en las plataformas de redes sociales. La medida también generó preocupaciones entre algunos analistas de que podría ser una bendición para los traficantes de desinformación.

“Desclasificar el contenido que los verificadores de hechos encuentran problemático es una parte central del programa contra la desinformación de Facebook”, dijo a la AFP David Rand, profesor del Instituto de Tecnología de Massachusetts.

“Dejar que la gente opte por no participar parece estar realmente limitando el programa”.

Meta minimiza las preocupaciones y dice que continuará etiquetando el contenido que se considere engañoso o falso, explicando que ha sido revisado por uno de sus verificadores de datos externos. La compañía dijo que estaba estudiando si extender este control a otros países.

“Esto se basa en el trabajo que hemos estado haciendo durante mucho tiempo en esta área y ayudará a que los controles de usuario de Facebook sean más consistentes con los que ya existen en Instagram”, dijo un portavoz de Meta.

Además de este control, Facebook también permite a los usuarios decidir cuánto quieren ver “contenido de baja calidad”, como clickbait y spam, y “contenido sensible”, incluidas publicaciones violentas o gráficas en la plataforma.

Los analistas dicen que el impacto de los cambios probablemente solo se conocerá con el tiempo a medida que más usuarios, especialmente aquellos que no confían en los verificadores de datos profesionales, comiencen a ajustar su configuración.

Los verificadores de hechos, incapaces de revisar todas las publicaciones en la plataforma gigante, enfrentan regularmente una avalancha de abusos en línea por parte de personas que cuestionan sus juicios, a veces incluso cuando difunden información extremadamente falsa o engañosa.

“Alguien a quien no le gusta o no confía en el papel de los verificadores de hechos puede usar esto para evitar la verificación de hechos”, dijo a la AFP Emma Llanso, del Centro para la Democracia y la Tecnología.

Dijo que Facebook debería investigar y probar si aumentaría o disminuiría la “exposición de los usuarios a la información errónea” antes de difundirla a nivel mundial.

“Idealmente, compartirían los resultados de este tipo de investigación en un anuncio de nueva función”, agregó Llanso.

© 2023 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *