Jueves 18 de Abril de 2024

Hoy es Jueves 18 de Abril de 2024 y son las 20:33 - Radio argentina 89.3 Mhz Av. Lavalle 222 Resistencia Chaco para comunicarte 362 4879579

16 de mayo de 2018

Facebook le "bajó el pulgar" a más de 580 millones de cuentas falsas

La empresa de Mark Zuckerberg realizo una limpieza de su página, luego de varios años, sobre contenido de violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio y spam.

Facebook

eliminó 583 millones de cuentas falsas, 837 millones de contenidos no deseados (spam) y más tres millones y medio de piezas con violencia gráfica en el primer trimestre de 2018, según publicó en su Informe de Transparencia. 

Allí, la red social reveló por primera vez datos numéricos sobre contenido removido por violar sus normas comunitarias en seis áreas: violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio, spam y cuentas falsas. 

La forma en que la empresa fundada por

Mark Zuckerberg

lleva adelante este trabajo es mediante tecnologías basadas en aprendizaje automático (machine learning), pero también con equipos de moderadores que revisan los contenidos que circulan por la red social.

"Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta”, ejemplificó sobre la dinámica de trabajo Alex Schultz, vicepresidente de Analítica de Datos de

Facebook

.

El directivo brindó estas declaraciones desde la sede de la red social ubicada en California, donde también estaba Guy Rosen, vicepresidente de Producto de

Facebook

Para desarrollar la tarea de revisión de contenidos, Schultz indicó que otra técnica que utilizan es priorizarlos con la variable del “aquí y ahora‘: “Por ejemplo, cuántas veces fue vista una determinada pieza en la última hora”.

Entre las cifras más significantes está la de cuentas falsas, porque es una “acción clave para combatir el spam”, explicó Schultz.

En este punto, afirmó que eliminaron “837 millones de piezas con mensajes no deseados en el primer trimestre de 2018”, y agregó que casi el 100% fue detectado antes de que algún usuario lo haya reportado.  

"La clave para combatir el spam es eliminar las cuentas falsas que lo propagan. En el primer trimestre de 2018, desactivamos alrededor de 583 millones de cuentas falsas, la mayoría de ellas dentro de los primeros minutos de registro”, añadió. 

Aclaró que esas cifras se suman a “los millones de intentos por registrar cuentas falsas en

Facebook

que previenen a diario.

En promedio, dijo estiman que de cada 10.000 piezas de contenido vistas en

Facebook

, siete a nueve vistas son a contenidos que violan los estándares de desnudez o pornografía de la plataforma. 

Para casos como violencia gráfica y discurso de odio, “nuestra tecnología aún no funciona de manera óptima y por eso todavía es necesaria la revisión final del equipo de moderadores” humanos, sostuvo Schultz.

En este punto, Rosen agregó que mejoraron las técnicas vinculadas a revisar “contenidos de odio”, pero admitió que todavía queda un “largo camino por delante”.

En el caso de discurso de odio,

Facebook

retiró dos millones y medio de contenidos en el primer trimestre de 2018.

Mientra que eliminó o aplicó etiquetas de advertencia en aproximadamente tres millones y medio de piezas con contenidos de violencia en el mismo período. 

Sobre la “propaganda terrorista”, la red social explicó en su informe que lo define “como organizaciones o individuos que participan en ’actos premeditados de violencia contra personas o propiedades para intimidar a una población civil, gobierno u organización internacional con el fin de lograr un objetivo político, religioso o ideológico’‘

"Eliminamos contenido que muestra apoyo o defensa de estas organizaciones, individuos y sus actos”, indicó, y afirmó haber eliminado casi dos millones de contenidos vinculados a “propaganda extremista” en el período analizado. 

"Cómo dijo Mark (Zuckerberg) en (la conferencia para desarrolladores) F8, todavía tenemos mucho trabajo por hacer para evitar el abuso. Si bien tecnologías como inteligencia artificial (IA) son prometedoras, aún están lejos de ser efectivas en su mayor parte para los contenidos indeseados porque el contexto es muy importante”, sostuvo Rosen.

Por ejemplo, afirmó, la IA todavía no es buena para determinar si alguien está promoviendo discursos de odio o está describiendo algo que le pasó para difundir el problema. 

Además, remarcó que en muchas áreas se enfrentan a “adversarios sofisticados” que cambian continuamente de táctica para eludir sus controles, lo que significa que tienen que desarrollar y adaptar sus esfuerzos de forma continua.



COMPARTIR:

Comentarios