Facebook desarrolló una IA para luchar contra la pornografía infantil que ya ha eliminado 8,7 millones de fotos

Uno de los mayores problemas de las redes sociales en la actualidad es que, dado el tamaño que han adquirido con el paso de los años, se han vuelto prácticamente incontrolables incluso para sus creadores. Así se entienden los problemas que está teniendo Facebook para controlar la proliferación de noticias falsas y la injerencia y manipulación de ciertos grupos en elecciones de mucha importancia.

Todo ello ha sido muy mediático últimamente, pero la compañía, de forma más silenciosa, está asimismo comprometida en la lucha contra la pornografía infantil y la exposición de menores. En ese sentido, durante años, la compañía ha desarrollado programas de seguridad y educativos con 400 organizaciones, utilizado tecnología de reconocimiento y emparejamiento de imágenes para impedir que los usuarios compartan fotos de contenido infantil sensible, informado de violaciones y no permitido que menores de 13 años se registren, Facebook ha ido más allá.

Herramientas que, ahora sí, parecen preparadas para el reto

Durante el último año ha desarrollado herramientas mucho más sofisticadas en esa misma lucha, y como no podía ser de otra manera, el proceso ahora implica el uso de inteligencia artificial y aprendizaje automático. Con ellos, el trabajo humano se relaja y la potencia de detección de contenidos como desnudos infantiles se dispara exponencialmente. No hace falta que el contenido llegue a estar subido mucho tiempo, la búsqueda de imágenes es totalmente proactiva y muy rápida.

Sólo atendiendo a los números, ya parece que Facebook está actuando con mucho más compromiso que otras veces. No es alabable, es su responsabilidad

Otros sistemas están ayudando en reconocer y denunciar los contenidos, pero también para detectar patrones de relaciones de adultos buscando a niños para eliminar las cuentas y proteger a los menores. Según recoge el comunicado, otra medida consiste en eliminar contenido considerado neutral o no dañino, como pueden ser fotos de niños bañándose desnudos, que más adelante podría generar un riesgo de abuso.

De esta forma, han conseguido borrar 8,7 millones de imágenes de la red social. Lo que demuestra que en principio la inteligencia artificial está funcionando bien es que el 99% de esa cifra se eliminó antes de que nadie lo denunciase. Facebook está actuando contra cuentas que dan apoyo y propagan contenido pedófilo.

No todo queda dentro en la compañía

Tras detectar y eliminar las imágenes y vídeos, Facebook pone los resultados en manos de grupos de expertos en derecho, seguridad online y analítica, que a su vez denuncian el material delictivo al National Center for Missing and Exploited Children. En la lucha también participan ONGs y alianzas como la Tech Coalition o la WePROTECT Global Alliance.

Esto no debe servir para blanquear las actuaciones tan negativas que la compañía ha demostrado tener en los últimos tiempos. Si acaso sirve para reforzar las críticas que se le han hecho en otros sentidos, cuando por ejemplo la compañía afirmó no poder controlar las noticias falsas, a la vez vanagloriándose de cambiar el mundo para mejor. Estos resultados, a priori muy positivos, son exactamente lo que cualquier gran compañía le debe a su grupo de usuarios. No más. Y no menos.

También te recomendamos


IA y redes neuronales, la apuesta de Google para luchar contra la pornografía infantil


Estos proyectos te servirán de inspiración para dedicarte al sector de la realidad virtual


La inteligencia artificial como herramienta para monitorizar la salud mental de los estudiantes


La noticia

Facebook desarrolló una IA para luchar contra la pornografía infantil que ya ha eliminado 8,7 millones de fotos

fue publicada originalmente en

Genbeta

por
Antonio Sabán

.

Powered by WPeMatico

Aquí puedes comentar sobre este artículo

comentarios

Esta web utiliza cookies . Si continuas navegando estás aceptándola