hace 4 años - SANTIAGO
Tiempo de lectura: 7 minutos"La mera desnudez de niños y niñas no es permitido. Nosotros tenemos cero tolerancia con cualquier tipo de material que pueda poner los niños en riesgo", indicaron desde la red social.
La exposición de imágenes y videos de explotación sexual de niños, niñas y adolescentes en las redes sociales se multiplicó más de un 500% en el país durante la pandemia, según un estudio de Unicef, el Ministerio de Justicia, La Red por la Infancia y el programa Las Víctimas contra la Violencia, situación que generó el lanzamiento de campañas por parte de importantes organizaciones para combatir esta problemática.
En una entrevista concedida a EL LIBERAL, Daniele Kleiner, gerente de Seguridad y Bienestar de la red social Facebook para América Latina, explicó que junto con la Fundación Red por la Infancia unieron esfuerzos para lanzar en el país la campaña "Denuncialo, no lo compartas", que busca generar conciencia sobre la importancia de no difundir contenido que pueda revictimizar a los niños y adolescentes que sufren explotación sexual.
La explotación sexual se produce cuando una niña, niño o adolescente es utilizada/o u obligada/o por una o más personas adultas a realizar actividades de carácter sexual con el objetivo de obtener un beneficio. Las formas más frecuentes en la que se encuentra este tipo de contenido ilegal en las redes sociales, son imágenes y videos de niños, niñas y adolescentes con comportamientos o en actividades sexuales.
Kleiner, licenciada en Derecho de la Universidad de São Paulo (USP), Master de la Universidad de Brasilia (UnB) y con una maestría de la Universidad de Harvard (Harvard Law School) con enfoque en Tecnología y Derecho, explicó la forma en que trabaja Facebook para detectar y denunciar cuando se producen este tipo de casos, en los que se exponen imágenes o escenas de desnudez o pornográficas de menores.
Te recomendamos: Grooming: la escuela y la ESI son clave en la prevención de la explotación sexual infantil
¿Cuál fue el disparador de esta campaña?
Es una oportunidad de contar nuestras investigaciones internas acerca de este fenómeno malo que es cuando la gente comparte este tipo de material –de explotación sexual- en nuestras plataformas. Nosotros hicimos una investigación con material de octubre y noviembre de 2020 para comprender distintas cosas. Primero, desarrollamos una taxonomía de intención. La idea de desarrollar una taxonomía de intención es entender por qué razón la gente comparte este tipo de material. Esto es muy importante para poder comprender a la gente que lo comparte con una mala intención, ya sea para explotación comercial, por preferencias, de aquella otra gente que lo comparte por ignorancia, ya que no tiene la intención de perjudicar al niño. Por ejemplo, situaciones en que quieren reportar o denunciar una situación que han visto en el mundo real en internet, o lo comparten por shock, o bien situaciones de humor malo, a través de memes, donde tenían niños desnudos. Aunque no sea una situación de explotación, nosotros consideramos ese tipo de material como de abuso infantil. Porque la mera desnudez de niños y niñas no está permitido. Nosotros tenemos cero tolerancia con cualquier tipo de material que pueda poner a los niños en riesgo. Tenemos este abordaje de cero tolerancia incluso si padres o madres de manera inocente publican fotos de sus hijos en el baño, desnudos. En esos casos también los removemos.
¿Cómo hacen para detectar estos casos?
Trabajamos con desarrollos de tecnología de punta, de inteligencia artificial, clasificadores, aprendizaje de máquinas. Esta tecnología nos ayuda a detectar más rápidamente la desnudez infantil o material de explotación para que podamos tomar los protocolos e incluso denunciar estos materiales a una organización que se llama Centro Nacional de Niños Desaparecidos y Explotados (NCMEC) que es una organización estadounidense que tiene autorización del gobierno norteamericano para tener estos materiales. Ellos reenvían reportes a la policía de todo el mundo, incluso a la policía de la Argentina.
¿Facebook reporta también fotos de niños desnudos con sus padres, aún cuando no tengan finalidades pornográficas?
Exacto, nosotros removemos cualquier instancia de desnudez de niños y niñas que pueda realmente ponerles en riesgo. Claro, no queremos remover fotos lindas de bebés, pero sí instancias en que creemos que terceras personas puedan explotar este material de una manera no intencionada por los padres. Entonces, los expertos recomiendan y nosotros recomendamos a los padres y madres que puedan tener conciencia de evitar publicar ese tipo de material en cualquier lugar de la internet. Incluso en mensajería privada, etc., es importante que puedan tener conciencia que ese material puede ser explotado de una manera que ellos no habían previsto.
¿Qué grado de importancia tiene este tema en la agenda de la compañía?
Es prioritario. La seguridad de los niños, niñas, adolescentes y el bienestar de los jóvenes en nuestras plataformas es prioridad total. Tenemos varios equipos que trabajan en Facebook, equipos de ingenieros que desarrollan soluciones tecnológicas. Por ejemplo, utilizamos tecnología de correspondencia de fotos hace muchos años. Un tema que es importante es que ésta es un área en la que la industria trabaja en colaboración, no somos competencia. La manera cómo funciona es si una empresa detecta en sus sistemas un material de abuso de niños o niñas, entonces con esta tecnología lo que podemos hacer es un ADN único digital para esta foto. Es una secuencia que detecta los pixeles, etc. Las empresas reportan ese material a NCMEC y borran ese material de sus sistemas. Pero salvamos esa digitalización con un nombre que se llama "hash". Si alguien más intenta subir ese mismo material, es muy probable que esta tecnología lo detecte, dispare un alerta y con esto podemos mapear nuevos intentos de subir este material en nuestras plataformas. Nosotros desarrollamos una tecnología de detección de videos que hasta no hace muchos años no era posible, pero hoy lo es y está compartido con código abierto. Esto es trabajo de detección, cuando se sube una imagen, se detecta.
Hay mucho trabajo en la prevención. Ahí entran clasificadores que nos ayuda por ejemplo a evitar que adultos con comportamientos sospechosos en las plataformas puedan alcanzar a jóvenes. Lo que estamos haciendo es restringir a adultos con comportamientos sospechosos que puedan alcanzar jóvenes, encontrarlos en la búsqueda, que puedan enviarles mensajes. Todo esto lo bloqueamos para evitar que esos adultos puedan contactar jóvenes desde nuestras plataformas.
¿Facebook tiene un patrón de comportamiento de ciertas personas que les permite activar esas alertas?
Sí, así funcionan los clasificadores. Analizamos cuentas de adultos que quieran violar nuestras políticas en relación de seguridad de niños y niñas. Intentamos encontrar patrones de comportamientos y con esto intentamos llegar a lo máximo posible de probabilidad. Por eso hablamos de restringir el acceso porque la idea no es punir sin que la persona, de hecho, esté haciendo algo, pero sí limitar su capacidad de llegar a niños y jóvenes en caso que sea esa la intención. Es una combinación de varias señales.
¿Es posible detectar a las personas que suben videos y denunciarlas por parte de Facebook a las autoridades?
Es posible detectar y es así como lo hacemos con la tecnología de correspondencia de imágenes. Si hay una imagen ya identificada de explotación de la que tenemos la “hash” digital en nuestra base, si alguien intenta subir este mismo material, la herramienta lo detecta y envía un mensaje a nuestros analistas especializados que están entrenados en la protección de niños y niñas porque tienen determinados protocolos que seguir.
Entre ellos está hacer este reporte hacia NCMEC donde ponemos los datos para las investigaciones y ellos lo pasan a la policía del país correspondiente del material que se ha subido, del abuso. NCMEC hace un cruce de datos para agregar informaciones, como ellos tienen una visión global de lo que está pasando pueden agregar datos. Identifican si puede ser una red de personas que trabajan en esto, si es un niño que ya fue identificado y rescatado o si no está en situación de peligro inmediato.
Te recomendamos: Acosadores y abusadores sexuales eligen los juegos en red para captar a los menores
¿Este trabajo se realiza en forma constante en la red?
Utilizamos tecnología automatizada de detección que es muy precisas y que detecta con una probabilidad muy alta material que si es de abuso, explotación o desnudez de niños y niñas, dispara un alerta en nuestros analistas para que se proceda con los protocolos.
Trabajamos una vez que se sube, a posteriori de la publicación, porque sin el material, nuestros sistemas no tienen cómo ver y detectar. Ahí tomamos los protocolos para remover ese tipo de material.
Dónde y cómo denunciar
Facebook: fb.com/onlinechildprotection.
Link al video campaña: https://www.youtube.com/watch?v=4tbL4CzbTIo
Si ves una publicación en Facebook y consideras que infringe las normas comunitarias, se puede reportar mediante la opción "Reportar" que aparece cuando se toca la flecha hacia abajo o "..." junto a una publicación, arriba a la derecha.
Se puede reportar una conversación en Facebook al tocar el nombre de la persona con la que se tiene la conversación y seleccionar: "Hay un problema".
Si conocés a una niña, niño o adolescente en riesgo: Línea Nacional 137 de Ayuda y atención a víctimas de violencia familiar y sexual.
Mensajes de WhatsApp al 11-3133-1000
https://www.argentina.gob.ar/justicia/violencia-familiar-sexual
Para reportar y denunciar de forma anónima imágenes de explotación sexual y/o abuso sexual: https://report.iwf.org.uk/ar
www.redporlainfancia.org (Una guía práctica sobre cómo actuar frente a situaciones de explotación de niñas, niños y adolescentes)
19/09/2021 Fuente y foto:EL LIBERAL
Powered by TURADIOINFO.COM