Los ‘selfies’ sexuales de niños de 7 a 10 años aumentan un 360% entre 2020 y 2022 en el mundo
ABC .- Los casos de material de abuso sexual infantil denunciados desde 2019 aumentan un 87%, con más de 32 millones de denuncias en el mundo Las imágenes sexuales autogeneradas, como los ‘selfies’, de niños de siete a diez años aumentaron un 360 por ciento en todo el mundo entre 2020 y 2022. Así lo refleja el informe ‘Evaluación de la amenaza global de 2023, Evaluación de la escala y el alcance de la explotación y el abuso sexual infantil en Internet para transformar la respuesta’, de WeProtect Global Alliance, que revela que 20.000 informes de la primera mitad de 2022 de imágenes de abuso sexual autogeneradas bajo coacción muestran a niños de siete a diez años. Este informe, informa EP, recopila y analiza conclusiones de numerosos estudios para ofrecer un panorama holístico y actualizado de la amenaza de la explotación y el abuso sexual infantil en Internet en todo el mundo. La evaluación está reforzada por varias formas de investigación que incluyen la encuesta de Economist Impact de las percepciones de padres y tutores sobre la explotación y el abuso sexual infantil en Internet; y datos de la Oficina de las Naciones Unidas del Representante Especial de la Secretaría General sobre Violencia contra los Menores, Tech Coalition, Suojellaan Lapsia Protect Children, Child Rescue Coalition, Unicef y End Violence Global Partnership (Alianza global para poner fin a la violencia). También analiza 26 entrevistas semiestructuradas con una variedad de actores, incluidos funcionarios de cuerpos y fuerzas de seguridad, representantes y defensores de la seguridad infantil, académicos o representantes de la industria de la tecnología; conclusiones a partir de los datos desarrolladas por Crisp, empresa de Kroll; y casos prácticos proporcionados por organizaciones y afiliados miembros de la alianza. El desarrollo de este informe ha sido dirigido por un Comité Directivo Global que incluye a 15 expertos de los cuerpos y fuerzas de seguridad, gobiernos, empresas de tecnología, ONG, el mundo académico y defensores con experiencias vividas de abuso. La investigación revela que ha habido un aumento del 87 por ciento en los casos de material de abuso sexual infantil denunciados desde 2019, con más de 32 millones de denuncias en todo el mundo (NCMEC). Los hallazgos resaltan la «urgente necesidad» de una respuesta «coordinada y polifacética» para proteger a los niños del mundo de esta amenaza creciente. Asimismo, refleja que las conversaciones con niños en plataformas de juegos sociales pueden escalar a situaciones de grooming de alto riesgo en 19 segundos, con un tiempo medio de grooming de 45 minutos. El grooming es una práctica en la que un adulto se hace pasar por un menor en Internet o intenta establecer un contacto con niños y adolescentes que dé pie a una relación de confianza, pasando después al chantaje con fines sexuales. En este sentido, el estudio advierte de que los entornos de juegos sociales que facilitan la interacción entre adultos y niños, el intercambio de regalos virtuales y los sistemas de clasificación pública «aumentan considerablemente estos riesgos». Por otro lado, pone de manifiesto un aumento importante de la extorsión sexual financiera, con un aumento de 139 denuncias en 2021 a más de 10.000 en 2022. En este caso, los agresores preparan y manipulan a los niños para que compartan imágenes y vídeos sexuales de ellos mismos y luego los extorsionan para obtener un beneficio económico. Muchos extorsionadores se hacen pasar por chicas jóvenes en Internet y se dirigen principalmente a chicos de entre 15 y 17 años a través de las redes sociales. Este fenómeno ha dado lugar a una serie de casos en los que niños se han quitado trágicamente la vida, según alerta el estudio. Agresiones con inteligencia artificial El informe señala que las nuevas tecnologías están empeorando las posibles agresiones o amenazas a las que se enfrentan los niños en Internet. Así, precisa que, desde principios de 2023, han aumentado los casos de agresores que también utilizan Inteligencia Artificial generativa para crear material de abuso sexual infantil y explotar a los niños. Según Thorn, organización que se encarga de prevenir la explotación sexual infantil, aunque menos del 1 por ciento de los archivos de material de abuso sexual infantil compartidos en una muestra de comunidades de delincuentes son actualmente imágenes fotorrealistas generadas por ordenador (CGI) de abuso sexual infantil, el volumen ha aumentado constantemente desde agosto de 2022. De hecho, Australia puso en marcha medidas que obligan a las grandes empresas tecnológicas a tomar medidas para garantizar que los productos de Inteligencia Artificial no puedan utilizarse para generar imágenes y vídeos falsos de abusos sexuales a menores. «La explotación y el abuso sexual infantil online en todo el mundo exigen nuestra atención y acción ahora mismo. Las nuevas capacidades tecnológicas agravan aún más los riesgos existentes, y la situación no es diferente en España. La seguridad de los niños no debe ser negociable. Para evitar que más niños sufran, los gobiernos, las organizaciones, los servicios online, las organizaciones benéficas y las empresas deben redoblar sus esfuerzos y colaborar para impulsar el cambio y protegerlos», subraya el director ejecutivo de WeProtect Global Alliance, Iain Drennan.