Connect with us

Tecnología

Alarmante aumento del abuso sexual infantil en internet: cómo atacan los delincuentes y claves para proteger a los chicos

Publicado

on

  • Grooming, imágenes generadas por IA, extorsiones, engaños en videojuegos online y otras técnicas lideran la lista.

Un informe reciente identificó un aumento del 87% en el material denunciado sobre abuso sexual infantil online durante los últimos cuatro años. Se tratan de situaciones donde adultos se hacen pasar por otras personas a través de redes sociales, mensajes de texto y aplicaciones de mensajería, correos electrónicos, chats, juegos en línea o sitios de transmisión en vivo como Twitch.

El reporte de WeProtect Global Alliance, una organización que intenta concientizar a gobiernos y el sector privado sobre la protección de los infantes del abuso y la explotación sexual online, advierte que hubo al menos 32 millones de informes, lo que representa un incremento desde un relevamiento hecho en 2019.

“El informe, que proporciona información crítica sobre las amenazas que enfrentan los niños en línea en 2023, también encontró que ha habido un aumento del 360% en las imágenes sexuales autogeneradas de niños de 7 a 10 años de 2020 a 2022 (Internet Watch Foundation)”, explican. Esto es, imágenes que los chicos se sacan de ellos mismos para ser enviadas.

“También se reveló que las conversaciones con niños en plataformas de juegos sociales pueden convertirse en situaciones de abuso de alto riesgo en 19 segundos, con un tiempo promedio de abuso de sólo 45 minutos. Los entornos de juego social que facilitan la interacción entre adultos y niños, el intercambio de obsequios virtuales y sistemas de clasificación públicos aumentan significativamente estos riesgos”, agregan.

Otra tendencia identificada que preocupa tiene que ver con el uso de la inteligencia artificial: “Desde principios de 2023, han aumentado los casos de perpetradores que también utilizan la Al generativa para crear material de abuso sexual infantil y explotar a los niños”, aseguraron.

Para entender más este fenómeno, Clarín habló con Michelle Jeuken, director de comunicaciones de Global Alliance: “La Alianza Global WeProtect genera compromiso político y enfoques prácticos para hacer que el mundo digital sea seguro y positivo para los niños, previniendo los abusos sexuales y los daños a largo plazo. En todo el mundo, 102 países son miembros de la Alianza, junto con 66 empresas del sector privado, 92 organizaciones de la sociedad civil y 9 organizaciones intergubernamentales”, explica.

Acá, las formas de abuso online más comunes, qué responsabilidad les cabe a las plataformas como Instagram, TikTok y WhatsApp (Meta) y cómo prevenir estas situaciones para cuidar a los más chicos.

Los casos más comunes de abuso sexual infantil online

Los juegos son, muchas veces, la puerta de entrada al problema. Foto ShutterstockLos juegos son, muchas veces, la puerta de entrada al problema. Foto Shutterstock

─¿Cuáles son los casos más comunes de abuso infantil online?

Los tipos de explotación y abuso sexual infantil en línea explorados en la Evaluación de la Amenaza Global son:

1. Extorsión y coacción sexual de menores con fines económicos

Los delincuentes engañan y extorsionan a niños y adolescentes para que produzcan y compartan contenidos sexuales “autogenerados” a cambio de un beneficio económico. Muchos extorsionadores se hacen pasar por chicas jóvenes en línea y se dirigen principalmente a chicos adolescentes a través de las redes sociales, proponiéndoles el intercambio de imágenes sexualmente explícitas. Una vez enviadas las imágenes sexuales explícitas, el extorsionador amenaza con enviarlas a los amigos y familiares del menor, chantajeándolos a cambio de dinero.

2. Material de abuso sexual infantil generado por IA

Los agresores utilizan IA generativa para crear material de abuso sexual infantil y publicar su contenido generado por IA en plataformas de intercambio de imágenes, al tiempo que promueven enlaces a abusos sexuales infantiles que muestran a niños “reales” y que están alojados en otras plataformas. La IA generativa también se utiliza indebidamente para sugerir métodos para abusar sexualmente de un niño en línea o para encontrar material de abuso en Internet. Puede poner en común información sobre cómo destruir pruebas y eludir la detección por parte de las fuerzas de seguridad.

3. Grooming en juegos multijugador en línea

Las características ambientales de los juegos sociales pueden aumentar el riesgo de que un niño sufra daños sexuales. La interacción anónima en el juego puede ayudar a los adultos a acceder a los niños, la posibilidad de crear o intercambiar valor puede ayudar a los agresores a generar confianza, los sistemas de clasificación y estatus son utilizados por los agresores para generar influencia. Las conversaciones en las plataformas de juegos sociales pueden cambiar rápidamente a una situación de alto riesgo en tan sólo 19 segundos, con un tiempo medio de 45 minutos.

4. Acceder, ver y compartir abusos sexuales a menores

Muchos agresores han adoptado el “intercambio de enlaces” como método para acceder a nuevo material y eludir la detección mediante la tecnología de “hash-matching”, compartiendo URL originales, acortadas o modificadas. Se aprovechan de las lagunas de seguridad de las redes sociales, publicando material ilegal de abusos sexuales a menores en cuentas privadas con una configuración que limita la visibilidad a la persona que ha iniciado sesión. Los autores simplemente comparten las contraseñas de las cuentas con otras personas para ver el material. Los algoritmos de las plataformas de medios sociales ayudan a conectar y promover una vasta red de cuentas abiertamente dedicadas a la comisión y compra de contenido sexual de menores.

5. Captación y coacción de menores para que produzcan material sexual “autogenerado

Los agresores identifican a sus víctimas en las redes sociales, chats, entornos de juego y otras plataformas que permiten la comunicación entre usuarios. Desvían la conversación a una aplicación de mensajería privada o a un entorno cifrado de extremo a extremo para reducir el riesgo de detección, antes de preparar, presionar y manipular a los menores para que creen y compartan imágenes sexuales “autogeneradas”.

También aborda nuevas tendencias, como el visionado y el intercambio de “imágenes legales de niños” con fines de gratificación sexual, y explora nuevos datos sobre la relación entre el consumo habitual de pornografía adulta legal y la comisión de abusos sexuales a menores.

Abuso sexual infantil en internet: la responsabilidad de las plataformas

TikTok, una de las redes sociales más usadas del mundo. Foto AFPTikTok, una de las redes sociales más usadas del mundo. Foto AFP

─¿Qué creen que se podría hacer desde las plataformas para evitar estos problemas? ¿Es posible reducirlos desde el diseño mismo de ellas?

─Las herramientas y técnicas de seguridad en línea tienen el potencial de transformar la respuesta global a las amenazas. La tecnología de seguridad puede prevenir, detectar, bloquear, denunciar y eliminar material ilegal y de explotación, retransmisiones en directo y captación de menores. Las herramientas tecnológicas también pueden utilizarse para disuadir y detectar a los delincuentes e identificar y proteger a las víctimas.

La tecnología también puede utilizarse para identificar algunos de los problemas más difíciles que impiden el progreso. Las herramientas en línea pueden trabajar mucho más rápido que los humanos para identificar y detectar material abusivo, así como para rastrear plataformas y sitios web utilizados para compartir este material. El sector tecnológico también puede evaluar los riesgos y ayudar a limitar la vulnerabilidad de los niños en línea.

─¿Podrías darme algunos ejemplos?

Sí, claro, es lo que se llama “safety by design”, o seguro por diseño:

  • Herramientas de detección de la captación de menores y funciones de “seguridad por diseño” que reducen las oportunidades de los delincuentes y promueven comportamientos seguros en línea.
  • Mecanismos de disuasión que interrumpen las vías hacia la delincuencia.
  • Soluciones de “hash-matching” para detectar y eliminar material “conocido” de abuso sexual infantil, y clasificadores utilizados para detectar material de abuso sexual infantil que nunca ha sido detectado ni clasificado.

En concreto, Safety by Design sitúa la seguridad y los derechos de los usuarios en el centro del diseño y desarrollo de productos y servicios en línea. En lugar de adaptar las salvaguardias después de que se haya producido un problema, Safety by Design se centra en las formas en que las empresas tecnológicas pueden minimizar las amenazas en línea anticipando, detectando y eliminando los daños en línea antes de que se produzcan. Este enfoque proactivo y preventivo se centra en integrar la seguridad en la cultura y el liderazgo de una organización. Hace hincapié en la responsabilidad y pretende fomentar experiencias en línea más positivas, cívicas y gratificantes para todos.

El informe de este año sobre la Evaluación de la Amenaza Global también subraya la urgente necesidad de invertir en enfoques de salud pública que den prioridad a la prevención, de centrar los derechos y las perspectivas de los niños en el diseño de las intervenciones, y pide la aplicación de legislaciones alineadas a nivel mundial.

Consejos para prevenir abuso online

Hablar, la clave. Foto: ShutterstockHablar, la clave. Foto: Shutterstock

─¿Qué consejos clave dan para prevenir estos casos? ¿Cómo educar a un niño o niña en lo más básico para no caer en estas trampas?

─Los padres y cuidadores tienen un papel importante a la hora de hablar con sus hijos, hacerles conscientes de los riesgos a los que pueden enfrentarse en línea y fuera de ella, y asegurarse de que saben que pueden hablar con un adulto de confianza si sufren abusos o algo no les parece bien. Los niños también deben sentirse capacitados y apoyados para actuar, por ejemplo borrando o bloqueando a alguien que les envíe contenido explícito.

Uno de nuestros miembros, la Internet Watch Foundation, tiene una campaña para ayudar a los padres a hablar con sus hijos sobre este tema. Estos consejos incluyen:

  • Hable con su hijo sobre los abusos sexuales en Internet. Inicie la conversación y escuche sus preocupaciones.
  • Acuerde normas básicas sobre el uso de la tecnología en familia.
  • Conozca las plataformas y aplicaciones que le gustan a su hijo. Interésese por su vida en Internet.
  • Sepa cómo utilizar las herramientas, aplicaciones y configuraciones que pueden ayudar a mantener a su hijo seguro en Internet.

─¿Qué hace falta cambiar a nivel gubernamental para prevenir estos casos?

Sin embargo, los padres, los tutores y especialmente los niños no deben sentir que es su única responsabilidad abordar el abuso en línea. Creemos que todos, incluidos los gobiernos, el sector privado y la sociedad civil, tienen un papel que desempeñar para intensificar nuestra respuesta y garantizar que los niños puedan disfrutar interactuando, aprendiendo y jugando en línea sin temor al abuso o la explotación sexual.

Tecnología

Desarrollaron un robot que imita los festejos de Cristiano Ronaldo y LeBron James, y los movimientos de Kobe Bryant

Publicado

on

Por

Un innovador método de entrenamiento permitió al humanoide aprender movimientos complejos basándose en videos de atletas y ajustándose a la física del mundo real

Seguir leyendo

Tecnología

Europa se prepara para explorar Marte: los ambiciosos planes de la ESA para la próxima década

Publicado

on

Por

La agencia europea apuesta por la investigación de Marte con tecnología avanzada, iniciando una nueva era en la búsqueda de vida extraterrestre

Seguir leyendo

Tecnología

Los derechos humanos en la era de la inteligencia artificial: cómo gobernar para la humanidad

Publicado

on

Por

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

En diciembre se celebra el Día Internacional de los Derechos HumanosPacto Global Argentina se suma al llamado de Naciones Unidas para revalorizar la protección de los derechos fundamentales en un mundo transformado por la tecnología.

El respeto y la promoción de los derechos humanos constituyen un pilar de la sostenibilidad corporativa. Como indican los Principios 1 y 2 del Pacto Global de Naciones Unidas, en el contexto de sus operaciones, las empresas pueden generar impactos negativos, afectando los derechos humanos de diversos actores con los cuales se relacionan. Desde su creación en 2004, Pacto Global Argentina genera espacios para el intercambio entre pares, el desarrollo de capacidades y el diálogo multiactor en materia de derechos humanos.

En un mundo caracterizado por la incertidumbre, las migraciones, la inequidad, el cambio climático, las desigualdades estructurales y las demandas públicas crecientes, las Naciones Unidas llama a las empresas a acelerar su compromiso con la sostenibilidad en la Década para la Acción.

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

Gobernar la IA para la humanidad

El informe “Gobernar la IA para la humanidad” de Naciones Unidas exhorta a gobiernos, empresas y sociedad civil a establecer una arquitectura global inclusiva y cooperativa para la gobernanza responsable de la IA. Accenture define la IA responsable como la práctica de diseñar, construir e implementar IA de una manera que empodere a los empleados y a las empresas, teniendo un impacto justo en los clientes y la sociedad. Este enfoque no solo busca fomentar el desarrollo sostenible, sino también garantizar que los avances tecnológicos estén alineados con los principios fundamentales de los Derechos Humanos.

Según el informe conjunto de Pacto Global y Accenture “Gen AI for the Global Goals”, el mercado de IA generativa crecerá un 32% anual hasta alcanzar $98.1 mil millones en 2026. Sin embargo, solo el 2% de las empresas han implementado mecanismos completos de gobernanza de IA responsable. Esto subraya la urgencia de establecer marcos éticos y colaborativos que alineen los avances tecnológicos con los derechos humanos y la sostenibilidad.

Derechos Humanos y tecnología: Un deber colectivo

La inteligencia artificial puede ser una herramienta poderosa para el progreso humano, pero también plantea riesgos significativos si no es adecuadamente regulada. Desde sesgos algorítmicos hasta brechas de acceso, el uso no ético de la IA podría exacerbar desigualdades y vulnerar derechos fundamentales. Por ello, la ética y la rendición de cuentas deben ser principios rectores en el diseño, desarrollo y uso de estas tecnologías.

Derechos humanos y regulaciones

La gobernanza de la inteligencia artificial debe priorizar la protección de los derechos humanos a través de marcos regulatorios claros y efectivos. Según el informe conjunto de Accenture y Pacto Global, las empresas tienen la responsabilidad de garantizar que los sistemas de IA respeten principios éticos, como la transparencia, la equidad y la no discriminación. Esto incluye adoptar estándares internacionales, como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos, para guiar evaluaciones de impacto y mitigar riesgos.

Además, con la Unión Europea liderando iniciativas regulatorias como la Ley de IA, se está estableciendo un precedente global que refuerza la necesidad de un enfoque integral y colaborativo. La implementación de estas regulaciones no solo asegura la protección de los derechos fundamentales, sino que también promueve la confianza y la legitimidad en el uso de tecnologías emergentes.

Integridad sostenible en un mundo digital

Adoptar un marco ético para la IA es una extensión de nuestro compromiso con los Derechos Humanos. Desde Pacto Global Argentina alientan a las organizaciones a integrar estas recomendaciones en sus operaciones, priorizando la sostenibilidad, la inclusión y la justicia.

En este esfuerzo, la plataforma Academy de Global Compact ofrece capacitaciones clave en áreas como:

  • Derechos Humanos y Empresas.
  • Ética en la Inteligencia Artificial.
  • Principios rectores sobre empresas y Derechos Humanos.

Todas las organizaciones y actores sociales estan invirados a explorar estos recursos gratuitos como una herramienta para avanzar hacia una gobernanza responsable y alineada con los ODS.

Acciones sugeridas para las empresas

Los avances tecnológicos están impactando cada vez más a las empresas. El 97% de los ejecutivos cree que la IA generativa transformará su industria en los próximos tres a cinco años. Por ende, las empresas tienen un papel crucial en la gobernanza de la IA con enfoque en Derechos Humanos. Más allá de capacitarse, es fundamental que adopten acciones concretas para asegurar que sus prácticas tecnológicas respeten los principios éticos, protejan derechos fundamentales y contribuyan a los Objetivos de Desarrollo Sostenible (ODS) a saber:

  • Adopción de Principios Éticos para la Gobernanza de la IA
  • Desarrollar un marco ético interno que regule el diseño, desarrollo y uso de la IA, asegurando la alineación con los Derechos Humanos y los ODS.
  • Implementar principios rectores: Transparencia, equidad, no discriminación, privacidad, responsabilidad y rendición de cuentas.
  • Evaluación de Impacto de Derechos Humanos en la IA
  • Realizar evaluaciones de impacto periódicas para identificar riesgos reales y potenciales de los sistemas de IA en los derechos de las personas, especialmente de comunidades vulnerables.
  • Utilizar marcos reconocidos como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos para guiar estas evaluaciones.
  • Incorporación Paneles comunitarios en la Gobernanza Participativa
  • Involucrar a múltiples partes interesadas (empleados, comunidades, ONGs, expertos en derechos humanos) en la revisión y monitoreo de las aplicaciones de IA. Promover la consulta abierta y la inclusión de voces diversas para garantizar que las tecnologías desarrolladas beneficien a todos.
  • Transparencia y Rendición de Cuentas
  • Publicar informes regulares que detallen cómo se están utilizando las tecnologías de IA en la empresa, qué medidas se están tomando para mitigar riesgos y qué beneficios se están generando. Garantizando la trazabilidad de los algoritmos y las decisiones automatizadas, explicando claramente a los usuarios cómo y por qué se toman estas decisiones.
  • Capacitación y Conciencia Ética Interna
  • Crear equipos interdisciplinarios que incluyan expertos y expertas en tecnología, ética y derechos humanos para liderar las iniciativas de IA responsable. Tener presente los sesgos algorítmicos, la privacidad y protección de datos.
  • Promoción de la Diversidad y la Inclusión en el Desarrollo de IA
  • Asegurar que los equipos de desarrollo de IA sean diversos e inclusivos, lo que puede ayudar a reducir sesgos en los algoritmos y a diseñar soluciones más equitativas.
  • Implementar prácticas de reclutamiento inclusivo para roles técnicos y éticos relacionados con IA.
  • Colaboración con Redes Globales y Locales
  • Participar en plataformas internacionales como el Panel Científico Internacional sobre IA, recomendado por Naciones Unidas, para compartir y aprender de las mejores prácticas.
  • Establecer alianzas con universidades, centros de investigación y ONGs para fomentar la investigación responsable de IA con impacto positivo.
  • Impulso a la Innovación Responsable
  • Utilizar la IA para abordar desafíos globales, como la reducción de emisiones de carbono (ODS 13) o el aumento de la eficiencia en el uso de recursos naturales (ODS 12) com también para contribuir al ODS 10 (Reducción de desigualdades).

Compromiso y Acción

Estas acciones deben ser acompañadas por un compromiso visible y activo por parte del liderazgo empresarial. La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero su impacto debe ser cuidadosamente gestionado. Al adoptar alguna de estas acciones entendemos que las empresas no solo protegerán los derechos fundamentales, sino que también construirán confianza y legitimidad, elementos clave para su sostenibilidad a largo plazo.

Un llamado urgente

Hacemos un llamado a trabajar juntos en una visión inclusiva y cooperativa para la gobernanza de la IA. Con solo el 17% de los ODS en camino de cumplirse para 2030, es fundamental que gobiernos, empresas y sociedad civil aceleren la implementación de prácticas responsables en IA.

“Desde Accenture estamos convencidos que la tecnología debe alinearse con los valores fundamentales de los derechos humanos. Gobernar la IA no es opcional, es un deber colectivo”, asegura Gaetano Salierno, Director de Estrategia y Sostenibilidad de Accenture Argentina.

“La inteligencia artificial, gobernada con integridad y en beneficio de la humanidad, puede ser un catalizador de justicia y sostenibilidad. Gobernarla es protegernos”, explica Flavio Fuertes, Director Ejecutivo del Pacto Global.

Pacto Global Argentina reafirma su compromiso con los valores de dignidad, justicia y equidad en un mundo donde la tecnología y los Derechos Humanos deben avanzar juntos para garantizar un futuro sostenible para todos.

Seguir leyendo

Mas Leidas

© 2022 FM Integracion 90.1. Todos los Derechos Reservados. | Desarrollado por Conexión Streaming

FM Integracion 90.1