Connect with us

Tecnología

El lado oscuro de TikTok: la alarmante advertencia de Amnistía Internacional sobre su uso en Argentina

Publicado

on

  • La organización presentó un estudio sobre el impacto de la red social en los jóvenes.

TikTok es una de las redes sociales con mayor crecimiento en la historia de internet. En pocos años, llegó a pasar los mil millones de usuarios y, en Argentina, más de 16 millones de mayores de 18 años tienen una cuenta. Pero detrás de la inmensa cantidad de videos que se pierden en un scroll infinito, hay un diseño preocupante: Amnistía Internacional presentó una serie de advertencias que levantan algunas banderas rojas sobre el uso intensivo de esta aplicación.

Además de recolectar una enorme cantidad de información de usuarios, a través de un modelo extractivo tech exacerbado, TikTok “puede ser un espacio tóxico y adictivo para niños, niñas y jóvenes que puede influir en su autoimagen, su salud mental y su bienestar, y donde corren el peligro de caer en espirales de contenidos desencadenantes de depresión y autolesiones”, advierte la organización.

El impacto de TikTok en jóvenes es muy grande: según datos de la compañía, de sus 1092 millones de usuarios mensuales activos a abril de 2023, el 71% era menor de 35 años (38,5% era menor de 25 años, mientras que el 32,5% restante pertenece a la franja de 25 a 34 años), de los cuales 53,4% son mujeres y el 46,6% son varones.

Amnistía Internacional presentó un informe de 84 páginas en el que marca ciertas advertencias sobre el uso de la app en Argentina, con la privacidad y la salud mental como principales ejes. A partir de un método etnográfico -es decir, tomando como fuente a usuarios de entre 13 y 25 años-, la organización sacó algunas conclusiones que explican el fenómeno TikTok y a la vez levantan ciertas preocupaciones.

Fue el viernes pasado, en el barrio porteño de Villa Crespo, ante especialistas, periodistas, académicos e interesados en tecnología y redes sociales. Entre ellos estaba Martín Becerra, investigador principal en Conicet y profesor de la Universidad Nacional de Quilmes y la Universidad de Buenos Aires. Habló con Clarín.

TikTok: la recolección de información

TikTok revolucionó el formato móvil de las redes sociales. Foto: ShutterstockTikTok revolucionó el formato móvil de las redes sociales. Foto: Shutterstock

La empresa registra datos dentro y fuera de TikTok. Dentro de la plataforma, a través de lo más obvio que son los videos vistos, el tiempo de exposición, las reacciones (comentarios, guardado, etc.), así como otras variables como los géneros y temáticas, palabras clave buscadas u operadas”, explicó Becerra.

“Fuera de la plataforma a través del acceso a geolocalización (incluso si el teléfono la tiene desactivada o si el usuario no lo autoriza explícitamente), lo que comprende la ubicación basada en tarjeta SIM o dirección IP, contactos, compras y transacciones, búsquedas externas y otros datos personales”, agregó.

Pero una de las cuestiones más llamativas es que el “espionaje” que hace TikTok del dispositivo no puede ser desactivado: “TikTok reconoce el resto de aplicaciones instaladas en un dispositivo móvil y accede a datos del sistema operativo Android e iOS. También puede leer mensajes de correo electrónico y de aplicaciones que no encriptan end to end los mismos. La extracción de datos de la plataforma no puede desactivarse”, suma. Esto es mucho más normal de lo que se cree: muchas apps reconocen el ecosistema de programas en el que están operando.

Presentación del informe, el viernes pasado. Foto: Tomás Ramírez LabroussePresentación del informe, el viernes pasado. Foto: Tomás Ramírez Labrousse

“Su política de privacidad es poco respetuosa de los datos personales y de la información generada por los usuarios: la plataforma recopila todos los intercambios que tienen lugar en ella (lo cual es común a otras redes sociodigitales), además de ‘información inferida’ en base a variables como intereses, gustos y motivaciones, género y rango etario; información técnica sobre el dispositivo móvil, dirección IP, proxy, operador de telecomunicaciones, zona horaria, tipo de red, identificadores del dispositivo, nombres y tipos de aplicaciones y archivos, patrones o ritmos de pulsación de teclas, estado de la batería, configuración de audio y dispositivos de audio conectados”, suma el especialista.

Esto es una enorme cantidad de información que la aplicación usa a su favor para, a fin de cuentas, saber más del usuario y operar sobre el algoritmo de recomendaciones.

TikTok: el costo en la salud mental

"Scroll" infinito: en qué consiste y por qué es peligroso. Foto: Shutterstock“Scroll” infinito: en qué consiste y por qué es peligroso. Foto: Shutterstock

Uno de los puntos más preocupantes del informe es el peaje en la salud mental que cobra la aplicación para sus usuarios. El “doomscrolling”, o la navegación permanente en un feed de noticias -incluso a pesar de ser negativas o desalentadoras-, tiene un efecto negativo, sobre todo con ciertos contenidos que quedan de un “lado malo” de la app.

El informe detectó que los usuarios hacen una distinción, en la práctica, sobre un “lado bueno” y un lado “malo”, feo o, incluso, peligroso.

“Se trata de recomendaciones de contenido que la plataforma realiza en base a algún tipo de búsqueda o huella, o contacto y que muchos de sus usuarios interpretan que es negativo o dañino para ellos”, explica Becerra.

“Sus estrategias y tácticas para ‘salir del lado malo’ depende de proporcionar más contenido que el que se ha consumido, si por algún motivo ese consumo previo incluyó contenidos que no se quiere volver a ver, en una adaptación que genera disgustos y experiencias desagradables. También suelen pedirle a otros usuarios que les envíen links con contenidos “buenos” que ayudarán a re-entrenar, o ‘domesticar’ al algoritmo”, agrega.

Martín Becerra, especialista en medios y nuevas tecnologías. Foto: Tomás Ramírez LabrousseMartín Becerra, especialista en medios y nuevas tecnologías. Foto: Tomás Ramírez Labrousse

Otro de los aspectos preocupantes del informe tiene que ver con el reemplazo del saber médico por opiniones a partir de videos. “La profusión de autodiagnósticos, la distancia con el saber profesional y científico respecto de síntomas percibidos como problemas de salud física y mental y el acceso directo a través de TikTok a consejos, experiencias y recetas vinculadas con el aspecto físico y con el bienestar emocional es un resultado sobresaliente del estudio, no sólo por los testimonios propios de nuestros interlocutores, sino porque narran estas situaciones como generalizadas en sus entornos de amistades y allegados, y en sus ámbitos de estudio o trabajo”, repasa Becerra.

“La exposición de trastornos autodiagnosticados es común, llegando a mencionar videos de influencers y cuentas de TIkTok que funcionan como ejemplos de comportamientos derivados de autodiagnósticos y contenidos que ponen en riesgo la integridad física o el equilibrio mental de sus protagonistas, sin que la programación algorítmica de la plataforma detecte o emita alertas en estos casos. Los problemas de salud mental son aludidos con mucha frecuencia por los propios usuarios de la plataforma en las entrevistas”, agrega.

El estudio: cómo se hizo y por qué poner la lupa sobre TikTok

"Domar el algoritmo", el desafío de TikTok para Amnistía Internacional. Foto: Tomás Ramírez Labrousse“Domar el algoritmo”, el desafío de TikTok para Amnistía Internacional. Foto: Tomás Ramírez Labrousse

Hay una pregunta lícita y es por qué centrarse en TikTok cuando el resto de las redes sociales tienen dinámicas similares a las de la red social, propiedad del conglomerado chino ByteDance, que ha sido atacado en más de una oportunidad por Estados Unidos por acusaciones de presunto espionaje.

Más allá de esta pelea geopolítica, “TikTok es la red sociodigital de mayor crecimiento desde el año 2020. La cantidad de descargas de la aplicación y su rápida adopción por millones de usuarias/os despertó el interés público que, en algunos países, se trasladó a la agenda política y regulatoria”, explicaron desde Amnistía Internacional.

Según la organización, “la atención sobre TikTok se inscribe en una preocupación más general relativa al impacto de las redes sociodigitales en jóvenes, adolescentes y en la niñez. TikTok es una red especialmente diseñada y usada por jóvenes, adolescentes y niñas/os, segmentos donde es masiva”.

En este sentido Becerra considera que este tipo de trabajos de campo “tienen el valor de aportar conocimiento, promover el debate público y reclamar responsabilidad no sólo a las empresas dueñas de las grandes plataformas digitales, sino también al poder político que debe velar por garantizar a la ciudadanía entornos seguros y fiables, sobre todo a menores de edad y a grupos vulnerables”.

En este sentido, para el especialista en comunicación y nuevas tecnologías se torna clave transpolar este tipo de trabajos a otras redes como Instagram, y Facebook, que también se posicionan sobre un modelo extractivo de datos personales.

“Al ser esta la primera investigación sobre TikTok en la Argentina, y al complementar otras que Amnistía Internacional ha hecho en los últimos meses en otros países, invita a otras organizaciones y al sector académico a reclamar transparencia en la programación algorítmica de las redes sociodigitales, en su modelo de negocios extractivo de datos personales e invasivo de la privacidad y en sus opacos sistemas de recomendación de contenidos que pueden ser lesivos para la salud física y mental”, piensa Becerra.

“Es cierto que hasta el presente estas iniciativas no alteraron en sustancia el statu quo de las big tech, pero también es verdad que hoy existe mucho más conciencia y debate público sobre estas cuestiones que hace cinco años, sobre todo en los países centrales, como muestran las audiencias realizadas en el Congreso estadounidense y en el Parlamento europeo al respecto”, cierra el especialista.

La tematización sobre estas problemáticas, así, cobra más espesor cuando diversas organizaciones posan la lupa encima de ellas no sólo para desnudar su funcionamiento sino, también, para advertir sobre su impacto en los sectores más vulnerables.

El trabajo de campo fue realizado por Amnistía Internacional en la Ciudad de Buenos Aires, la localidad de San Martín en el Gran Buenos Aires, Córdoba, Rosario y Salta, entre febrero y junio de este año. Un equipo de siete investigadores realizaron trabajos de campo a partir de técnicas de observación participante y entrevistas no directivas con jóvenes divididos en dos grupos: 13-17 y 18-25 años de edad, de distintos perfiles e intereses.

SL

Tecnología

Desarrollaron un robot que imita los festejos de Cristiano Ronaldo y LeBron James, y los movimientos de Kobe Bryant

Publicado

on

Por

Un innovador método de entrenamiento permitió al humanoide aprender movimientos complejos basándose en videos de atletas y ajustándose a la física del mundo real

Seguir leyendo

Tecnología

Europa se prepara para explorar Marte: los ambiciosos planes de la ESA para la próxima década

Publicado

on

Por

La agencia europea apuesta por la investigación de Marte con tecnología avanzada, iniciando una nueva era en la búsqueda de vida extraterrestre

Seguir leyendo

Tecnología

Los derechos humanos en la era de la inteligencia artificial: cómo gobernar para la humanidad

Publicado

on

Por

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

En diciembre se celebra el Día Internacional de los Derechos HumanosPacto Global Argentina se suma al llamado de Naciones Unidas para revalorizar la protección de los derechos fundamentales en un mundo transformado por la tecnología.

El respeto y la promoción de los derechos humanos constituyen un pilar de la sostenibilidad corporativa. Como indican los Principios 1 y 2 del Pacto Global de Naciones Unidas, en el contexto de sus operaciones, las empresas pueden generar impactos negativos, afectando los derechos humanos de diversos actores con los cuales se relacionan. Desde su creación en 2004, Pacto Global Argentina genera espacios para el intercambio entre pares, el desarrollo de capacidades y el diálogo multiactor en materia de derechos humanos.

En un mundo caracterizado por la incertidumbre, las migraciones, la inequidad, el cambio climático, las desigualdades estructurales y las demandas públicas crecientes, las Naciones Unidas llama a las empresas a acelerar su compromiso con la sostenibilidad en la Década para la Acción.

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

Gobernar la IA para la humanidad

El informe “Gobernar la IA para la humanidad” de Naciones Unidas exhorta a gobiernos, empresas y sociedad civil a establecer una arquitectura global inclusiva y cooperativa para la gobernanza responsable de la IA. Accenture define la IA responsable como la práctica de diseñar, construir e implementar IA de una manera que empodere a los empleados y a las empresas, teniendo un impacto justo en los clientes y la sociedad. Este enfoque no solo busca fomentar el desarrollo sostenible, sino también garantizar que los avances tecnológicos estén alineados con los principios fundamentales de los Derechos Humanos.

Según el informe conjunto de Pacto Global y Accenture “Gen AI for the Global Goals”, el mercado de IA generativa crecerá un 32% anual hasta alcanzar $98.1 mil millones en 2026. Sin embargo, solo el 2% de las empresas han implementado mecanismos completos de gobernanza de IA responsable. Esto subraya la urgencia de establecer marcos éticos y colaborativos que alineen los avances tecnológicos con los derechos humanos y la sostenibilidad.

Derechos Humanos y tecnología: Un deber colectivo

La inteligencia artificial puede ser una herramienta poderosa para el progreso humano, pero también plantea riesgos significativos si no es adecuadamente regulada. Desde sesgos algorítmicos hasta brechas de acceso, el uso no ético de la IA podría exacerbar desigualdades y vulnerar derechos fundamentales. Por ello, la ética y la rendición de cuentas deben ser principios rectores en el diseño, desarrollo y uso de estas tecnologías.

Derechos humanos y regulaciones

La gobernanza de la inteligencia artificial debe priorizar la protección de los derechos humanos a través de marcos regulatorios claros y efectivos. Según el informe conjunto de Accenture y Pacto Global, las empresas tienen la responsabilidad de garantizar que los sistemas de IA respeten principios éticos, como la transparencia, la equidad y la no discriminación. Esto incluye adoptar estándares internacionales, como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos, para guiar evaluaciones de impacto y mitigar riesgos.

Además, con la Unión Europea liderando iniciativas regulatorias como la Ley de IA, se está estableciendo un precedente global que refuerza la necesidad de un enfoque integral y colaborativo. La implementación de estas regulaciones no solo asegura la protección de los derechos fundamentales, sino que también promueve la confianza y la legitimidad en el uso de tecnologías emergentes.

Integridad sostenible en un mundo digital

Adoptar un marco ético para la IA es una extensión de nuestro compromiso con los Derechos Humanos. Desde Pacto Global Argentina alientan a las organizaciones a integrar estas recomendaciones en sus operaciones, priorizando la sostenibilidad, la inclusión y la justicia.

En este esfuerzo, la plataforma Academy de Global Compact ofrece capacitaciones clave en áreas como:

  • Derechos Humanos y Empresas.
  • Ética en la Inteligencia Artificial.
  • Principios rectores sobre empresas y Derechos Humanos.

Todas las organizaciones y actores sociales estan invirados a explorar estos recursos gratuitos como una herramienta para avanzar hacia una gobernanza responsable y alineada con los ODS.

Acciones sugeridas para las empresas

Los avances tecnológicos están impactando cada vez más a las empresas. El 97% de los ejecutivos cree que la IA generativa transformará su industria en los próximos tres a cinco años. Por ende, las empresas tienen un papel crucial en la gobernanza de la IA con enfoque en Derechos Humanos. Más allá de capacitarse, es fundamental que adopten acciones concretas para asegurar que sus prácticas tecnológicas respeten los principios éticos, protejan derechos fundamentales y contribuyan a los Objetivos de Desarrollo Sostenible (ODS) a saber:

  • Adopción de Principios Éticos para la Gobernanza de la IA
  • Desarrollar un marco ético interno que regule el diseño, desarrollo y uso de la IA, asegurando la alineación con los Derechos Humanos y los ODS.
  • Implementar principios rectores: Transparencia, equidad, no discriminación, privacidad, responsabilidad y rendición de cuentas.
  • Evaluación de Impacto de Derechos Humanos en la IA
  • Realizar evaluaciones de impacto periódicas para identificar riesgos reales y potenciales de los sistemas de IA en los derechos de las personas, especialmente de comunidades vulnerables.
  • Utilizar marcos reconocidos como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos para guiar estas evaluaciones.
  • Incorporación Paneles comunitarios en la Gobernanza Participativa
  • Involucrar a múltiples partes interesadas (empleados, comunidades, ONGs, expertos en derechos humanos) en la revisión y monitoreo de las aplicaciones de IA. Promover la consulta abierta y la inclusión de voces diversas para garantizar que las tecnologías desarrolladas beneficien a todos.
  • Transparencia y Rendición de Cuentas
  • Publicar informes regulares que detallen cómo se están utilizando las tecnologías de IA en la empresa, qué medidas se están tomando para mitigar riesgos y qué beneficios se están generando. Garantizando la trazabilidad de los algoritmos y las decisiones automatizadas, explicando claramente a los usuarios cómo y por qué se toman estas decisiones.
  • Capacitación y Conciencia Ética Interna
  • Crear equipos interdisciplinarios que incluyan expertos y expertas en tecnología, ética y derechos humanos para liderar las iniciativas de IA responsable. Tener presente los sesgos algorítmicos, la privacidad y protección de datos.
  • Promoción de la Diversidad y la Inclusión en el Desarrollo de IA
  • Asegurar que los equipos de desarrollo de IA sean diversos e inclusivos, lo que puede ayudar a reducir sesgos en los algoritmos y a diseñar soluciones más equitativas.
  • Implementar prácticas de reclutamiento inclusivo para roles técnicos y éticos relacionados con IA.
  • Colaboración con Redes Globales y Locales
  • Participar en plataformas internacionales como el Panel Científico Internacional sobre IA, recomendado por Naciones Unidas, para compartir y aprender de las mejores prácticas.
  • Establecer alianzas con universidades, centros de investigación y ONGs para fomentar la investigación responsable de IA con impacto positivo.
  • Impulso a la Innovación Responsable
  • Utilizar la IA para abordar desafíos globales, como la reducción de emisiones de carbono (ODS 13) o el aumento de la eficiencia en el uso de recursos naturales (ODS 12) com también para contribuir al ODS 10 (Reducción de desigualdades).

Compromiso y Acción

Estas acciones deben ser acompañadas por un compromiso visible y activo por parte del liderazgo empresarial. La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero su impacto debe ser cuidadosamente gestionado. Al adoptar alguna de estas acciones entendemos que las empresas no solo protegerán los derechos fundamentales, sino que también construirán confianza y legitimidad, elementos clave para su sostenibilidad a largo plazo.

Un llamado urgente

Hacemos un llamado a trabajar juntos en una visión inclusiva y cooperativa para la gobernanza de la IA. Con solo el 17% de los ODS en camino de cumplirse para 2030, es fundamental que gobiernos, empresas y sociedad civil aceleren la implementación de prácticas responsables en IA.

“Desde Accenture estamos convencidos que la tecnología debe alinearse con los valores fundamentales de los derechos humanos. Gobernar la IA no es opcional, es un deber colectivo”, asegura Gaetano Salierno, Director de Estrategia y Sostenibilidad de Accenture Argentina.

“La inteligencia artificial, gobernada con integridad y en beneficio de la humanidad, puede ser un catalizador de justicia y sostenibilidad. Gobernarla es protegernos”, explica Flavio Fuertes, Director Ejecutivo del Pacto Global.

Pacto Global Argentina reafirma su compromiso con los valores de dignidad, justicia y equidad en un mundo donde la tecnología y los Derechos Humanos deben avanzar juntos para garantizar un futuro sostenible para todos.

Seguir leyendo

Mas Leidas

© 2022 FM Integracion 90.1. Todos los Derechos Reservados. | Desarrollado por Conexión Streaming

FM Integracion 90.1