Tecnología
Una sencilla aplicación con reconocimiento facial es preocupantemente precisa
Publicado
3 años atráson
Por
Admin
Una búsqueda toma tan solo unos segundos. Con apenas subir una fotografía de una cara y seleccionar una casilla para aceptar los términos de servicio, la app presenta una cuadrícula de fotografías de rostros que considera similares, con vínculos de dónde aparecieron en internet
Por 29,99 dólares al mes, un sitio web llamado PimEyes ofrece un superpoder potencialmente peligroso proveniente del mundo de la ciencia ficción: la capacidad de buscar un rostro, con lo que se podrían descubrir fotografías ocultas que de otra manera habrían estado tan seguras como la famosa aguja en el vasto pajar digital que es el internet.
Una búsqueda toma tan solo unos segundos. Subes una fotografía de una cara, seleccionas una casilla para aceptar los términos de servicio y, entonces, te presenta una cuadrícula de fotografías de rostros que considera similares, con vínculos a donde aparecieron en internet. The New York Times usó PimEyes con los rostros de una docena de periodistas del diario, con su consentimiento, para probar su poder.
PimEyes encontró fotografías de cada una de las personas, algunas que los periodistas nunca habían visto, incluso cuando en la imagen utilizada para realizar la búsqueda usaban gafas de sol o cubrebocas o no veían de frente a la cámara.
PimEyes halló a una reportera bailando en un evento de un museo de arte hace una década y llorando después de que le propusieron matrimonio, una fotografía que no era de verdad de su agrado, pero que el fotógrafo decidió emplear para promover su negocio en Yelp. Se detectó a la versión más joven de una reportera de tecnología en una incómoda multitud de admiradores de una banda en el festival musical de Coachella en 2011. Una corresponsal apareció en incontables fotografías de bodas, en las que de manera evidente se ve que es el alma de la fiesta, y en el fondo borroso de una imagen tomada a alguien más en un aeropuerto griego en 2019. También se desenterró la vida previa de un periodista en una banda de rock y el campamento de verano preferido de otro.

A diferencia de Clearview AI, una herramienta similar de reconocimiento facial disponible solo para las fuerzas del orden, PimEyes no incluye resultados de las redes sociales. Las imágenes, en ocasiones sorprendentes, que PimEyes desenterró provenían más bien de artículos periodísticos, páginas de fotografía de bodas, páginas de reseñas, blogs y sitios pornográficos. La mayoría de las coincidencias con los rostros de la docena de periodistas del Times fueron correctas. En el caso de las mujeres, las imágenes incorrectas con frecuencia provenían de sitios pornográficos, por lo que era perturbadora la mera posibilidad de que pudieran ser ellas. (Que quede claro: no eran ellas).
El nuevo propietario de PimEyes es Giorgi Gobronidze, un académico de 34 años que afirma que su interés en la tecnología avanzada comenzó debido a los ciberataques rusos a su país natal, Georgia.
Gobronidze aseguró que piensa que PimEyes puede ser una herramienta para algo positivo, para ayudar a la gente a monitorear su reputación en línea. Por ejemplo, la periodista a la que no le gustó la imagen que el fotógrafo estaba usando, ahora podría pedirle que la retire de su página en Yelp.

Se supone que los usuarios de PimEyes solo deben buscar sus rostros o las caras de las personas que han dado su consentimiento, mencionó Gobronidze. Sin embargo, señaló que dependía de que la gente actuara “de manera ética”, lo que ofrece poca protección contra la erosión tecnológica de la capacidad de mantenerse anónimos entre la multitud. PimEyes no tiene controles para evitar que los usuarios busquen un rostro que no sea el propio y le indica al usuario que pague una suma importante para impedir que las fotografías dañinas generadas por las malas decisiones de una noche lo persigan para siempre.
“Lo pensaron como un software espía, no importa lo que digan”, comentó Ella Jakubowska, consejera de políticas en European Digital Rights, un grupo de defensoría de privacidad.
Con un nuevo propietario
Gobronidze se crio en la sombra de un conflicto militar. Su jardín de niños fue bombardeado durante la guerra civil que comenzó cuando Georgia declaró su independencia de la Unión Soviética en 1991. El país se vio aislado de manera efectiva del mundo en 2008, cuando Rusia lo invadió y el internet se desconectó. Esas experiencias lo inspiraron a estudiar el papel del dominio tecnológico en la seguridad nacional.
Después de breves periodos trabajando como abogado y sirviendo en el ejército georgiano, Gobronidze obtuvo la maestría en relaciones internacionales. Comenzó su carrera como profesor en 2014 y , a la larga, llegó a la Universidad Europea en Tiflis, Georgia, donde todavía da clases.

En 2017, Gobronidze afirma que estaba en un programa de intercambio impartiendo una materia en Polonia cuando uno de sus estudiantes le presentó a dos hackers (Lucasz Kowalczyk y Denis Tatina) que trabajaban en un motor de búsqueda facial. Gobronidze relató que eran “mentes brillantes”, pero “introvertidos por completo” y que no estaban interesados en la atención pública.
Gobrodidze mencionó que aceptaron hablar con él sobre su creación, que a la larga se convirtió en PimEyes, para su investigación académica. Contó que le explicaron cómo su motor de búsqueda empleaba tecnología de redes neuronales para mapear los rasgos de un rostro con el fin de compararlo en busca de una coincidencia con caras con medidas similares, y que el programa era capaz de aprender con el tiempo a determinar con mayor precisión una coincidencia.
“Me sentí como un cavernícola cuando los conocí. Como si estuviera escuchando cosas de ciencia ficción”, comentó Gobronidze.
En diciembre, Gobronidze creó una corporación, EMEARobotics, para que adquiriera PimEyes, y la registró en Dubái debido a la baja tasa de impuestos en los Emiratos Árabes Unidos. Indicó que conservó a la mayoría del pequeño equipo de tecnología y soporte del sitio y contrató a una firma de consultoría en Belice para manejar las solicitudes y las cuestiones regulatorias.
Gobronidze ha rentado oficinas en una torre en el centro de Tiflis. Todavía está en remodelación; los cables para las lámparas cuelgan del techo.
Tatia Dolidze, una colega de Gobronidze en la Universidad Europea, lo describió como “curioso” y “obstinado” y afirmó que se sorprendió cuando le mencionó que iba a comprar un motor de búsqueda facial.
“Fue difícil imaginar a Giorgi como empresario”, escribió Dolidze en un correo electrónico.
Ahora, es un empresario que es dueño de una compañía sumida en la controversia, en gran parte respecto a si tenemos algún derecho especial de control sobre las imágenes de nosotros que nunca esperamos descubrir de esta forma. Gobronidze señaló que la tecnología de reconocimiento facial podría ser usada para controlar a las personas si los gobiernos y las grandes corporaciones tuvieran el único acceso a ella.
Él imagina un mundo en el que el reconocimiento facial es accesible para cualquier persona.
‘En esencia, extorsión’
Hace algunos meses, Cher Scarlett, una ingeniera en informática, probó PimEyes y se topó con un episodio de su vida que había intentado olvidar con mucho esfuerzo.
En 2005, cuando Scarlett tenía 19 años y estaba en bancarrota, consideró trabajar en pornografía. Viajó a la ciudad de Nueva York para una audición, la cual resultó ser tan humillante y abusiva que decidió no proseguir.
PimEyes logró desenterrar el trauma de hace varias décadas a través de vínculos al lugar preciso en el que las fotografías podían encontrarse en la web. Estaban esparcidas entre retratos más recientes de Scarlett, quien trabaja en derechos laborales y ha estado sujeta a una cobertura mediática por una revuelta laboral de alto perfil en Apple.
“No tenía idea hasta ese momento de que esas imágenes estaban en internet”, precisó.
Preocupada por cómo reaccionarían las personas a las imágenes, Scarlett indagó de inmediato cómo retirarlas, una experiencia que describió en una publicación en Medium y a CNN. Cuando dio clic en una de las fotos de desnudo en PimEyes, se desplegó un menú que ofrecía un vínculo a la imagen, un enlace al sitio web donde apareció y una opción para “excluirla de los resultados públicos” en PimEyes.
No obstante, Scarlett descubrió enseguida que la exclusión solo estaba disponible para los suscriptores que pagaban los “planes de PROtección”, cuyo costo oscila entre los 89,99 y los 299,99 dólares al mes. “Es, en esencia, extorsión”, opinó Scarlett, quien al final se inscribió al plan más caro.
Gobronidze no estuvo de acuerdo con esa interpretación. Indicó que existe una herramienta gratuita para eliminar resultados del índice de PimEyes que no se publicita de manera prominente en el sitio. También proporcionó un recibo que muestra que PimEyes le reembolsó a Scarlett los 299,99 del plan del mes pasado.

PimEyes tiene decenas de miles de suscriptores, puntualizó Gobronidze, y la mayoría de los visitantes provienen de Estados Unidos y Europa. Genera la mayor parte de su dinero mediante los suscriptores de su servicio de PROtección, que incluye ayuda del personal de soporte de PimEyes para retirar fotografías de sitios externos.
PimEyes también cuenta con un servicio gratuito de “exclusión” para personas que deciden quitar datos de ellos mismos del sitio, incluidas las imágenes de búsqueda de sus rostros. Para salirse, Scarlett proporcionó una fotografía de cuando era joven y un escaneo de su identificación emitida por el gobierno. A principios de abril, recibió una confirmación de que su solicitud de exclusión había sido aceptada.
“Los resultados potenciales que contienen tu rostro se han eliminado de nuestro sistema”, se leía en el correo electrónico de PimEyes.
No obstante, cuando el Times realizó una búsqueda en PimEyes de la cara de Scarlett con su permiso un mes después, había más de cien resultados, incluyendo los desnudos.
Gobronidze expresó que esta era una “historia triste” y que salirse no evita que el rostro de una persona pueda buscarse. En cambio, bloquea en los resultados de búsqueda de PimEyes cualquier fotografía de caras “con un alto nivel de similaridad” en el momento de la exclusión, lo que significa que las personas necesitan optar por la exclusión con regularidad, con múltiples fotos de ellas, si desean quedar fuera de las búsquedas de PimEyes.
Gobronidze aseguró que quería un “uso ético” de PimEyes, es decir, que la gente realice búsquedas solo de su propio rostro y no de los de extraños.
Sin embargo, PimEyes se esfuerza poco para hacer cumplir esta meta: solo coloca una casilla a la que un usuario de búsqueda debe darle clic para confirmar que el rostro que está subiendo es el suyo. Helen Nissenbaum, una profesora de la Universidad Cornell que estudia la privacidad, calificó esto de “absurdo”, a menos que el sitio exija al usuario presentar una identificación de gobierno para realizar búsquedas, como Scarlett tuvo que hacerlo cuando optó por la exclusión.
“Si hacer eso es útil, ver dónde está nuestra cara, tenemos que imaginar que una compañía que ofrece solo ese servicio va a ser transparente y auditada”, opinó Nissenbaum.
PimEyes no hace tales auditorías, aunque Gobronidze dijo que el sitio bloquea a los usuarios con actividad de búsqueda “que salga de los parámetros lógicos”, y dio como ejemplo a un usuario con más de mil búsquedas en un día. Confía en que los usuarios hagan lo correcto y mencionó que cualquiera que busque el rostro de otra persona sin permiso cometería una violación de la ley de privacidad europea.
“Sería responsabilidad de la persona que lo usa. Solo somos proveedores de una herramienta”, explicó.
Excepciones a la regla
A pesar de decir que PimEyes debe usarse solo para autobúsquedas, Gobronidze está abierto a otros usos siempre que sean “éticos”. Dijo que aprobaba a los periodistas de investigación y el papel que jugó PimEyes en la identificación de los estadounidenses que irrumpieron en el Capitolio de EEUU el 6 de enero de 2021.

The Times permite a sus periodistas utilizar motores de búsqueda de reconocimiento facial para informar, pero tiene reglas internas sobre la práctica. “Cada solicitud de uso de una herramienta de reconocimiento facial para fines informativos requiere una revisión y aprobación previas por parte de un miembro senior de la cabecera y de nuestro departamento legal para garantizar que el uso cumpla con nuestros estándares y la ley aplicable”, dijo una portavoz del Times, Danielle Rhoades Ha.
Hay usuarios que Gobronidze no quiere. Recientemente bloqueó a personas en Rusia del sitio, en solidaridad con Ucrania. Mencionó que PimEyes estaba dispuesto, al igual que Clearview AI, a ofrecer su servicio de forma gratuita a organizaciones ucranianas o a la Cruz Roja, si podía ayudar en la búsqueda de personas desaparecidas.
La IA Clearview más conocida se ha enfrentado a serios obstáculos en Europa y en todo el mundo. Los reguladores de privacidad en Canadá, Australia y partes de Europa han declarado ilegal la base de datos de Clearview de 20 mil millones de imágenes de rostros y han ordenado a Clearview que elimine las fotos de sus ciudadanos. Italia y Gran Bretaña emitieron multas multimillonarias.
Una agencia alemana de protección de datos anunció una investigación sobre PimEyes el año pasado por posibles violaciones de la ley de privacidad de Europa, el Reglamento General de Protección de Datos, que incluye reglas estrictas sobre el uso de datos biométricos. Esa investigación continúa.
Gobronidze dijo que no había tenido noticias de ninguna autoridad alemana. “Estoy ansioso por responder todas las preguntas que puedan tener”, dijo.
No le preocupan los reguladores de privacidad, dijo, porque PimEyes opera de manera diferente. Lo describió como casi como un catálogo de tarjetas digitales, diciendo que la compañía no almacena fotos o plantillas de caras individuales, sino direcciones URL para imágenes individuales asociadas con las características faciales que contienen. Todo es público, dijo, y PimEyes instruye a los usuarios a buscar solo sus propios rostros. Aún no se ha determinado si esa diferencia arquitectónica es importante para los reguladores.
Te sugerimos
Tecnología
Desarrollaron un robot que imita los festejos de Cristiano Ronaldo y LeBron James, y los movimientos de Kobe Bryant
Publicado
3 semanas atráson
19 febrero, 2025Por
AdminUn innovador método de entrenamiento permitió al humanoide aprender movimientos complejos basándose en videos de atletas y ajustándose a la física del mundo real
Un robot humanoide entrenado con un nuevo sistema de inteligencia artificial logró replicar movimientos icónicos de deportistas como Cristiano Ronaldo, LeBron James y Kobe Bryant.
El modelo, desarrollado por la Universidad Carnegie Mellon y la empresa NVIDIA, mejora la agilidad y coordinación de los robots con un enfoque innovador de aprendizaje.
Los detalles de la investigación fueron publicados en arXiv, marcando un nuevo hito en la evolución de los robots humanoides y su capacidad para moverse con una destreza sin precedentes.

Los investigadores trabajaron durante años para dotar a los robots humanoides de una movilidad más fluida. Sin embargo, la mayoría de los avances se concentraron en la locomoción, permitiendo que estos dispositivos caminen o corran con mayor eficiencia, pero sin la expresividad y destreza del movimiento humano completo.
Aunque algunos estudios recientes exploraron la movilidad de la parte superior del cuerpo, conseguir que un robot ejecute movimientos atléticos sigue siendo un desafío.
El modelo ASAP: una nueva estrategia de entrenamiento
Con ese reto en mente, investigadores de la Universidad Carnegie Mellon y la empresa NVIDIA desarrollaron el modelo Aligning Simulation and Real Physics (ASAP), un sistema de entrenamiento en dos etapas que permite a los robots humanoides ejecutar movimientos coordinados de cuerpo entero.
En la primera etapa, el modelo analiza videos de movimientos humanos, procesando patrones biomecánicos y adaptándolos a la estructura robótica, explicó el medio sobre tecnología Tech Xplore.
Luego, en la segunda etapa, el robot recopila datos en el mundo real, ajustando las diferencias entre la simulación y la física real. Esto reduce errores de seguimiento y mejora la precisión de sus movimientos.
Robots que imitan a los mejores atletas
Para demostrar la efectividad del sistema, los investigadores programaron un robot humanoide para realizar movimientos emblemáticos de deportistas de élite.

Durante las pruebas, el robot replicó el famoso salto con giro en el aire del futbolista Cristiano Ronaldo, que suele acompañar del grito “SIUUU”. Esta maniobra que exige un alto nivel de coordinación y equilibrio.
También logró ejecutar el icónico “Silencer” de LeBron James, en el que el jugador se equilibra sobre una pierna después de encestar, y el característico tiro con salto de Kobe Bryant, que combina precisión y elevación.
Además de estos movimientos deportivos y otros más sencillos como sentadillas, el robot consiguió realizar saltos de más de un metro. Esto es un logro significativo en comparación con modelos anteriores de robótica humanoide.
El modelo de acción delta: clave en la precisión
El éxito de este modelo radica en la integración del modelo de acción delta, una tecnología que permite compensar las diferencias entre la física simulada y la física real.
Gracias a este mecanismo de corrección, el equipo de investigación logró reducir los errores de seguimiento en un 52,7%, lo que se traduce en movimientos más fluidos y naturales, según el medio de ciencia Interesting Engineering.
Aunque el robot humanoide aún presenta ciertas limitaciones debido a su hardware y la menor cantidad de articulaciones en comparación con un ser humano, su agilidad representa un avance significativo en el desarrollo de la robótica atlética.

Este tipo de innovaciones abre nuevas posibilidades para la aplicación de robots humanoides en múltiples sectores, desde la asistencia en tareas físicas hasta el entretenimiento y la robótica deportiva.
“Los robots humanoides tienen el potencial de una versatilidad sin igual para realizar habilidades de cuerpo completo similares a las de los humanos. Sin embargo, lograr movimientos de cuerpo completo ágiles y coordinados sigue siendo un desafío importante debido al desajuste dinámico entre la simulación y el mundo real”, explicaron los autores del estudio según Interesting Engineering.
Los investigadores ya están explorando formas de mejorar la seguridad y adaptabilidad de estos sistemas, incluyendo el uso de cámaras y sensores avanzados en lugar de los tradicionales sistemas de captura de movimiento.
Tecnología
Europa se prepara para explorar Marte: los ambiciosos planes de la ESA para la próxima década
Publicado
1 mes atráson
27 enero, 2025Por
Admin
La agencia europea apuesta por la investigación de Marte con tecnología avanzada, iniciando una nueva era en la búsqueda de vida extraterrestre
La Agencia Espacial Europea (ESA) avanza en el desarrollo de tecnologías claves para la exploración de Marte. Con el lanzamiento programado del rover Rosalind Franklin en 2028 y la planificación de un aterrizador avanzado para 2035, la ESA demuestra su compromiso con la investigación espacial y la búsqueda de vida más allá de la Tierra. Este esfuerzo tiene el objetivo de ampliar nuestro conocimiento sobre el planeta rojo y fortalecer las capacidades tecnológicas europeas en la carrera espacial global.
Un futuro tecnológico liderado por Rosalind Franklin y el aterrizaje de alta precisión
El rover Rosalind Franklin, diseñado para la búsqueda de vida en Marte, es el punto de partida de un programa ambicioso. Su lanzamiento está previsto para 2028 tras varios retrasos, y marcará un hito al explorar el subsuelo marciano en busca de compuestos orgánicos que podrían indicar la existencia de vida pasada o presente. Este será el precursor de una nueva era en la exploración de Marte liderada por Europa.
La ESA también está enfocada en el desarrollo de tecnologías para un aterrizaje de alta precisión, necesario para futuros proyectos más complejos en Marte. El 17 de diciembre, la agencia lanzó una convocatoria titulada “Capacidades avanzadas de entrada, descenso y aterrizaje en Marte”, con el objetivo de evitar bloqueos tecnológicos y sentar las bases de un aterrizaje guiado que pueda garantizar la seguridad y precisión de las misiones en terrenos desafiantes.

El desarrollo temprano de estas tecnologías es estratégico. Según la ESA, el propósito es recopilar información sobre la madurez tecnológica, los tiempos de desarrollo y las estimaciones presupuestarias antes de la reunión ministerial clave que se celebrará en Bremen, Alemania, en noviembre. Allí, los estados miembros decidirán si el proyecto recibe luz verde para continuar.
Explore 2040 y el papel de LightShip en la exploración marciana
Más allá del aterrizaje previsto para 2035, la ESA apunta a una visión aún más amplia con su programa Explore 2040, diseñado para garantizar la presencia europea en Marte en las próximas décadas. Uno de los elementos centrales de esta estrategia es el desarrollo de LightShip, un remolcador eléctrico de propulsión avanzada que promete revolucionar el transporte espacial.
LightShip funcionará como un vehículo para trasladar naves espaciales y cargas científicas al planeta rojo y ofrecerá servicios esenciales como comunicación y navegación, indispensables para garantizar la seguridad y el éxito de misiones tripuladas. Además, será capaz de transportar una amplia gama de instrumentos científicos, facilitando investigaciones avanzadas en el terreno.

Este plan refleja un cambio en la exploración espacial, donde la colaboración internacional y la sostenibilidad juegan un papel central. La ESA busca posicionarse como líder tecnológico al desarrollar infraestructura que permita misiones más complejas y potencialmente habitadas, un paso clave hacia la colonización de Marte.
2035: la ventana de lanzamiento perfecta para Marte
La fecha propuesta para el aterrizaje de alta precisión en 2035 no es casual. Este año representa una ventana de lanzamiento particularmente favorable debido a la alineación orbital entre la Tierra y Marte, lo que minimiza el consumo de combustible y maximiza la eficiencia de la misión. Estas ventanas, que se abren cada 26 meses, son fundamentales para planificar misiones espaciales interplanetarias.
La ESA subraya que aprovechar esta oportunidad es importante desde un punto de vista técnico y también estratégico. Asegurar el lanzamiento en 2035 posicionará a Europa como un actor clave en la carrera espacial, compitiendo con otras agencias como la NASA y actores emergentes como SpaceX.

Con una combinación de misiones científicas, desarrollo tecnológico y visión estratégica, la ESA demuestra su ambición por consolidar su presencia en el espacio. El aterrizaje de alta precisión en 2035 será un hito para el avance de la humanidad hacia la exploración y potencial colonización de otros planetas.
Tecnología
Los derechos humanos en la era de la inteligencia artificial: cómo gobernar para la humanidad
Publicado
2 meses atráson
31 diciembre, 2024Por
Admin
A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.
En diciembre se celebra el Día Internacional de los Derechos Humanos, Pacto Global Argentina se suma al llamado de Naciones Unidas para revalorizar la protección de los derechos fundamentales en un mundo transformado por la tecnología.
El respeto y la promoción de los derechos humanos constituyen un pilar de la sostenibilidad corporativa. Como indican los Principios 1 y 2 del Pacto Global de Naciones Unidas, en el contexto de sus operaciones, las empresas pueden generar impactos negativos, afectando los derechos humanos de diversos actores con los cuales se relacionan. Desde su creación en 2004, Pacto Global Argentina genera espacios para el intercambio entre pares, el desarrollo de capacidades y el diálogo multiactor en materia de derechos humanos.
En un mundo caracterizado por la incertidumbre, las migraciones, la inequidad, el cambio climático, las desigualdades estructurales y las demandas públicas crecientes, las Naciones Unidas llama a las empresas a acelerar su compromiso con la sostenibilidad en la Década para la Acción.
A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.
Gobernar la IA para la humanidad
El informe “Gobernar la IA para la humanidad” de Naciones Unidas exhorta a gobiernos, empresas y sociedad civil a establecer una arquitectura global inclusiva y cooperativa para la gobernanza responsable de la IA. Accenture define la IA responsable como la práctica de diseñar, construir e implementar IA de una manera que empodere a los empleados y a las empresas, teniendo un impacto justo en los clientes y la sociedad. Este enfoque no solo busca fomentar el desarrollo sostenible, sino también garantizar que los avances tecnológicos estén alineados con los principios fundamentales de los Derechos Humanos.
Según el informe conjunto de Pacto Global y Accenture “Gen AI for the Global Goals”, el mercado de IA generativa crecerá un 32% anual hasta alcanzar $98.1 mil millones en 2026. Sin embargo, solo el 2% de las empresas han implementado mecanismos completos de gobernanza de IA responsable. Esto subraya la urgencia de establecer marcos éticos y colaborativos que alineen los avances tecnológicos con los derechos humanos y la sostenibilidad.
Derechos Humanos y tecnología: Un deber colectivo
La inteligencia artificial puede ser una herramienta poderosa para el progreso humano, pero también plantea riesgos significativos si no es adecuadamente regulada. Desde sesgos algorítmicos hasta brechas de acceso, el uso no ético de la IA podría exacerbar desigualdades y vulnerar derechos fundamentales. Por ello, la ética y la rendición de cuentas deben ser principios rectores en el diseño, desarrollo y uso de estas tecnologías.
Derechos humanos y regulaciones
La gobernanza de la inteligencia artificial debe priorizar la protección de los derechos humanos a través de marcos regulatorios claros y efectivos. Según el informe conjunto de Accenture y Pacto Global, las empresas tienen la responsabilidad de garantizar que los sistemas de IA respeten principios éticos, como la transparencia, la equidad y la no discriminación. Esto incluye adoptar estándares internacionales, como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos, para guiar evaluaciones de impacto y mitigar riesgos.
Además, con la Unión Europea liderando iniciativas regulatorias como la Ley de IA, se está estableciendo un precedente global que refuerza la necesidad de un enfoque integral y colaborativo. La implementación de estas regulaciones no solo asegura la protección de los derechos fundamentales, sino que también promueve la confianza y la legitimidad en el uso de tecnologías emergentes.
Integridad sostenible en un mundo digital
Adoptar un marco ético para la IA es una extensión de nuestro compromiso con los Derechos Humanos. Desde Pacto Global Argentina alientan a las organizaciones a integrar estas recomendaciones en sus operaciones, priorizando la sostenibilidad, la inclusión y la justicia.
En este esfuerzo, la plataforma Academy de Global Compact ofrece capacitaciones clave en áreas como:
- Derechos Humanos y Empresas.
- Ética en la Inteligencia Artificial.
- Principios rectores sobre empresas y Derechos Humanos.
Todas las organizaciones y actores sociales estan invirados a explorar estos recursos gratuitos como una herramienta para avanzar hacia una gobernanza responsable y alineada con los ODS.
Acciones sugeridas para las empresas
Los avances tecnológicos están impactando cada vez más a las empresas. El 97% de los ejecutivos cree que la IA generativa transformará su industria en los próximos tres a cinco años. Por ende, las empresas tienen un papel crucial en la gobernanza de la IA con enfoque en Derechos Humanos. Más allá de capacitarse, es fundamental que adopten acciones concretas para asegurar que sus prácticas tecnológicas respeten los principios éticos, protejan derechos fundamentales y contribuyan a los Objetivos de Desarrollo Sostenible (ODS) a saber:
- Adopción de Principios Éticos para la Gobernanza de la IA
- Desarrollar un marco ético interno que regule el diseño, desarrollo y uso de la IA, asegurando la alineación con los Derechos Humanos y los ODS.
- Implementar principios rectores: Transparencia, equidad, no discriminación, privacidad, responsabilidad y rendición de cuentas.
- Evaluación de Impacto de Derechos Humanos en la IA
- Realizar evaluaciones de impacto periódicas para identificar riesgos reales y potenciales de los sistemas de IA en los derechos de las personas, especialmente de comunidades vulnerables.
- Utilizar marcos reconocidos como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos para guiar estas evaluaciones.
- Incorporación Paneles comunitarios en la Gobernanza Participativa
- Involucrar a múltiples partes interesadas (empleados, comunidades, ONGs, expertos en derechos humanos) en la revisión y monitoreo de las aplicaciones de IA. Promover la consulta abierta y la inclusión de voces diversas para garantizar que las tecnologías desarrolladas beneficien a todos.
- Transparencia y Rendición de Cuentas
- Publicar informes regulares que detallen cómo se están utilizando las tecnologías de IA en la empresa, qué medidas se están tomando para mitigar riesgos y qué beneficios se están generando. Garantizando la trazabilidad de los algoritmos y las decisiones automatizadas, explicando claramente a los usuarios cómo y por qué se toman estas decisiones.
- Capacitación y Conciencia Ética Interna
- Crear equipos interdisciplinarios que incluyan expertos y expertas en tecnología, ética y derechos humanos para liderar las iniciativas de IA responsable. Tener presente los sesgos algorítmicos, la privacidad y protección de datos.
- Promoción de la Diversidad y la Inclusión en el Desarrollo de IA
- Asegurar que los equipos de desarrollo de IA sean diversos e inclusivos, lo que puede ayudar a reducir sesgos en los algoritmos y a diseñar soluciones más equitativas.
- Implementar prácticas de reclutamiento inclusivo para roles técnicos y éticos relacionados con IA.
- Colaboración con Redes Globales y Locales
- Participar en plataformas internacionales como el Panel Científico Internacional sobre IA, recomendado por Naciones Unidas, para compartir y aprender de las mejores prácticas.
- Establecer alianzas con universidades, centros de investigación y ONGs para fomentar la investigación responsable de IA con impacto positivo.
- Impulso a la Innovación Responsable
- Utilizar la IA para abordar desafíos globales, como la reducción de emisiones de carbono (ODS 13) o el aumento de la eficiencia en el uso de recursos naturales (ODS 12) com también para contribuir al ODS 10 (Reducción de desigualdades).
Compromiso y Acción
Estas acciones deben ser acompañadas por un compromiso visible y activo por parte del liderazgo empresarial. La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero su impacto debe ser cuidadosamente gestionado. Al adoptar alguna de estas acciones entendemos que las empresas no solo protegerán los derechos fundamentales, sino que también construirán confianza y legitimidad, elementos clave para su sostenibilidad a largo plazo.
Un llamado urgente
Hacemos un llamado a trabajar juntos en una visión inclusiva y cooperativa para la gobernanza de la IA. Con solo el 17% de los ODS en camino de cumplirse para 2030, es fundamental que gobiernos, empresas y sociedad civil aceleren la implementación de prácticas responsables en IA.
“Desde Accenture estamos convencidos que la tecnología debe alinearse con los valores fundamentales de los derechos humanos. Gobernar la IA no es opcional, es un deber colectivo”, asegura Gaetano Salierno, Director de Estrategia y Sostenibilidad de Accenture Argentina.
“La inteligencia artificial, gobernada con integridad y en beneficio de la humanidad, puede ser un catalizador de justicia y sostenibilidad. Gobernarla es protegernos”, explica Flavio Fuertes, Director Ejecutivo del Pacto Global.
Pacto Global Argentina reafirma su compromiso con los valores de dignidad, justicia y equidad en un mundo donde la tecnología y los Derechos Humanos deben avanzar juntos para garantizar un futuro sostenible para todos.


Un turista de 21 años se metió al Río Paraná para buscar una pelota y murió ahogado

Temporal en Bahía Blanca, en vivo: se reactivó el transporte público y será gratis por 30 días

El caso del “monstruo de Villa Martelli” que abusó a su hijastra durante seis años en la calle y en un albergue de Constitución

La inflación anual de Estados Unidos trepó a 8,6% en mayo y es la más alta en 40 años

El Incucai condenó la propuesta de Javier Milei de permitir la venta de órganos

“El cuerpo irradia calor”: la insólita respuesta a maestros de una escuela de General Rodríguez que se quejaron del frío

Furioso temporal en Bahía Blanca: suspendieron todas las actividades y hay decenas de familias evacuadas

Mataron a una nena de 7 años que quedó en medio de un robo en La Plata: detuvieron a dos adolescentes de 14 y 17 años

Un policía mató a un adolescente de 16 años que intentaba robar un auto en La Matanza
Mas Leidas
-
Politica2 días atrás
El Gobierno apura el pedido de autorización al Congreso para acordar con el FMI: detalles de una medida clave para la economía
-
Nacionales2 días atrás
El gobierno de Chubut frenó la ayuda a las víctimas de los incendios en Epuyén
-
Sociedad2 días atrás
Por la fórmula jubilatoria, aumentó el gasto en febrero y el Gobierno acelera recortes en subsidios y obra pública
-
Politica2 días atrás
Tres días antes del temporal, Pettovello desguazó la Dirección Nacional de Emergencias
-
Internacionales2 días atrás
El papa Francisco pasó una noche tranquila y mostró una leve mejoría tras 25 días hospitalizado
-
Nacionales2 días atrás
El Gobierno bonaerense continúa con los operativos de búsqeda y rescate en Bahía Blanca
-
Deportes2 días atrás
Luego del ajustado triunfo de River ante Atlético Tucumán, así quedó la tabla de posiciones del Torneo Apertura
-
Nacionales2 días atrás
Semana clave en el Congreso: la oposición vuelve a la carga por $LIBRA y LLA insiste con paquete de seguridad