Connect with us

Tecnología

Otra vez la estafa por WhatsApp: hackean cuentas con el logo de la app Cuidar y un “cuento” sobre vacunas

Publicado

on

Los ciber delincuentes se apropian de esta manera de la libreta de contactos y usan la identidad de la víctima para pedir dinero prestado. Cómo detectarlo y la importancia de la seguridad de la “verificación en dos pasos” para impedir el robo

“Recién me llamaron por Whatsapp de ‘Cuidar’, diciéndome que me tenían que mandar el certificado nuevo de las vacunas, les seguí la corriente porque sabía que era una estafa”, contó un contacto en un grupo de trabajo y de inmediato casi una decena más dijo que le había pasado lo mismo. La novedad de esta vieja modalidad de intento de estafa es que la llamada tiene el logo de esa aplicación, tan necesaria y usada cuando comenzó la campaña de vacunación contra el coronavirus.

Es justamente esa la pata que los estafadores encontraron esta vez para acudir a los llamados que buscaban preocupar a los receptores: “Hablamos desde el Ministerio de Salud para saber si completó la cuarta y quinta dosis de la vacuna contra la COVID”, dijo una persona que se presentó como médico en otra llamada.

¿Qué buscan? Hacer creer a la persona que necesitará un nuevo carnet de vacunas, que claramente no tiene, y la convencen para que lo acepte, para esto le piden datos personales y luego inicia el intercambio de números que ellos usarán.

Las llamadas que recibieron integrantes de un mismo grupo de WhatsAppLas llamadas que recibieron integrantes de un mismo grupo de WhatsApp

“El ciberdelincuente ingresa el número telefónico al que la cuenta de WhatsApp está asociada en un dispositivo nuevo y envía el código de verificación a la línea asociada a esa cuenta, ya sea por SMS o por llamada telefónica, claro que sin que el dueño de la cuenta lo sepa. Si se trata de una mensaje de texto, los delincuentes suelen enviar un mensaje por WhatsApp o llamar por teléfono al dueño de la cuenta y fingir ser de una empresa o de algún organismo oficial, como el Ministerio de Salud. En medio del engaño, el estafador generalmente le pide al usuario ese código que llegó por SMS con alguna excusa, como ‘validar la identidad’, para ‘facilitar’ el trámite”, explica Emiliano Piscitelli, especialista en Seguridad Informática.

“El objetivo de los ciberdelincuentes somos todos”, aseguraron en octubre de 2020 los expertos en ciber seguridad durante una conferencia virtual en la que presentaron el estudio “COVID-19 – CIBERPANDEMIA: la otra cara de la crisis sanitaria”, según el cual —afirmaban— la industria del ciberdelito creció exponencialmente desde la llegada del virus.

Cómo estafan por WhatsApp

Cuando se instala por primera vez la app WhatsApp en un celular o si se la reinstala en otro dispositivo, la misma App envía un código de verificación para hacerlo efectivo. Este paso es justamente el que utilizan en mayor medida los estafadores para instalar una cuenta de un usuario en otro dispositivo y así robar todos sus contactos.

Aunque para la posible víctima la modalidad es nueva, ésta ya tiene unos años y lo único que varía es la “excusa” que encuentran para llegar al usuario al que buscan robar la identidad por medio de su cuenta. Una vez que se apoderan, van por todos sus contactos con el objetivo de engañarlos y obtener dinero.

Fue justamente durante la pandemia, en plena campaña de vacunación contra el coronavirus, que comenzaron a circular las estafas en esta app para conseguir este código con la excusa de confirmar o empadronar un turno para la vacuna.

“Puede pasar que una persona conocida o no, te diga que por equivocación puso tu número para recuperar su cuenta de WhatsApp, y que si te llegó un SMS, le pases el número y así de simple, en cuestión de minutos, otra persona se apodera de tu cuenta de WhatsApp y de todos nuestros contactos”.

Además, duplican la tarjeta SIM de los teléfonos celulares engañando de esa manera a las operadoras telefónicas para obtenerlo a nombre de otra persona, lo que hace todavía más fácil la estafa por WhatsApp, ya que el código de verificación llega de manera directa al nuevo dispositivo con la nueva línea.

El único fin que tiene esta modalidad es engañar a la lista de contactos y extraerles dinero. Hay unas tres grandes modalidades de estafa. Una es la de tomar la identidad de la víctima, decirle que habla de un nuevo número y que necesita un préstamo, por ejemplo.

La importancia de la verificación en dos pasos (Freepik)La importancia de la verificación en dos pasos (Freepik)

La verificación en dos pasos

Una de las maneras más efectivas de evitar caer en esta artimaña es “activar la verificación en dos pasos, configurar la privacidad (solo dar visibilidad a contactos o a nadie)”, según el experto.

“Es un número también de 6 dígitos que no hay que compartir con nadie, tiene que ser privado”, dijo sobre la opción que se encuentra en los ajustes de la propia app (los tres puntitos a la derecha, en Android y abajo en iPhone). Este numero es adicional al otro, por eso son dos pasos. El otro paso es poner un correo para recuperarlo en caso de olvidar ese número. Entonces es este número más el que llega por SMS. Activarlo es una manera de protegerse, pero es importante saber que nadie llamará para pedirles datos personales por teléfono y que en caso de recibir el llamado, no hay que darles nada”.

También recomienda que, en caso de ser víctima, se debe hacer la denuncia ante la autoridad judicial correspondiente por delitito informativo y reportar este incidente a support@whatsapp.com con el asunto: “Pérdida/Robo: desactivar mi cuenta”.

“No olvidemos que harán estafas con tu cuenta y a tu nombre, por eso es importante denunciar cuando se fue víctima de este tipo de estafa”, agrega.

Tecnología

Desarrollaron un robot que imita los festejos de Cristiano Ronaldo y LeBron James, y los movimientos de Kobe Bryant

Publicado

on

Por

Un innovador método de entrenamiento permitió al humanoide aprender movimientos complejos basándose en videos de atletas y ajustándose a la física del mundo real

Seguir leyendo

Tecnología

Europa se prepara para explorar Marte: los ambiciosos planes de la ESA para la próxima década

Publicado

on

Por

La agencia europea apuesta por la investigación de Marte con tecnología avanzada, iniciando una nueva era en la búsqueda de vida extraterrestre

Seguir leyendo

Tecnología

Los derechos humanos en la era de la inteligencia artificial: cómo gobernar para la humanidad

Publicado

on

Por

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

En diciembre se celebra el Día Internacional de los Derechos HumanosPacto Global Argentina se suma al llamado de Naciones Unidas para revalorizar la protección de los derechos fundamentales en un mundo transformado por la tecnología.

El respeto y la promoción de los derechos humanos constituyen un pilar de la sostenibilidad corporativa. Como indican los Principios 1 y 2 del Pacto Global de Naciones Unidas, en el contexto de sus operaciones, las empresas pueden generar impactos negativos, afectando los derechos humanos de diversos actores con los cuales se relacionan. Desde su creación en 2004, Pacto Global Argentina genera espacios para el intercambio entre pares, el desarrollo de capacidades y el diálogo multiactor en materia de derechos humanos.

En un mundo caracterizado por la incertidumbre, las migraciones, la inequidad, el cambio climático, las desigualdades estructurales y las demandas públicas crecientes, las Naciones Unidas llama a las empresas a acelerar su compromiso con la sostenibilidad en la Década para la Acción.

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

Gobernar la IA para la humanidad

El informe “Gobernar la IA para la humanidad” de Naciones Unidas exhorta a gobiernos, empresas y sociedad civil a establecer una arquitectura global inclusiva y cooperativa para la gobernanza responsable de la IA. Accenture define la IA responsable como la práctica de diseñar, construir e implementar IA de una manera que empodere a los empleados y a las empresas, teniendo un impacto justo en los clientes y la sociedad. Este enfoque no solo busca fomentar el desarrollo sostenible, sino también garantizar que los avances tecnológicos estén alineados con los principios fundamentales de los Derechos Humanos.

Según el informe conjunto de Pacto Global y Accenture “Gen AI for the Global Goals”, el mercado de IA generativa crecerá un 32% anual hasta alcanzar $98.1 mil millones en 2026. Sin embargo, solo el 2% de las empresas han implementado mecanismos completos de gobernanza de IA responsable. Esto subraya la urgencia de establecer marcos éticos y colaborativos que alineen los avances tecnológicos con los derechos humanos y la sostenibilidad.

Derechos Humanos y tecnología: Un deber colectivo

La inteligencia artificial puede ser una herramienta poderosa para el progreso humano, pero también plantea riesgos significativos si no es adecuadamente regulada. Desde sesgos algorítmicos hasta brechas de acceso, el uso no ético de la IA podría exacerbar desigualdades y vulnerar derechos fundamentales. Por ello, la ética y la rendición de cuentas deben ser principios rectores en el diseño, desarrollo y uso de estas tecnologías.

Derechos humanos y regulaciones

La gobernanza de la inteligencia artificial debe priorizar la protección de los derechos humanos a través de marcos regulatorios claros y efectivos. Según el informe conjunto de Accenture y Pacto Global, las empresas tienen la responsabilidad de garantizar que los sistemas de IA respeten principios éticos, como la transparencia, la equidad y la no discriminación. Esto incluye adoptar estándares internacionales, como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos, para guiar evaluaciones de impacto y mitigar riesgos.

Además, con la Unión Europea liderando iniciativas regulatorias como la Ley de IA, se está estableciendo un precedente global que refuerza la necesidad de un enfoque integral y colaborativo. La implementación de estas regulaciones no solo asegura la protección de los derechos fundamentales, sino que también promueve la confianza y la legitimidad en el uso de tecnologías emergentes.

Integridad sostenible en un mundo digital

Adoptar un marco ético para la IA es una extensión de nuestro compromiso con los Derechos Humanos. Desde Pacto Global Argentina alientan a las organizaciones a integrar estas recomendaciones en sus operaciones, priorizando la sostenibilidad, la inclusión y la justicia.

En este esfuerzo, la plataforma Academy de Global Compact ofrece capacitaciones clave en áreas como:

  • Derechos Humanos y Empresas.
  • Ética en la Inteligencia Artificial.
  • Principios rectores sobre empresas y Derechos Humanos.

Todas las organizaciones y actores sociales estan invirados a explorar estos recursos gratuitos como una herramienta para avanzar hacia una gobernanza responsable y alineada con los ODS.

Acciones sugeridas para las empresas

Los avances tecnológicos están impactando cada vez más a las empresas. El 97% de los ejecutivos cree que la IA generativa transformará su industria en los próximos tres a cinco años. Por ende, las empresas tienen un papel crucial en la gobernanza de la IA con enfoque en Derechos Humanos. Más allá de capacitarse, es fundamental que adopten acciones concretas para asegurar que sus prácticas tecnológicas respeten los principios éticos, protejan derechos fundamentales y contribuyan a los Objetivos de Desarrollo Sostenible (ODS) a saber:

  • Adopción de Principios Éticos para la Gobernanza de la IA
  • Desarrollar un marco ético interno que regule el diseño, desarrollo y uso de la IA, asegurando la alineación con los Derechos Humanos y los ODS.
  • Implementar principios rectores: Transparencia, equidad, no discriminación, privacidad, responsabilidad y rendición de cuentas.
  • Evaluación de Impacto de Derechos Humanos en la IA
  • Realizar evaluaciones de impacto periódicas para identificar riesgos reales y potenciales de los sistemas de IA en los derechos de las personas, especialmente de comunidades vulnerables.
  • Utilizar marcos reconocidos como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos para guiar estas evaluaciones.
  • Incorporación Paneles comunitarios en la Gobernanza Participativa
  • Involucrar a múltiples partes interesadas (empleados, comunidades, ONGs, expertos en derechos humanos) en la revisión y monitoreo de las aplicaciones de IA. Promover la consulta abierta y la inclusión de voces diversas para garantizar que las tecnologías desarrolladas beneficien a todos.
  • Transparencia y Rendición de Cuentas
  • Publicar informes regulares que detallen cómo se están utilizando las tecnologías de IA en la empresa, qué medidas se están tomando para mitigar riesgos y qué beneficios se están generando. Garantizando la trazabilidad de los algoritmos y las decisiones automatizadas, explicando claramente a los usuarios cómo y por qué se toman estas decisiones.
  • Capacitación y Conciencia Ética Interna
  • Crear equipos interdisciplinarios que incluyan expertos y expertas en tecnología, ética y derechos humanos para liderar las iniciativas de IA responsable. Tener presente los sesgos algorítmicos, la privacidad y protección de datos.
  • Promoción de la Diversidad y la Inclusión en el Desarrollo de IA
  • Asegurar que los equipos de desarrollo de IA sean diversos e inclusivos, lo que puede ayudar a reducir sesgos en los algoritmos y a diseñar soluciones más equitativas.
  • Implementar prácticas de reclutamiento inclusivo para roles técnicos y éticos relacionados con IA.
  • Colaboración con Redes Globales y Locales
  • Participar en plataformas internacionales como el Panel Científico Internacional sobre IA, recomendado por Naciones Unidas, para compartir y aprender de las mejores prácticas.
  • Establecer alianzas con universidades, centros de investigación y ONGs para fomentar la investigación responsable de IA con impacto positivo.
  • Impulso a la Innovación Responsable
  • Utilizar la IA para abordar desafíos globales, como la reducción de emisiones de carbono (ODS 13) o el aumento de la eficiencia en el uso de recursos naturales (ODS 12) com también para contribuir al ODS 10 (Reducción de desigualdades).

Compromiso y Acción

Estas acciones deben ser acompañadas por un compromiso visible y activo por parte del liderazgo empresarial. La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero su impacto debe ser cuidadosamente gestionado. Al adoptar alguna de estas acciones entendemos que las empresas no solo protegerán los derechos fundamentales, sino que también construirán confianza y legitimidad, elementos clave para su sostenibilidad a largo plazo.

Un llamado urgente

Hacemos un llamado a trabajar juntos en una visión inclusiva y cooperativa para la gobernanza de la IA. Con solo el 17% de los ODS en camino de cumplirse para 2030, es fundamental que gobiernos, empresas y sociedad civil aceleren la implementación de prácticas responsables en IA.

“Desde Accenture estamos convencidos que la tecnología debe alinearse con los valores fundamentales de los derechos humanos. Gobernar la IA no es opcional, es un deber colectivo”, asegura Gaetano Salierno, Director de Estrategia y Sostenibilidad de Accenture Argentina.

“La inteligencia artificial, gobernada con integridad y en beneficio de la humanidad, puede ser un catalizador de justicia y sostenibilidad. Gobernarla es protegernos”, explica Flavio Fuertes, Director Ejecutivo del Pacto Global.

Pacto Global Argentina reafirma su compromiso con los valores de dignidad, justicia y equidad en un mundo donde la tecnología y los Derechos Humanos deben avanzar juntos para garantizar un futuro sostenible para todos.

Seguir leyendo

Mas Leidas

© 2022 FM Integracion 90.1. Todos los Derechos Reservados. | Desarrollado por Conexión Streaming

FM Integracion 90.1