Connect with us

Tecnología

Qué riesgos existen si me implantan el chip de Elon Musk en el cerebro

Publicado

on

Noland Arbaugh es el primer paciente en tener implantado este chip, y ha asegurado que ha podido ser más independiente gracias a esta tecnología. (Tomado de Neuralink)

 

 

Expertos en salud señalaron que como cualquier intervención quirúrgica en esta parte del cuerpo, hay una probabilidad alta de infección. Fuentes cercanas a Neuralink advierten sobre fallas en su implantación

Noland Arbaugh, el primer paciente en recibir el implante cerebral de Neuralink, aseguró luego de 100 días de su cirugía que ha experimentado cambios positivos en su estilo de vida. Sin embargo, algunas fuentes científicas y de tecnología advierten sobre los riesgos de este tipo de procedimientos.

Antes de contar los riesgos principales a los que un humano está expuesto con esta intervención quirúrgica, es importante conocer que el desarrollo de los chips cerebrales por parte de Neuralink tiene como objetivo transformar la interacción entre la mente humana y la tecnología.

Qué riesgos trae implantarse un chip cerebral

El paciente es tendencia por realizar varias tareas que antes no era capaz. (Tomado de Neuralink).

Expertos como Sara Lumbreras, codirectora de la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas, han expresado en diversos medios de comunicación como La Razón, los desafíos e implicaciones.

No obstante, acusa que este entusiasmo se ve moderado por los riesgos que conlleva la cirugía cerebral y la implantación de dispositivos. Las infecciones, un riesgo común en cualquier cirugía, son especialmente preocupantes en el caso de procedimientos cerebrales como la intervención delicada necesaria para instalar un Neuralink.

El riesgo radica en los cuidados que se tienen durante el procedimiento quirúrgico. (Imagen Ilustrativa Infobae)El riesgo radica en los cuidados que se tienen durante el procedimiento quirúrgico. (Imagen Ilustrativa Infobae)

Además, la cuestión de cómo retirar el dispositivo sin causar daños adicionales al cerebro es compleja. Este dilema no solo es técnico, sino también ético, planteando preguntas sobre la autonomía del paciente y el derecho a revertir decisiones que implican modificaciones corporales invasivas.

Qué otros contratiempos han tenido los chips cerebrales de Elon Musk

Neuralink, hizo público hace poco a través de su sitio web que el implante del primer paciente ha fallado debido a un problema en los cables de conexión.

Según la información oficial, semanas después de la operación para insertar un chip en la cabeza de Noland Arbaugh, varios hilos del dispositivo se retrajeron de su cerebro, afectando la velocidad del flujo de datos y su efectividad.

Musk continúa motivado con la implementación de estos chips. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)Musk continúa motivado con la implementación de estos chips. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Los detalles sobre el incidente son escasos, y Neuralink solo ha mencionado que está investigando las causas. Sin embargo, según revelaciones de fuentes cercanas al proyecto publicadas por Reuters, se trata de un problema conocido por la empresa desde hace años.

“La compañía sabía por las pruebas con animales que los cables podrían retraerse, eliminando con ellos los electrodos sensibles que decodifican las señales cerebrales”, señaló al medio Reuters. A pesar de este conocimiento, la empresa consideró que el riesgo no justificaba un rediseño.

Qué dicen las autoridades de salud sobre este chip cerebral

De acuerdo con la fuente consultada por Reuters, la Administración de Alimentos y Medicamentos de Estados Unidos estaba al tanto del posible problema con los cables, debido a que Neuralink compartió los resultados de las pruebas con animales como parte de su solicitud para iniciar los ensayos en humanos.

Pese a las fallas iniciales el primer paciente sigue mostrando buenos síntomas. (Foto: @ModdedQuad)Pese a las fallas iniciales el primer paciente sigue mostrando buenos síntomas. (Foto: @ModdedQuad)

Según Reuters, a finales de 2022, se descubrió que Estados Unidos tenía abierta una investigación a Neuralink por sus pruebas con estos sujetos de estudio.

Los informes indican que la empresa mató aproximadamente 1.500 animales incluidas más de 280 ovejas, cerdos y monos, tras realizar experimentos desde 2018.

Pese a estos problemas, el dispositivo de Noland Arbaugh sigue funcionando y ha posibilitado que, solo con la mente, pueda jugar videojuegos, navegar por internet y mover el cursor de su portátil.

Según Neuralink, Arbaugh superó el récord mundial de velocidad para controlar un cursor con el pensamiento poco después de la cirugía.

Tecnología

Desarrollaron un robot que imita los festejos de Cristiano Ronaldo y LeBron James, y los movimientos de Kobe Bryant

Publicado

on

Por

Un innovador método de entrenamiento permitió al humanoide aprender movimientos complejos basándose en videos de atletas y ajustándose a la física del mundo real

Seguir leyendo

Tecnología

Europa se prepara para explorar Marte: los ambiciosos planes de la ESA para la próxima década

Publicado

on

Por

La agencia europea apuesta por la investigación de Marte con tecnología avanzada, iniciando una nueva era en la búsqueda de vida extraterrestre

Seguir leyendo

Tecnología

Los derechos humanos en la era de la inteligencia artificial: cómo gobernar para la humanidad

Publicado

on

Por

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

En diciembre se celebra el Día Internacional de los Derechos HumanosPacto Global Argentina se suma al llamado de Naciones Unidas para revalorizar la protección de los derechos fundamentales en un mundo transformado por la tecnología.

El respeto y la promoción de los derechos humanos constituyen un pilar de la sostenibilidad corporativa. Como indican los Principios 1 y 2 del Pacto Global de Naciones Unidas, en el contexto de sus operaciones, las empresas pueden generar impactos negativos, afectando los derechos humanos de diversos actores con los cuales se relacionan. Desde su creación en 2004, Pacto Global Argentina genera espacios para el intercambio entre pares, el desarrollo de capacidades y el diálogo multiactor en materia de derechos humanos.

En un mundo caracterizado por la incertidumbre, las migraciones, la inequidad, el cambio climático, las desigualdades estructurales y las demandas públicas crecientes, las Naciones Unidas llama a las empresas a acelerar su compromiso con la sostenibilidad en la Década para la Acción.

A 75 años de la proclamación de la Declaración Universal de los Derechos Humanos, la irrupción de la inteligencia artificial (IA) redefine los desafíos y oportunidades en la promoción de la dignidad humana, la equidad y la sostenibilidad.

Gobernar la IA para la humanidad

El informe “Gobernar la IA para la humanidad” de Naciones Unidas exhorta a gobiernos, empresas y sociedad civil a establecer una arquitectura global inclusiva y cooperativa para la gobernanza responsable de la IA. Accenture define la IA responsable como la práctica de diseñar, construir e implementar IA de una manera que empodere a los empleados y a las empresas, teniendo un impacto justo en los clientes y la sociedad. Este enfoque no solo busca fomentar el desarrollo sostenible, sino también garantizar que los avances tecnológicos estén alineados con los principios fundamentales de los Derechos Humanos.

Según el informe conjunto de Pacto Global y Accenture “Gen AI for the Global Goals”, el mercado de IA generativa crecerá un 32% anual hasta alcanzar $98.1 mil millones en 2026. Sin embargo, solo el 2% de las empresas han implementado mecanismos completos de gobernanza de IA responsable. Esto subraya la urgencia de establecer marcos éticos y colaborativos que alineen los avances tecnológicos con los derechos humanos y la sostenibilidad.

Derechos Humanos y tecnología: Un deber colectivo

La inteligencia artificial puede ser una herramienta poderosa para el progreso humano, pero también plantea riesgos significativos si no es adecuadamente regulada. Desde sesgos algorítmicos hasta brechas de acceso, el uso no ético de la IA podría exacerbar desigualdades y vulnerar derechos fundamentales. Por ello, la ética y la rendición de cuentas deben ser principios rectores en el diseño, desarrollo y uso de estas tecnologías.

Derechos humanos y regulaciones

La gobernanza de la inteligencia artificial debe priorizar la protección de los derechos humanos a través de marcos regulatorios claros y efectivos. Según el informe conjunto de Accenture y Pacto Global, las empresas tienen la responsabilidad de garantizar que los sistemas de IA respeten principios éticos, como la transparencia, la equidad y la no discriminación. Esto incluye adoptar estándares internacionales, como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos, para guiar evaluaciones de impacto y mitigar riesgos.

Además, con la Unión Europea liderando iniciativas regulatorias como la Ley de IA, se está estableciendo un precedente global que refuerza la necesidad de un enfoque integral y colaborativo. La implementación de estas regulaciones no solo asegura la protección de los derechos fundamentales, sino que también promueve la confianza y la legitimidad en el uso de tecnologías emergentes.

Integridad sostenible en un mundo digital

Adoptar un marco ético para la IA es una extensión de nuestro compromiso con los Derechos Humanos. Desde Pacto Global Argentina alientan a las organizaciones a integrar estas recomendaciones en sus operaciones, priorizando la sostenibilidad, la inclusión y la justicia.

En este esfuerzo, la plataforma Academy de Global Compact ofrece capacitaciones clave en áreas como:

  • Derechos Humanos y Empresas.
  • Ética en la Inteligencia Artificial.
  • Principios rectores sobre empresas y Derechos Humanos.

Todas las organizaciones y actores sociales estan invirados a explorar estos recursos gratuitos como una herramienta para avanzar hacia una gobernanza responsable y alineada con los ODS.

Acciones sugeridas para las empresas

Los avances tecnológicos están impactando cada vez más a las empresas. El 97% de los ejecutivos cree que la IA generativa transformará su industria en los próximos tres a cinco años. Por ende, las empresas tienen un papel crucial en la gobernanza de la IA con enfoque en Derechos Humanos. Más allá de capacitarse, es fundamental que adopten acciones concretas para asegurar que sus prácticas tecnológicas respeten los principios éticos, protejan derechos fundamentales y contribuyan a los Objetivos de Desarrollo Sostenible (ODS) a saber:

  • Adopción de Principios Éticos para la Gobernanza de la IA
  • Desarrollar un marco ético interno que regule el diseño, desarrollo y uso de la IA, asegurando la alineación con los Derechos Humanos y los ODS.
  • Implementar principios rectores: Transparencia, equidad, no discriminación, privacidad, responsabilidad y rendición de cuentas.
  • Evaluación de Impacto de Derechos Humanos en la IA
  • Realizar evaluaciones de impacto periódicas para identificar riesgos reales y potenciales de los sistemas de IA en los derechos de las personas, especialmente de comunidades vulnerables.
  • Utilizar marcos reconocidos como los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos para guiar estas evaluaciones.
  • Incorporación Paneles comunitarios en la Gobernanza Participativa
  • Involucrar a múltiples partes interesadas (empleados, comunidades, ONGs, expertos en derechos humanos) en la revisión y monitoreo de las aplicaciones de IA. Promover la consulta abierta y la inclusión de voces diversas para garantizar que las tecnologías desarrolladas beneficien a todos.
  • Transparencia y Rendición de Cuentas
  • Publicar informes regulares que detallen cómo se están utilizando las tecnologías de IA en la empresa, qué medidas se están tomando para mitigar riesgos y qué beneficios se están generando. Garantizando la trazabilidad de los algoritmos y las decisiones automatizadas, explicando claramente a los usuarios cómo y por qué se toman estas decisiones.
  • Capacitación y Conciencia Ética Interna
  • Crear equipos interdisciplinarios que incluyan expertos y expertas en tecnología, ética y derechos humanos para liderar las iniciativas de IA responsable. Tener presente los sesgos algorítmicos, la privacidad y protección de datos.
  • Promoción de la Diversidad y la Inclusión en el Desarrollo de IA
  • Asegurar que los equipos de desarrollo de IA sean diversos e inclusivos, lo que puede ayudar a reducir sesgos en los algoritmos y a diseñar soluciones más equitativas.
  • Implementar prácticas de reclutamiento inclusivo para roles técnicos y éticos relacionados con IA.
  • Colaboración con Redes Globales y Locales
  • Participar en plataformas internacionales como el Panel Científico Internacional sobre IA, recomendado por Naciones Unidas, para compartir y aprender de las mejores prácticas.
  • Establecer alianzas con universidades, centros de investigación y ONGs para fomentar la investigación responsable de IA con impacto positivo.
  • Impulso a la Innovación Responsable
  • Utilizar la IA para abordar desafíos globales, como la reducción de emisiones de carbono (ODS 13) o el aumento de la eficiencia en el uso de recursos naturales (ODS 12) com también para contribuir al ODS 10 (Reducción de desigualdades).

Compromiso y Acción

Estas acciones deben ser acompañadas por un compromiso visible y activo por parte del liderazgo empresarial. La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero su impacto debe ser cuidadosamente gestionado. Al adoptar alguna de estas acciones entendemos que las empresas no solo protegerán los derechos fundamentales, sino que también construirán confianza y legitimidad, elementos clave para su sostenibilidad a largo plazo.

Un llamado urgente

Hacemos un llamado a trabajar juntos en una visión inclusiva y cooperativa para la gobernanza de la IA. Con solo el 17% de los ODS en camino de cumplirse para 2030, es fundamental que gobiernos, empresas y sociedad civil aceleren la implementación de prácticas responsables en IA.

“Desde Accenture estamos convencidos que la tecnología debe alinearse con los valores fundamentales de los derechos humanos. Gobernar la IA no es opcional, es un deber colectivo”, asegura Gaetano Salierno, Director de Estrategia y Sostenibilidad de Accenture Argentina.

“La inteligencia artificial, gobernada con integridad y en beneficio de la humanidad, puede ser un catalizador de justicia y sostenibilidad. Gobernarla es protegernos”, explica Flavio Fuertes, Director Ejecutivo del Pacto Global.

Pacto Global Argentina reafirma su compromiso con los valores de dignidad, justicia y equidad en un mundo donde la tecnología y los Derechos Humanos deben avanzar juntos para garantizar un futuro sostenible para todos.

Seguir leyendo

Mas Leidas

© 2022 FM Integracion 90.1. Todos los Derechos Reservados. | Desarrollado por Conexión Streaming

FM Integracion 90.1