Publicador de contidos

Repensar los derechos humanos en la era digital
FIRMA CONVIDADA
REPENSAR LOS DERECHOS HUMANOS EN LA ERA DIGITAL
María Cano
REPENSAR LOS DERECHOS HUMANOS EN LA ERA DIGITAL
María Cano participando en la segunda edición del Summit #ConversacionesHumanitarias: Tecnología y Vulnerabilidad.
Vivimos en una era marcada por la tecnología, donde la inteligencia artificial promete eficiencia, innovación y soluciones para problemas complejos. Sin embargo, esa misma tecnología introduce nuevas formas de vulnerabilidad que afectan directamente a nuestros derechos fundamentales. En este escenario, la pregunta ya no es solo qué puede hacer la tecnología, sino qué impacto tiene sobre nosotros y nuestros derechos.

Humanidad

Y es que, está claro que la expansión de la IA y los sistemas digitales han transformado la manera en la que tomamos decisiones, accedemos a la información e incluso, nos relacionamos. Lo que antes era una interacción humana mediada por reglas claras, ahora se gobierna mediante algoritmos invisibles que no siempre son auditables. Así, los derechos humanos tradicionales, pensados en un marco físico y estatal, se ven desafiados en un ecosistema digital global, sin límites, descentralizado y controlado en gran parte por actores privados. 

Surge entonces el concepto de derechos digitales, una evolución necesaria que incluye el derecho a la privacidad (vulnerado cuando nuestros datos personales son recolectados, compartidos o comercializados sin consentimiento), el derecho a la libertad de expresión y acceso a la información (comprometido por algoritmos que filtran lo que vemos y limitan el acceso a voces diversas), el derecho a la igualdad y no discriminación (en riesgo cuando los sistemas automatizados perpetúan sesgos y exclusiones históricas), y el derecho a la autonomía (afectado si nuestras decisiones están condicionadas por sistemas invisibles que manipulan nuestras preferencias). 

A la vista está, los derechos digitales están reconocidos en declaraciones y marcos normativos, pero parecen más simbólicos que efectivos, quizás debido a esa falta de límites o fronteras dotadas por lo físico y que quedan en suspenso en lo digital. Entonces, ¿de qué sirve tener derechos si no podemos ejercerlos? Estos derechos están en juego en nuestro día a día. 

 

Una nueva vulnerabilidad con base en lo conocido

La tecnología no es neutral; la IA refleja las estructuras sociales que la originan. Si los datos con los que se entrenan los algoritmos contienen prejuicios, estos se replican y amplifican. Así, por ejemplo, sistemas de contratación laboral, análisis crediticio o predicción policial han demostrado discriminar a ciertos grupos poblacionales. 

La opacidad de estos sistemas agrava el problema: muchas veces no sabemos por qué un algoritmo decide algo, ni cómo reclamar si sentimos que ha sido injusto. Esta falta de rendición de cuentas produce una nueva forma de vulnerabilidad: estamos sujetos a decisiones que nos afectan profundamente, pero que no podemos entender ni revertir. 

Además, las comunidades excluidas digitalmente —por motivos económicos, educativos, geográficos o sociales— no solo quedan fuera de los beneficios del progreso tecnológico, sino que además pueden ser utilizadas como insumo: sus datos son capturados sin consentimiento, sus decisiones son afectadas por sistemas que no comprenden y sus derechos, invisibilizados por una gobernanza digital que no los representa. La IA no solo amplifica desigualdades preexistentes; también crea nuevas asimetrías

 

La tecnología no es neutral

 

La promesa de protección y eficiencia puede ser engañosa. La IA se presenta como una herramienta para optimizar recursos o reforzar la seguridad, pero también permite prácticas como la vigilancia masiva, la manipulación informativa mediante fake news o la delegación de decisiones críticas a sistemas sin supervisión humana. 

El verdadero giro de la IA no es sólo técnico, sino político: reconfigura el poder. Decisiones con impacto en las personas ahora se delegan a sistemas algorítmicos y este desplazamiento borra o diluye el concepto de responsabilidad, lo que dificulta aún más la posibilidad de exigir esos derechos. 

 

Y entonces, ¿qué podemos hacer?

El verdadero desafío es por tanto hacer efectivo el reconocimiento de esos derechos. Para ello, debemos ser conscientes de las consecuencias de desarrollar lo técnico sin tener en cuenta lo humano. Los Estados deben prever los impactos de la tecnología y desarrollar legislaciones que protejan los derechos (digitales), especialmente en sectores como la salud, la justicia o la educación, con tanto impacto en las vidas de los seres humanos.

La transparencia y la responsabilidad son dos conceptos clave a día de hoy. Las empresas deben abrir sus algoritmos y permitir auditorías independientes, asumiendo las consecuencias legales por los daños que sus sistemas puedan provocar en las personas.

Y los ciudadanos, como agentes activos en esta nueva era, debemos asumir la responsabilidad en el acto de “pensar”. Tenemos que pensar críticamente todo aquello que la IA nos devuelve, no solo aprender a usar las herramientas sino fomentar el pensamiento crítico constantemente. Nos ayudará para ello comprender cómo funcionan los algoritmos, cómo moldean nuestras decisiones cotidianas y qué intereses hay detrás de estas tecnologías. Esta cuestión es clave para una ciudadanía digital empoderada y con capacidad para exigir el cumplimiento de sus derechos así cómo de desarrollar una mirada ética, plural y orientada al bien común.

Las dos caras de la moneda. La tecnología puede ser una gran aliada en la búsqueda de una sociedad mejor, pero también puede convertirse en una herramienta de exclusión, control y desigualdad. Todo depende de cómo la diseñemos, cómo la usemos (y cómo la pensemos) y también, por supuesto, cómo la regulemos. 

En este escenario, la confianza ciudadana se vuelve un valor central. No es posible construir un ecosistema digital justo si las personas no se sienten seguras al interactuar con estas tecnologías. Y esta confianza no puede exigirse sin condiciones. Se construye con transparencia, regulación efectiva, responsabilidad institucional y canales de comunicación reales. Cuando estos pilares fallan, la confianza social se resquebraja y, con ella, el ejercicio de los derechos y la legitimidad democrática. 

Si queremos que la inteligencia artificial esté al servicio del bien común hacen falta regulaciones firmes que exijan el cumplimiento de esos derechos digitales, empresas responsables, una ciudadanía crítica y una conversación global honesta sobre el tipo de sociedad digital que queremos construir. 

María Cano
María Cano
María Cano es pensadora, escritora y especialista en filosofía de la ciencia con foco en el impacto de la tecnología en el individuo y la sociedad en diferentes sectores y áreas de conocimiento. Además, desempeña parte de su faceta profesional como divulgadora de pensamiento e intersección de conocimiento. Ha sido una de las expertas en ética e inteligencia artificial invitadas en la segunda edición del Summit #ConversacionesHumanitarias: Tecnología y Vulnerabilidad organizado por la Fundación Cruz Roja Española. Imaxe de Fondo

Banner paginas editoriales

LE O QUE CHE INTERESA
Subscríbete á nosa newsletter e coñece un millón de pequenas historias