Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuamos por los derechos humanos
en todo el mundo
Ilustración inteligencia artificial

Ilustración inteligencia artificial. © Mourad ALLILI/SIPA

Blog

El impacto de las tecnologías digitales en la protección social y los derechos humanos

Por Amnistía Internacional,
En el mundo actual, donde la tecnología avanza rápidamente, las tecnologías digitales se integran cada vez más en diversos aspectos de nuestras vidas, incluyendo los sistemas de protección social.

Estas tecnologías prometen mayor eficiencia, mejor focalización de servicios y una mayor transparencia. Sin embargo, como se destaca en el reciente informe de Amnistía Internacional, "La Protección Social En La Era Digital", también presentan riesgos significativos para los derechos humanos, especialmente en términos de discriminación, privacidad y acceso a servicios esenciales.

Es fundamental recordar que los Estados tienen la responsabilidad de asegurar que el apoyo social sea suficiente en cantidad y duración para que todas las personas puedan disfrutar de una vida digna, de protección familiar y de acceso adecuado a la salud. Este derecho es esencial para garantizar la dignidad humana y un nivel de vida adecuado.

Promesas y peligros del Estado de bienestar digital

Los gobiernos de todo el mundo están adoptando tecnologías digitales para mejorar sus sistemas de bienestar. Procesos de toma de decisiones automatizados, bases de datos digitales y evaluaciones algorítmicas son ahora herramientas comunes utilizadas para determinar la elegibilidad para obtener beneficios sociales. El objetivo es crear sistemas más eficientes y efectivos que puedan responder rápidamente a las necesidades de las poblaciones en situación de vulnerabilidad.

Sin embargo, el informe de Amnistía Internacional subraya que cuando estas tecnologías se implementan en entornos ya afectados por desigualdades sociales e insuficientes protecciones, pueden agravar los problemas existentes. Por ejemplo, los sistemas automatizados pueden excluir inadvertidamente a grupos marginados de recibir la asistencia que necesitan, lo que lleva a un aumento de la pobreza y la exclusión social.

Preocupaciones sobre los derechos humanos

Ilustración de una gran pantalla de ordenador de color rojo en la que se lee «DENIED» (denegado), que está situada en el estrado de un juez con un mazo delante. Debajo del estrado, hay tres personajes acurrucados, vistos desde atrás, mirando hacia la pantalla.

Ilustración de una gran pantalla de ordenador de color rojo en la que se lee «DENIED» (denegado). © Simina Popescu

Una de las principales preocupaciones planteadas en el informe es el potencial de discriminación en la toma de decisiones algorítmicas. Estos sistemas, a menudo percibidos como neutrales y objetivos, pueden en realidad reforzar los sesgos presentes en los datos con los que se entrenan. Por ejemplo, en Serbia, la introducción de procesos semiautomatizados en los sistemas de protección social llevó a la exclusión de algunas de las personas más marginadas de recibir asistencia.

Además, el uso de tecnologías digitales en los sistemas de bienestar plantea serias preocupaciones sobre la privacidad. La creación y gestión de vastas bases de datos digitales que contienen información personal sensible presenta riesgos significativos si no se protegen adecuadamente. El informe advierte que sin medidas de transparencia sólidas y recursos legales efectivos, las personas podrían enfrentar la denegación injusta de beneficios con escasas o nulas posibilidades de impugnar estas decisiones.

Estudios de Caso: Lecciones de Serbia y los Países Bajos, el desempeño del Banco Mundial

La investigación de Amnistía Internacional en Serbia y los Países Bajos ofrece una ilustración clara de los peligros que representan los sistemas de bienestar digital. En Serbia, el uso de sistemas semiautomatizados para determinar la elegibilidad para beneficios sociales resultó en exclusiones significativas, afectando desproporcionadamente a los grupos más vulnerables. En los Países Bajos, el despliegue de sistemas algorítmicos para detectar fraudes en el bienestar condujo a prácticas discriminatorias que afectaron a grupos minoritarios, causando daños generalizados.

Estos estudios de caso destacan la necesidad urgente de una mayor supervisión y rendición de cuentas en el uso de tecnologías digitales en los sistemas de protección social. El informe enfatiza que sin salvaguardias adecuadas, la digitalización de los sistemas de bienestar puede llevar a graves violaciones de los derechos humanos, socavando el propósito mismo de estos sistemas.

LA EXPERIENCIA DE BOGDAN EN EL ACCESO A LA ASISTENCIA SOCIAL EN SERBIA

En marzo de 2023, Bogdan intentó renovar la asistencia social de la que dependían él y su familia, con cuatro hijos de corta edad. En lugar de ofrecerle la ayuda que tan desesperadamente necesitaban, la respuesta de los servicios sociales fue que tenía “demasiado dinero” en su cuenta bancaria.

Era absurdo. Ni siquiera tengo cuenta bancaria, y 90.000 dinares serbios (770 euros) no es una cantidad enorme de dinero”, dijo. “Intenté informarme en el Centro de Trabajo Social sobre esa cuenta bancaria, pero no fueron capaces de responderme. Dijeron que era asunto mío conseguir la documentación que confirmara que la información no era correcta.”

Cuando Amnistía Internacional lo entrevistó, Bogdan estaba intentando reunir pruebas de que no tenía una cuenta bancaria ni los fondos que figuraban a su nombre para poder volver a solicitar asistencia social, sin la cual su familia se veía sumida en una profunda crisis. “Siempre hemos vivido modestamente y sin lujos, pero ahora ni siquiera podemos comprar comida”, dijo Bogdan a Amnistía Internacional.

Bogdan es una de las posiblemente miles de personas que se quedaron sin asistencia social tras la entrada en vigor, en marzo de 2022, de la Ley de la Tarjeta Social, que introdujo la automatización en el proceso de determinación del derecho de las personas a diversos programas de asistencia social.

El Banco Mundial, como uno de los principales financiadores de programas de protección social, ha promovido la automatización de estos sistemas, especialmente en países de ingresos bajos y medios. Sus iniciativas incluyen:

  • Focalización en la pobreza: Busca mejorar la asignación de ayudas basadas en la situación socioeconómica de las personas. No obstante, la digitalización y automatización han aumentado los riesgos de exclusión y discriminación.

  • Registros sociales: La creación de registros sociales digitales recopila grandes volúmenes de datos para determinar la elegibilidad de beneficios. Este proceso puede agravar problemas existentes y producir resultados discriminatorios.

  • Derechos humanos: Según normativas como los Principios Rectores de Tilburg* el Banco Mundial debe asegurar que sus proyectos respeten los derechos humanos.

Sin embargo, se han documentado impactos negativos en derechos humanos asociados a algunos proyectos financiados por la institución. Unos ejemplos se verificaron de nuevo en Serbia, donde la financiación para el registro de la tarjeta social se realizó sin confirmar evaluaciones adecuadas de derechos humanos. En Jordania, el programa "Takaful" ha sido criticado por errores en los datos y falta de transparencia, afectando su efectividad.

Una exposición de dos días sobre Big Data e Inteligencia Artificial

Big Data e Inteligencia Artificial. © Romuald Meigneux/SIPA

Conclusión

Amnistía Internacional enfatiza la importancia de evaluar cuidadosamente los riesgos antes de introducir tecnología en los sistemas de protección social. Es esencial realizar evaluaciones de impacto en los derechos humanos a lo largo del ciclo de vida de cualquier tecnología, desde su diseño hasta su implementación, con medidas para mitigar cualquier efecto negativo. Se deben consultar a las comunidades afectadas y comunicar claramente los cambios en los sistemas. Las instituciones financieras internacionales deben asegurar que su apoyo no contribuya a violaciones de derechos humanos. Si una tecnología puede dañar los derechos humanos y no se puede evitar, no debe ser utilizada.

Recomendaciones a los Estados

  • Transparencia total: Garantizar plena transparencia en el uso de tecnologías digitales en la administración pública.

  • Información accesible: Divulgar el funcionamiento de los sistemas, de los criterios utilizados y de los mecanismos de apelación, en formatos accesibles.

  • Cumplimiento de derechos humanos: Asegurar que las tecnologías se usen conforme a los estándares de derechos humanos, evitando discriminación.

  • Evaluación de impacto obligatoria: Realizar evaluaciones de impacto en derechos humanos para cualquier sistema automatizado, involucrando a expertos y comunidades afectadas.

  • Supervisión independiente: Establecer mecanismos de supervisión pública e independiente para los sistemas de toma de decisiones automatizados.

  • Protección social adecuada: Garantizar que los sistemas de protección social aseguren un nivel de vida digno.

  • Abordaje de discriminación: Considerar y abordar las formas de discriminación que enfrentan grupos específicos al interactuar con tecnologías digitales.

  • Rendición de cuentas y remedios: Proporcionar mecanismos efectivos para la rendición de cuentas y reparación de daños relacionados con las tecnologías digitales.

  • Responsabilidad de empresas: Asegurar que las empresas proveedoras de sistemas de seguridad social cumplan con los Principios Rectores de la ONU sobre Empresas y Derechos Humanos.

* 62 Van Genugten, W. J. M., Flinterman, C., Hunt, P., Mathews, S. M. “Tilburg Guiding Principles on World Bank, IMF and Human Rights”, en W. J. M.

van Genugten, P. Hunt, & S. M. Mathews (Eds.), World Bank, IMF and Human Rights, 2003, ssrn.com/abstract=957195, pp. 247-255

Contigo somos independientes

Amnistía Internacional lo forman personas que defienden una humanidad justa y libre alrededor del mundo. Personas como tú, que creen en nuestro trabajo. Por eso, si tú también defiendes los derechos humanos, te necesitamos para seguir siendo independientes. Puedes hacerlo desde aquí en menos de un minuto, con cuotas a partir de 4 € al mes.

Nos mantenemos firmes con nuestros principios: no aceptamos ni una sola subvención de ningún gobierno, ni donaciones de partidos políticos.

Haz posible nuestra independencia.