En un comunicado publicado este viernes, una quincena de relatores y especialistas de la ONU afirmó que las nuevas tecnologías, incluidos los sistemas de vigilancia biométrica basados en inteligencia artificial, se utilizan cada vez más «en contextos delicados», sin el conocimiento ni el consentimiento de las personas.
Deben trazarse líneas rojas urgentemente
«Se necesitan líneas rojas reglamentarias urgentes y estrictas para las tecnologías que pretenden realizar el reconocimiento de emociones o de género», afirmaron los expertos**, entre los que se encuentra Fionnuala Ní Aoláin, relatora especial sobre la promoción y protección de los derechos humanos en la lucha contra el terrorismo.
Los expertos, designados por el Consejo de Derechos Humanos, condenaron el ya «alarmante» uso de los programas espía y las tecnologías de vigilancia con defensores de los derechos humanos y periodistas, «a menudo bajo el pretexto de estar tomando medidas de seguridad nacional y antiterroristas».
También pidieron una regulación para hacer frente al vertiginoso desarrollo de la inteligencia artificial generativa, que permite la producción masiva de contenidos falsos en línea, promoviendo la desinformación y la incitación al odio.
Consecuencias en el mundo real
Los expertos subrayaron la necesidad de garantizar que estos sistemas no expongan aún más a las personas y las comunidades a violaciones de los derechos fundamentales; en concreto, mediante la expansión y el abuso de prácticas de vigilancia que vulneran el derecho a la privacidad y que facilitan la comisión de graves violaciones, incluidas las desapariciones forzadas, y la discriminación.
También expresaron su preocupación por el respeto a las libertades de expresión, pensamiento y protesta pacífica, y por el acceso a los derechos económicos, sociales y culturales esenciales, así como a los servicios humanitarios.
«Deben evitarse por completo las tecnologías y aplicaciones específicas en las que no sea posible regular las quejas sobre derechos humanos», afirmaron los expertos.
También expresaron su preocupación por el hecho de que el desarrollo de la inteligencia artificial generativa esté impulsado por un pequeño grupo de actores poderosos, entre ellos empresas e inversores, sin que existan requisitos adecuados para llevar a cabo la diligencia debida en materia de derechos humanos o la consulta con las personas y comunidades afectadas.
Además, los expertos señalaron que el trabajo crucial de regulación interna, a través de la moderación de contenidos, a menudo es realizado por individuos en situación de explotación laboral.
Foto: Especial