Candriam, gestora centrada en inversiones sostenibles y multiactivo a escala global, ha publicado una actualización de su iniciativa de inversores sobre tecnología de reconocimiento facial (TRF) tras un año desde su comienzo, en que se detalla la colaboración llevada a cabo para abordar los riesgos que plantea dicha tecnología para los derechos humanos.
Candriam, junto con otros 20 inversores, entre los que se encuentran Aviva Investors, Domini Impact Investments LLC y Robeco, ha estudiado a 15 empresas que cuentan con TRF (Técnicas de Reconocimiento Fácil en adelante) a fin de conocer cómo evalúan, gestionan y mitigan los riesgos para los derechos humanos.
El informe plantea cuatro ámbitos preocupantes: el riesgo potencial de sesgo racial y de género, la precisión cuestionable de la tecnología, inquietudes acerca de la privacidad y el uso inadecuado.
Algunas de las conclusiones principales son las siguientes:
- La regulación a duras penas evoluciona al ritmo de la tecnología. Por tanto, es esencial que las empresas piensen más allá de lo que es legal y se centren en lo que es ético. Las empresas que hablan con franqueza de los aspectos éticos de la inteligencia artificial (IA) y de un enfoque responsable hacia la TRF brindan una señal positiva de diligencia y consideración que suele reflejarse de un modo evidente en todas sus operaciones.
- Las empresas deberían contar con mecanismos de gobierno específicos para los riesgos relativos a los derechos humanos, así como publicar una política detallada específica en que expliquen cómo utilizan la IA y la TRF.
- La categorización introduce demasiadas discriminaciones y violaciones de los derechos humanos potenciales, y se debería evitar a toda costa.
- Se anima a las empresas a evitar las ventas de TRF a organismos de seguridad hasta que se disponga de una regulación adecuada.
- La TRF debería centrarse en ayudar a los seres humanos a procesar la identificación y la autenticación. Son esenciales supervisión y control a cargo de una persona. Un algoritmo no debería tomar una decisión que puede acarrear consecuencias.
Destacaron tres empresas por su esfuerzo para mitigar los riesgos para los derechos humanos en el uso de la IA y la TRF: Microsoft, Motorola Solutions y Thales:
- Microsoft ha desplegado mecanismos de gobierno sólidos acerca de los aspectos éticos de la IA y la TRF, y recientemente retiró sus capacidades de clasificación facial. Además, Microsoft es una de las primeras tecnológicas en aplicar una moratoria a la venta de TRF a organismos de seguridad.
- Motorola destaca que la TRF debería ayudar a los seres humanos y no tomar decisiones que acarrean consecuencias, y ha integrado un sistema de autenticación de doble factor en su tecnología.
- El control de pasaportes asistido por TRF de Thales exige un control estricto y prevé un punto para la destrucción de los datos del usuario después de cada paso.
Esta actualización llega tras el satisfactorio lanzamiento de la campaña de TRF de Candriam en marzo de 2021 y la posterior firma de la Declaración sobre el reconocimiento facial por 55 inversores de todo el mundo en junio de 2021. Después de este informe, Candriam mantendrá conversaciones con cada una de las empresas sobre cómo pueden implementar en sus operaciones las mejores prácticas que se sugieren. Se espera que el resultado de esta segunda ronda de colaboración se publique en 2023.
Candriam también se ha adherido a la Collective Impact Coalition (CIC) for Digital Inclusion, iniciada recientemente y liderada por la World Benchmarking Alliance, con el fin de promover el uso responsable de la IA.
Al respecto del informe, Benjamin Chekroun, analista de delegación del voto e implicación de Candriam, sostiene: «La rapidez con la que está evolucionando la TRF y el retraso en su regulación llevan a que sea un aspecto ineludible para los derechos humanos que las empresas implicadas en este ámbito supervisen y comprendan en mayor medida esta cuestión. Como inversores responsables en el sector tecnológico, tenemos una importante función que desempeñar a la hora de animar a las empresas en cartera a identificar, gestionar y mitigar los riesgos para los derechos humanos en su uso de la IA y la TRF. Esperamos que nuestro informe y sus conclusiones lleven a las empresas a aplicar procedimientos de diligencia debida y supervisión en materia de derechos humanos, induciéndolas a consultar, tomar nota y atajar los riesgos que plantea la TRF».
Louise Piffaut, analista senior de ESG de Aviva Investors, añadió: "En Aviva Investors nos complace ver este informe provisional, que constituye un hito importante para esta iniciativa de colaboración. Dado que la regulación sigue siendo limitada en el sector tecnológico, las empresas todavía no tienen en cuenta sus responsabilidades en la gestión de los impactos sociales de las TRF, dependiendo de la parte de la cadena de valor en la que participen. Los inversores tienen un importante papel que desempeñar a la hora de señalar las mejores prácticas y comprometerse con las empresas en esta cuestión".