Al igual que Amazon e IBM, Microsoft no venderá tecnologías de reconocimiento facial a la policía
La empresa con sede en Redmond dijo que no venderá sus programas a la policía hasta que no se respeten los derechos humanos
Microsoft siguió este jueves los pasos de IBM y Amazon y anunció que tampoco venderá su tecnología de reconocimiento facial a la policía, como respuesta a las demandas de justicia racial y contra la brutalidad policial en Estados Unidos tras la muerte del afroamericano George Floyd a manos de un agente en Minneapolis.
“No vendemos nuestra tecnología de reconocimiento facial a los departamento de Policía de Estados Unidos y seguiremos sin hacerlo hasta que no exista en el país una ley fuerte y basada en los derechos humanos”, indicó la empresa con sede en Redmond (Washington) en un comunicado.
La respuesta de Microsoft llega la misma semana en que otros dos gigantes de la tecnología, IBM y Amazon, anunciaran medidas similares: en el caso de IBM, retirándose por completo del negocio del reconocimiento facial; y en el de Amazon, prohibiendo las ventas de su tecnología a la policía durante un año.
Y como hicieron IBM y Amazon, ahora Microsoft: la empresa fundada por Bill Gates no venderá tecnología de reconocimiento facial a la policía hasta que no existan leyes a federales, que contemplen la protección de los derechos humanos, que regulen su uso. https://t.co/wITV1xlBaD
— Domin.io (@estoesdominio) June 11, 2020
El año pasado, San Francisco se convirtió en la primera gran ciudad de Estados Unidos en prohibir a todas las agencias locales, entre ellas la policía, el uso de técnicas de reconocimiento facial, cada vez más empleadas por las autoridades para identificar a criminales pero criticadas por las organizaciones proderechos civiles.
Gobiernos y agencias de seguridad de todo el mundo hace años que utilizan las técnicas de reconocimiento facial (capaces de identificar a individuos mediante inteligencia artificial) para tareas como detectar a criminales, ayudar en las tareas de búsqueda de menores desaparecidos o prevenir el fraude documental.
Sin embargo, los grupos en defensa de los derechos civiles aseguran que esta tecnología invade la privacidad de los ciudadanos de forma excesiva, a la vez que puede perpetuar sesgos policiales contra minorías étnicas, ya que se ha probado que tiende más al error con personas de piel oscura.
En este sentido, un estudio llevado a cabo en 2018 por la Unión Estadounidense de Libertades Civiles (ACLU) halló que el reconocimiento facial había identificado incorrectamente a 28 congresistas estadounidenses (en su mayoría pertenecientes a minorías étnicas) como criminales al comparar sus fotografías con imágenes policiales.