Google ha retirado de su sitio web el compromiso de no usar inteligencia artificial para armas o vigilancia masiva. Es el mayor cambio de política desde que el gigante de Internet publicara sus «Principios de IA».
Corría el mes de mayo de 2018 cuando 4.000 empleados de Google firmaron una petición interna en el que exigían a la compañía su salida del Project Maven, un programa militar de inteligencia artificial y aprendizaje automático impulsado por el Departamento de Defensa de Estados Unidos. Los empleados de Google fueron apoyados por científicos y académicos y Google se vio obligado a cancelar el contrato y publicar compromisos contra el uso de la IA en armamento militar.
Los principios originales esbozados por el director ejecutivo Sundar Pichai a mediados de 2018, incluían una sección sobre “aplicaciones de inteligencia artificial que no implementaremos”. En la parte superior de la lista se encontraba el compromiso de no diseñar ni implementar inteligencia artificial para “tecnologías que causen o puedan causar daño general” y una promesa de sopesar los riesgos para que Google “procediera solo cuando creyera que los beneficios superan sustancialmente los riesgos”.
En concreto, Google prometió evitar:
Armas u otras tecnologías cuyo propósito principal o implementación fuera causar o facilitar directamente daños a las personas.
Tecnologías que recopilasen o utilizasen información para vigilancia violando normas internacionalmente aceptadas.
Tecnologías cuyo propósito contraviniera principios ampliamente aceptados del derecho internacional y de los derechos humanos.
Vía libre al uso de inteligencia artificial para armas
A pocos puede extrañar que Google ha dado marcha atrás a todos esos «principios». El mercado de la IA es un negocio floreciente (aunque la irrupción de DeepSeek ha confirmado que el sector está infladísimo) y nadie quiere estar fuera, aunque sea para actividades de alto riesgo como la que nos ocupa.
Mientras que grupos de expertos, ingenieros e investigadores promovieran en su día un parón temporal en el desarrollo de la IA para encontrar una mínima regulación que evite su descontrol en el futuro, el mercado ha hecho todo lo contrario: acelerar las inversiones.
El resultado es: ‘Éstos son mis principios, y si no le gustan, tengo otros’. La frase célebre atribuida erróneamente a Groucho Marx es perfecta para el caso. Google rompe sus compromisos anteriores y da vía libre para el desarrollo de sus tecnologías de inteligencia artificial para armas.
La nueva sección que adorna sus nuevos principios de «desarrollo y despliegue responsables», en la que Google afirma que implementará «supervisión humana adecuada, debida diligencia y mecanismos de retroalimentación para alinearse con los objetivos de los usuarios, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos», son un eufemismo que no dicen absolutamente nada.
Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo y Google no se va a quedar fuera, aunque tenga que renegar de sus «principios». Y quien dice Google, dice Microsoft, OpenAI, Meta y todas las grandes tecnológicas, que no han dado ninguna respuesta a los «profundos riesgos para la sociedad y la humanidad» que plantea una IA descontrolada.
La entrada Google da vía libre al uso de inteligencia artificial para armas se publicó primero en MuyComputer.