Google ha publicado un conjunto de principios para guiar su trabajo en inteligencia artificial, cumpliendo la promesa de hacerlo el mes pasado tras la controversia sobre su participación en un proyecto de drones del Departamento de Defensa.

El documento, titulado “Inteligencia Artificial en Google: nuestros principios”, no hace referencia directa a este trabajo, pero deja en claro que la empresa no desarrollará IA para su uso en armamento.

También describe una serie de pautas generales para la inteligencia artificial, tocando cuestiones como el prejuicio, la privacidad y la supervisión humana.

Si bien los nuevos principios prohíben el desarrollo de armas de IA, afirman que Google continuará trabajando con los militares “en muchas otras áreas”.

Además de prohibir el desarrollo de IA para armas, los principios dicen que Google no trabajará en proyectos de vigilancia con inteligencia artificial que violen “normas aceptadas internacionalmente” o proyectos que contravengan “principios de derecho internacional y derechos humanos ampliamente aceptados”.

La compañía dice que sus principales enfoques para la investigación en IA deben ser “socialmente beneficiosos”.

Google se ha enfrentado a un escrutinio significativo sobre el uso de IA después de que su trabajo para el Departamento de Defensa fuera revelado en un informe de Gizmodo a principios de este año.

Miles de empleados firmaron una carta abierta instando a Google a cortar las relaciones con el programa, llamado Project Maven, y al menos una docena de empleados incluso renunciaron por la participación continua de la compañía.

Google dice que planea cumplir su contrato con el Pentágono, pero finalizará su participación en Project Maven cuando expire en 2019.

Una publicación del blog de la CEO de Google Cloud, Diane Greene, describió el trabajo simplemente como “identificación de objetos de baja resolución usando AI”.

Sin embargo, se informó que el trabajo fue, en parte, una prueba para que Google ganara un lucrativo contrato con el Pentágono, que se estima en un valor de $ 10 mil millones.

La decisión de Google de esbozar su postura ética sobre el desarrollo de la inteligencia artificial viene después de años de preocupación por la amenaza inminente planteada por los sistemas automatizados, así como de advertencias más sensacionales sobre el desarrollo de inteligencia artificial artificial o inteligencia artificial a nivel humano.