Google habla de armas con Inteligencia Artificial

Google ha lanzado una serie de principios para guiar su trabajo en Inteligencia Artificial.

Esto es para cumplir su promesa de hacerlo el mes pasado debido a una controversia sobre su involucración en un proyecto de dron con el Departamento de Defensa de Estados Unidos.

El documento, titulado «Inteligencia Artificial en Google: nuestros principios», no hace referencia este trabajo.

Sin embargo, si deja bastante en claro que la empresa no va a desarrollar IA para ser utilizada en armas. Además, especifica una serie de amplias reglas para la Inteligencia Artificial.

En estas, hablan de cosas como la parcialidad, privacidad, y la inadvertencia humana.

Mientras que los nuevos principios prohíben el desarrollo de armamento con IA, estos dicen que Google continuará trabajando con la fuerza militar estadounidense «en muchas otras áreas».

Un representante de Google dijo que si estos principios hubiesen sido publicados antes, la empresa probablemente no habría colaborado con el proyecto dron del Pentágono.

Este dron utilizaba Inteligencia Artificial para analizar grabaciones de seguridad. Aunque esta aplicación fue para «propósitos no ofensivos», el representante mencionó que este estuvo en el borde de lo aceptable. Esto sugeriría que Google va a ser más cuidadoso con los proyectos militares futuros.

Además de prohibir el desarrollo de IA para armas, los principios también mencionan otros detalles.

Entre ellos, que Google no trabajará en proyectos que violen «normas internacionalmente aceptadas», o proyectos que contravengan «principios ampliamente aceptados de ley internacional y derechos humanos.»

La compañía dice que sus enfoques principales para la investigación de IA deberán ser «beneficiosos para la sociedad».

Esto significaría evitar un sesgo injusto; mantenerse responsable ante los humanos y sujeto a control humano; defender «altos estándares de excelencia científica», e incorporar salvaguardas de privacidad.

La decisión de especificar su posición ética frente al desarrollo de IA tiene sentido.

Esta viene de varios años de preocupación frente al peligro inminente que traen los sistemas automatizados, además de advertencias más sensacionales sobre el desarrollo de inteligencia artificial general, o IA con inteligencia del nivel de un humano.

Tan sólo el mes pasado, una coalición de grupos de tecnología y derechos humanos se juntaron para crear un documento titulado «La Declaración de Toronto».

Esta llama a los gobiernos y compañías tecnológicas a asegurarse que la IA respete los principios básicos de igualdad y no discriminación.

Hoy en día, las empresas están comenzando a colocar muchos más recursos en el desarrollo de seguridad de IA, con ayuda de organizaciones enfocadas en la ética como Open AI y otros grupos de investigación alrededor del mundo.

Vía Google