OpenAI cambia su política y permitirá el uso de su IA en el sector militar

En un principio, OpenAI tenía una prohibición para usar su tecnología en el sector militar. Sin embargo, durante la semana pasada, la compañía eliminó silenciosamente esta actualización.

El Pentágono ha estado muy interesado en usar la tecnología de la empresa líder en inteligencia artificialEs así cómo OpenAI modificó esta prohibición el pasado 11 de enero, pasando de la prohibición de «actividades que conllevan un alto riesgo de daño físico, como el desarrollo de armas y militares bélicos» a «no usar nuestro servicio para dañarse a usted mismo o a otros, así como desarrollar o usar armas». De esta manera, ha desaparecido el apartado que mencionaba «uso militar y bélico». El portavoz de la compañía IA, Niko Felix, mencionó por correo electrónico al medio The Intercept lo siguiente:

«Nuestro objetivo era crear un conjunto de principios universales que fueran fáciles de recordar y aplicar. Puesto que, nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir GPT. Un principio como ‘No dañar a los demás’ es amplio pero fácil de entender y relevante en numerosos contextos. Además, citamos específicamente las armas y las lesiones a otros como ejemplos claros”.

OpenAI

La experta en ciberseguridad en aprendizaje automático y seguridad de sistemas autónomos de Trails of Bits, Heidy Khlaaf mencionó que hay una clara diferencia entre las dos políticas, ya que la primera describe claramente que el desarrollo de armas y el ejército y la guerra no están permitidos, mientras que la segunda enfatiza la flexibilidad y el cumplimiento de la ley. Y si bien, en la actualidad, lo que ofrece OpenAI no podría usarse para matar directamente a una persona, tanto el Pentágono como diversos ejércitos están interesados en la IA para impulsar sus sistemas y así eliminar a sus enemigos.