OpenAI ha decidido deshacer su equipo de riesgos de IA

En octubre del año pasado, OpenAI anunció la creación de su nuevo equipo de riesgos para evaluar los potenciales peligros de la inteligencia artificial. Bueno, ahora la compañía ha anunciado la desintegración de este grupo.

Con el avance continuo y rápido de la IA, OpenAI creó un grupo enfocado en buscar avances científicos y técnicos para controlar sistemas de IA más avanzados que la capacidad humana. De esta manera, el 20% del poder computacional de la compañía estaría dedicada a esta iniciativa por 4 años. Sin embargo, ahora sabemos que no será así. Y es que este cambio se debería a la reciente salida de Ilya Sutskever y Jan Leike, puesto que Leike mencionó sobre las prácticas y cultura de seguridad de la compañía, que estaban destinadas a productos más atractivos y comerciales.

OpenAI

Como hemos visto, OpenAI ahora está enfocado en el lado comercial de GPT-4o y otros productos avanzados. Muy poco se ha mostrado sobre el lado de seguridad del nuevo ChatGPT. Sin duda, se necesita mayor control sobre la inteligencia artificial, puesto que muchos temen que a la larga se convierta en una herramienta que tenga conciencia propia.