OpenAI quiere prevenir la superinteligencia con «superalineación»

Desde la popularidad y los riesgos de ChatGPT, OpenAI ha tomado cartas en el asunto. Puesto que esto ha llevado a que algunos países consideren regular su inteligencia artificial. Por este motivo, la compañía está planteando una solución para prevenir ciertos peligros.

En un reciente post en el blog de OpenAI, la empresa plantea una nueva estrategia llamada «superalineación».

«Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros. Para resolver este problema dentro de cuatro años, estamos formando un nuevo equipo, codirigido por Ilya Sutskever y Jan Leike, y dedicando el 20 % de la computación que hemos obtenido hasta la fecha a este esfuerzo. Estamos buscando excelentes investigadores e ingenieros de ML para que se unan a nosotros».

OpenAI

El objetivo detrás de esta nueva estrategia es poder controlar los sistemas de inteligencia artificial más inteligentes que el ser humano. De esta forma, se quiere prevenir cualquier acto de rebeldía por parte de la IA. Debido a esto, OpenAI plantea hacer un entrenamiento en tareas difíciles de evaluar por los humanos, asistida por IA. Según lo planeado, se espera que esta estrategia se aplique en el 2027.