ChatGPT: Estudiante engaña a la IA en Bing para obtener documentos internos de Microsoft  

ChatGPT ha abierto la caja de pandora con un mundo de posibilidades que la gran mayoría de personas jamás se hubiera imaginado. El potencial de esta inteligencia artificial es inmenso y promete revolucionar la industria. Actualmente, ya existe una carrera por la implementación masiva de esta tecnología entre Google y Microsoft, en la cual la compañía de Satya Nadella se encuentra en la delantera.  

La semana pasada los chicos de Redmond presentaron al mundo la integración de ChatGPT en Bing Search en una conferencia que sorprendió a todos. En ese momento, Microsoft confirmó que ya pueden probar está nueva característica, a diferencia de Google, sin embargo, tenían que entrar en una lista de espera. Es por esto por lo que ya algunos usuarios han tenido acceso a esta nueva versión para probar las capacidades que puede ofrecer la inteligencia artificial a la navegación por internet.  

Lo que no se esperaba es que uno de estos engañará a la inteligencia artificial para obtener documentos internos que detallan las capacidades de Bing Search y sus limitantes. Se ha realizado un ataque de inyección de prompt, que consiste en engañar a una inteligencia artificial introduciendo un input malicioso o contradictorio con el fin de realizar una tarea que no forma parte de su objetivo principal.  

El estudiante Kevin Liu de la Universidad de Stanford descubrió bque el nombre clave “Sidney” era el referente a ChatGPT en Bing. Con esta información se logró obtener un documento interno con todas las directrices que Microsoft le ha dado a la IA para instruirla al momento de dar respuesta al usuario. Adicionalmente, se busca no perjudicar al usuario de ninguna forma.  

Curiosamente, si existen directivas para evitar la filtración de contenidos internos, algo que no parece haber funcionado ya que Liu logró saltearlos obteniendo los puntos clave de cómo funciona Sidney. Se publicó todos sus secretos en su cuenta personal de Twitter con múltiples capturas. Gracias a esto se ha conseguido información del número de idiomas que admite, instrucciones de su comportamiento y otros más detalles.  

Pero esto no ha sido el único caso, el estudiante Marvin von Hagen también logró engañar a la IA haciendo pasar por un desarrollador de OpenAI. De momento Microsoft no ha declarado sobre este suceso, ni tampoco baneado a los implicados.