Chatbots personalizados de OpenAI están filtrando sus secretos
Recientemente, OpenAI anunció los nuevos chatbots personalizados que ChatGPT tendría. Sin embargo, lo que no se esperaban es que estén filtrando información de la empresa.
A principios de noviembre, OpenAI dio la opción a los usuarios de pago de crear su propia versión de ChatPT conocido como GPT. Es así como se han creado diversos personajes que van desde un profesor, consejero hasta un personaje ficticio. Bueno, al parecer no ha habido una limitación de estas IA, ya que diversos investigadores de seguridad y tecnólogos han hecho que estos GPT revelen las instrucciones iniciales que recibieron cuando fueron creados. Por este motivo, se cree que la información personal o datos de propiedad de las personas estén en riesgo. Jiahao Yu, investigador en informática de la Universidad Northwestern, menciona:
«Las preocupaciones sobre la privacidad derivadas de la filtración de archivos deben tomarse en serio. Incluso si no contienen información confidencial, pueden contener algún conocimiento que el diseñador no quiera compartir con otros, y [que sirve] como la parte central del GPT personalizado».
Y es que tanto Yu como otros investigadores probaron más de 200 GPT personalizados y descubrieron lo sencillo que puede ser revelar información de ellos. A través de jailbreak o desbloqueo de limitaciones se pudo decir a los GPT que se comporten de una manera que se les ha dicho que no lo hagan. Hasta el momento OpenAI no se ha pronunciado, pero cuando presentó estas nuevas funciones mencionó que seguirán monitoreando y aprendiendo cómo las personas usan los GPT y que fortalecerán su seguridad.