Desde la aparición de ChatGPT muchas personas lo han usado por curiosidad y saber qué tan bueno puede ser. Debido a que lo que está de moda o puede brindar información y crear documentos, códigos y más cosas de texto. Sin embargo, hay algo que se ha ido notando con el tiempo que ya no es del agrado de las empresas…
Hace tan solo unos meses atrás, un usuario en Twitter engañó a ChatGPT Bing y le pidió información confidencial sobre su nombre código y sus comportamientos. De esta manera, puso las capturas de pantalla de todo lo que había conseguido, que solo tenía la compañía. Sin duda, esto alertó a Microsoft porque se dio cuenta que podría filtrar más información confidencial. Por este motivo, Cyberhaven, servicio de seguridad de datos, detectó y bloqueó las solicitudes de ingresar datos confidenciales a ChatGPT del 4,2% de los 1,6 millones de trabajadores de sus empresas clientes. Puesto, que muchos de estos utilizan la IA para hacer, por ejemplo, una presentación en PowerPoint sobre un plan estratégico del 2023 brindándole los datos de la compañía actuales o incluso escribir un borrador de una carta con los datos de un paciente para la compañía de seguros del cliente.
Por esta razón, para los expertos sería un peligro real el proporcionar datos personales o de trabajo a la IA. Además, se presume que esto podría seguir yendo en aumento. Las empresas ya están comenzando a restringir el uso de ChatGPT y por si fuera poco Amazon, Walmart y el mismo Microsoft advierten tener cuidado al usar la IA.
Fuente: Dark Reading