ChatGPT cada día evoluciona más gracias a la información que recibe de los seres humanos. Sin embargo, tener tanta información también puede ser un arma de doble filo, sobre todo para algo como una inteligencia artificial. Puesto que esta data podría utilizarse para ciberataques o filtraciones de datos confidenciales.
En una reciente entrevista del medio ABC News al CEO de ChatGPT, Sam Altman, se dio a conocer su preocupación respecto a su popular creación. Recordemos que la IA es capaz de crear diversos documentos complicados, crear ilustraciones e incluso mantener conversaciones como si fuera una persona real. En este sentido, el CEO teme que se utilice para realizar robos de contraseñas a través de conversaciones ficticias.
«Si pudiera decir que no me asusta, no deberías confiar en mí. Tenemos que tener cuidado aquí. Creo que la gente debería estar feliz de que estemos un poco asustados por esto».
Seguro que haremos correcciones al mismo tiempo que ocurren estos hechos negativos. Ahora que los riesgos son bajos, estamos aprendiendo lo más que podemos y estableciendo una constante retroalimentación para mejorar el sistema para evitar los escenarios más peligrosos».
Debido a que no hay limitaciones respecto al uso de ChatGPT, el propio creador recomienda poner condiciones éticas de uso en sus propias empresas. Recordemos que hace tan solo unas horas un bug de la inteligencia artificial mostró el historial de diversos usuarios a otros usuarios. Sin duda, pese a su uso rápido de información, todavía padece de grandes errores peligrosos con información ajena.