DALL-E 3 podría ser retirado del mercado por ser un riesgo para la seguridad pública, por caso Taylor Swift
Sin duda, las imágenes deepfakes explícitas de Taylor Swift generadas por la inteligencia artificial DALL-E 3 ha sido tan peligroso que ha llegado a la Casa Blanca. Puesto que esto podría significar un riesgo para la seguridad pública. Ahora se ha descubierto que Microsoft y OpenAI habrían ignorado ciertas medidas de seguridad que podrían haber evitado dicho problema.
Shane Jones, líder del departamento de IA de Microsoft, menciona que descubrió en diciembre del año pasado que DALL-E 3 cuenta con ciertas vulnerabilidades que permite la creación de imágenes sexuales explícitas y violentas. Así como sucedió con las imágenes de Taylor Swift que se viralizaron en X. De esta manera, Jones quiso informar sobre este problema de forma pública, pero el equipo legal de la compañía lo detuvo. Ante esto, y con el fin de desligarse ante una responsabilidad directa, publicó el informe en LinkedIn. Sin embargo, con el reciente caso de la famosa cantante mandó una carta al Capitolio dirigida a varios senadores diciendo:
«DALL-E 3 representaba un riesgo para la seguridad pública y debería retirarse del uso público. Al menos, hasta que OpenAI pudiera abordar los riesgos asociados con este modelo. Y Microsoft era consciente de estas vulnerabilidades y del potencial de abuso».
Microsoft responde ante problemas de vulnerabilidad de DALL-E 3
Ante esto, la compañía mencionó que el informe de Jones era sobre un producto de OpenAI, por lo que le dijeron que lo informe mediante canales de informes estándar de OpenAI. Es así cómo uno de los líderes senior de producto sí compartió esta información con OpenAI, quien investigó el asunto de forma inmediata.
La respuesta de Microsoft es indicativa de por qué me comuniqué con mis representantes y abogo por una solución de informes eficaz e independiente. Utilicé el proceso de informes internos de Microsoft. El 1 de diciembre de 2023, cuando informé de esta vulnerabilidad a mi equipo de liderazgo, se me indicó que también informara el problema a nuestro sistema interno de incidentes de seguridad Report It Now. Informé el problema y ese mismo día recibí la siguiente respuesta, que compartí con mi equipo de liderazgo: “Monitoreamos Microsoft corpnet y las cuentas de usuario de Microsoft para detectar amenazas a la seguridad cibernética. Este informe no parece afectar nada de lo anterior. Le sugiero que envíe sus comentarios a través del sitio web Open AI. Estoy procediendo con el cierre del caso.
Además, hasta las 5:00 p. m. de hoy (martes 30 de enero), Microsoft todavía no se ha puesto en contacto conmigo para discutir mis inquietudes o recomendaciones de seguridad de la IA».
Finalmente, Jones pide al gobierno que se cree un sistema para informar y rastrear posibles riesgos y problemas de la inteligencia artificial.
Fuente: GeekWire