Twitter prueba función para identificar imágenes falsas hechas por IA
Durante los últimos meses, Twitter ha sido el protagonista de diversas imágenes virales falsas que fueron hechas por inteligencia artificial. Este hecho llevó a distintas polémicas, ya que muchas personas comenzaron a creer en estas por lo realista que se veían. Algunos de estos casos, fueron el arresto de Donald Trump y el Papa Francisco rapero o a la moda. Debido a esto, la red social estaría tomando ciertas medidas.
De esta manera, Twitter está probando una nueva función similar a sus Community Notes para identificar imágenes falsas virales creadas con inteligencia artificial. Como se sabe, los Community Notes sirven para que los usuarios puedan añadir más información sobre un contenido que puede considerarse falso. Así, con la nueva función, cada vez que los usuarios vean una imagen, podrán especificar, si en efecto, es una imagen falsa con IA o no. Si el usuario elige que es una imagen creada con IA, habrá una advertencia en todos los tweets donde se publique esta imagen. Gracias a esto, se pararía la propagación de información falsa.
From AI-generated images to manipulated videos, it’s common to come across misleading media. Today we’re piloting a feature that puts a superpower into contributors’ hands: Notes on Media
Notes attached to an image will automatically appear on recent & future matching images. pic.twitter.com/89mxYU2Kir
— Community Notes (@CommunityNotes) May 30, 2023
Esta función está en fase de prueba y no se sabe cuándo estaría habilitada en Twitter. Sin embargo, esta información está llegando luego que se publicaran unas imágenes sobre una supuesta explosión en el Pentágono.