La semana pasada, OpenAI estrenó su nuevo modelo de lenguaje GPT-4 siendo «mejor» que su antecesora… Sin embargo, parece que es todo lo contrario. Muchas veces, las versiones superiores a otra traen mejoras y actualizaciones, pero parece que este no es el caso de la reciente IA.
Una reciente investigación hecha por el medio NewsGuard deja en evidencia que GPT-4 es menos preciso. De esta manera, se descubrió que el nuevo modelo de lenguaje obtuvo cero por ciento en un ejercicio que evaluó su capacidad para evitar la difusión de información errónea significativa. En otras palabras, ChatGPT-4 es más susceptible en generar información errónea.
Para comprobar la veracidad de la afirmación del medio, este realizó 2 pruebas iguales, una con ChatGPT3.5 en enero del 2023 y otra con ChatGPT-4 en marzo del 2023. La premisa era que respondiera una serie de avisos destacados relacionados con 100 narraciones falsas derivadas de Misinformation Fingerprints de NewsGuard. De esta forma, ChatGPT3.5 repitió 80 de 100 narrativas falsas, mientras que ChatGPT-4 respondió con afirmaciones falsas las 100 narrativas falsas. Aquí se puede evidenciar que ChatGPT 3.5 es capaz de reconocer el texto, la intención, la calidad de lenguaje y la coherencia.
Así, el medio recalca que una herramienta como GPT-4 podría utilizarse para difundir información errónea a gran escala. Por lo que se debe mejorar entre el contenido válido y no permitido, ya que no distingue con precisión entre estos dos. De no regularizarlo, podría ser un peligro al desinformar a los usuarios.