OpenAI toma medida para las «alucinaciones» de ChatGPT

A lo largo del desarrollo de ChatGPT, OpenAI ha encontrado ciertos defectos que la inteligencia artificial estaría teniendo. Uno de estos son las llamadas «alucinaciones», es decir, aquella información que ChatGPT crea de la nada y se lo da al usuario como verídicas. De esta manera, la IA de la empresa causa desinformación a todo aquel que crea en esta información inexistente.

Dicho hecho está siendo una preocupación para OpenAI, ya que millones y millones de personas usan a diario ChatGPT. Por este motivo, se estaría creando una nueva estrategia bajo el concepto de «supervisión de proceso». De esta forma, se plantea que las IA se entrene para recompensarse a sí mismas por cada paso correcto sobre razonamiento hacia una respuesta. Así se plantea que la IA tenga un «pensamiento» más similar al humano. Los investigadores de la compañía piensan que la detección y mitigación de errores lógicos de este tipo de modelos inteligentes es un paso más para que las IA estén alineadas con los valores humanos. Sin embargo, pese a que la estrategia puede resultar interesante, algunos expertos mencionan que igual sería necesario una revisión minuciosa.

ChatGPT

Además, Microsoft es su principal inversor, así que hay que hacer ajustes para no perder la confianza de dicha compañía. Puesto que la empresa ya ha invertido más de $13 mil millones de dólares, lo que eleva el valor de la compañía a $29 mil millones. Por este motivo, OpenAI debería mejorar su producto para no generar imprevistos con sus inversores y consumidores.