La inteligencia artificial utiliza un modelo de lenguaje para entrenar con diversa información proporcionada y a partir de esta la IA comienza a aprender más cosas. Sin embargo, un reciente estudio entrenó a una IA partiendo de videos que se grabaron desde la perspectiva de un bebé.
De esta manera, la inteligencia artificial puede aprender de forma más «natural» el comportamiento humano a través de los ojos de un bebé. Dicho estudio fue llevado a cabo por Wai Keen Vong de la Universidad de Nueva York. Lo increíble es que la IA logró identificar ciertos objetos como cuna y pelota. Como se sabe, otras IA de compañías como OpenAI aprenden a través de un billón de datos en cuestión de segundos. Sin embargo, un humano no nace sabiendo cosas o con acceso a Internet. Por este motivo, se entrenó a la IA con 61 horas de grabación que registraron 250,000 palabras e imágenes.
Gracias a este estudio pueden surgir otros respecto al conocimiento innato sobre el funcionamiento del lenguaje, como el de atribuir significado a las palabras e incluso el reconocimiento de imágenes. Es así, cómo incluso esta inteligencia artificial podría entender de mejor manera la complejidad del aprendizaje de un humano real.