La carrera en la que están inmersos los grandes desarrolladores de inteligencia artificial se acelera cada día más, las empresas se pisan unos a otros lanzando anuncios en el mismo día. Ayer Google presentaba Gemini 1.5 Pro e Imagen 2.0; muy poco después, OpenAI anunciaba GPT-4 Turbo. No acaban aquí las sorpresas, OpenAI y Meta dejaban caer un órdago, prometen lanzar en breve nuevos modelos de inteligencia artificial (IA) que serán capaces de razonar y planificar.
El razonamiento y la planificación de las tareas es una de las pocas barreras que aún separan a las máquinas de las personas. Este paso es clave para lograr dotar a la tecnología de una cognición análoga o superior a la de los seres humanos. El futuro que muchos expertos han advertido como peligroso se presenta así, como si la inteligencia artificial general estuviera a la vuelta de la esquina.
Meta (matriz de Instagram, WhatsApp y Facebook) ha indicado que empezará a desplegar 'Llama 3' en las próximas semanas. Por su parte OpenAI, junto a su socio Microsoft, ha prometido que su próximo modelo, el 'GPT-5', que impulsaría ChatGPT, llegará "pronto".
Ambos anuncios se han conocido a través de un artículo de Financial Times. En él, Brad Lightcap, director de operaciones de OpenAI, ha señalado que la próxima generación de 'GPT' mostrará avances en la resolución de "problemas difíciles" como el razonamiento. Joëlle Pinau, vicepresidenta de investigación en IA de Meta, ha hecho una afirmación similar, indicando que su empresa está "trabajando duro para conseguir que estos modelos no solo hablen, sino que razonen, planifiquen... que tengan memoria".
Para Lightcap los actuales sistemas de IA son "realmente buenos en pequeñas tareas puntuales", pero sus capacidades siguen siendo "bastante limitadas". El futuro se presenta más complejo, según explica este directivo: "apenas estamos empezando a escarbar en la superficie de la capacidad que tienen estos modelos para razonar", ha añadido.
A mediados del año pasado, un informe de Microsoft ya alertaba de signos de razonamiento en una versión no censurada de GPT-4, haciendo saltar las alarmas por la posible cercanía de una posible superinteligencia. Sin embargo, diferentes expertos rechazaron la idea. Especialistas en inteligencia artificial explicaron que estas conclusiones pueden ser un espejismo, al estar ante un sistema o máquina compleja cuyo funcionamiento es difícil de comprender, es posible que las personas la antropomorficen, tanto expertos como usuarios sin conocimientos sobre el tema.
En diciembre, se argumentó que el turbulento despido de Sam Altman se debía al avance de OpenAI que amenazaba a la humanidad. Esta tecnología ha estado siempre rodeada de rumores como este, pero las empresas siempre se han apresurado a desmentirlo o no han querido hacer declaraciones al respecto. Ahora, sin embargo, lo anuncian públicamente.
Como ocurre con la mayoría de versiones y novedades presentadas en los últimos meses, será el público, sus usuarios y demás desarrolladores y académicos, quienes determinen si los avances prometidos cumplen con lo que proporciona cada modelo generativo y si supone un peligro para las sociedad, una herramienta útil para la productividad o ambas a la vez.