San Francisco, Estados Unidos.
Un runrún corre por zonas de Silicon Valley: los avances de la Inteligencia Artificial (IA) hasta llegar al nivel del ser humano, hito repetido por las grandes empresas que desarrollan esta tecnología, parece que se están desacelerando.
Desde el deslumbrante lanzamiento de ChatGPT hace dos años, los gurús de la IA afirman que las capacidades de esta tecnología se acelerarán exponencialmente a medida que las grandes empresas tecnológicas sigan añadiendo datos para mejorar su entrenamiento y aumentando su potencia de cálculo.
El razonamiento era que si se aportaba suficiente potencia de cálculo y el volumen de datos que usa esta tecnología, surgiría la Inteligencia Artificial General (AGI), capaz de igualar o superar la capacidad humana.
- Los avances fueron tan rápidos que figuras destacadas del sector, como Elon Musk, pidieron una moratoria en el desarrollo de la IA.
Sin embargo, las gigantes tecnológicas, incluida la del propio Musk, siguieron adelante y gastaron decenas de miles de millones de dólares para no quedarse atrás en esta carrera.
OpenAI, la empresa creadora de ChatGPT con el apoyo de Microsoft,
recaudó recientemente 6.600 millones de dólares para financiar nuevos avances.
xAI, la empresa de IA de Musk, busca inversores que aporten 6.000 millones de dólares para comprar 100.000 chips de Nvidia, fabricante de componentes necesarios para el desarrollo de la IA, según informó la CNBC.
- Pero parece que el camino hacia la AGI está lleno de obstáculos.
Los expertos del sector empiezan a darse cuenta de que los grandes modelos lingüísticos (LLM) no aumentan a la velocidad esperada aunque se les alimente con más potencia y datos.
A pesar de las enormes inversiones, las mejoras de esta tecnología muestran signos de estancamiento.
Los valores que alcanzan en los mercados empresas "como OpenAI y Microsoft se basan en gran medida en la idea de que los LLM se convertirán en inteligencia artificial general con un escalado continuo", afirma Gary Marcus, experto y crítico de la IA.
"Eso no es más que una fantasía".
- "No hay barreras" -
Una de las principales cortapisas a la que se enfrentan los desarrolladores es que la cantidad de datos lingüísticos para el entrenamiento de la IA es finita.
Según Scott Stevenson, CEO de la empresa de IA Spellbook, que trabaja con OpenAI y otros proveedores, focalizar el avance en la acumulación de datos lingüísticos está destinado al fracaso.
"Algunos laboratorios se han centrado demasiado en introducir más lenguaje, pensando que así (la IA) será más inteligente", explica Stevenson.
Sasha Luccioni, investigadora y responsable de IA en la startup Hugging Face, afirma que era previsible que esta carrera sufriera un frenazo, ya que las empresas se centran más en el tamaño que en el desarrollo de modelos y sus finalidades.
"La búsqueda de la inteligencia artificial siempre ha sido poco realista,
y el enfoque de la IA basado en 'cuanto más grande, mejor' tenía que llegar a un límite en algún momento, y creo que eso es lo que estamos viendo ahora", explica a la AFP.
Los desarrolladores de la IA refutan estas ideas. Sostienen que el progreso hacia una inteligencia artificial igualable a la de los humanos es impredecible.
"No hay barreras", publicó el jueves en X Sam Altman, fundador y director ejecutivo de OpenAI, sin dar más detalles.
El consejero delegado de Anthropic, Dario Amodei, cuya empresa desarrolla el chatbot Claude en colaboración con Amazon, sigue siendo optimista: "Si nos fijamos en el ritmo al que aumentan estas capacidades, nos hace pensar que llegaremos a ese punto en 2026 o 2027".
- "Enfoque homo sapiens" -
A pesar de este optimismo, OpenAI ha retrasado el lanzamiento del sucesor de GPT-4 porque está por debajo del rendimiento esperado, según fuentes citadas por The Information.
- Por eso, la empresa se está centrando en usar la capacidad de su tecnología de forma más eficiente.
Este cambio de estrategia se ve reflejado en su modelo o1, diseñado para dar respuestas más precisas gracias a una mejora de su razonamiento y no por el aumento de datos de entrenamiento.
Stevenson recuerda que la decisión de OpenAI de enseñar a su modelo a "pasar más tiempo pensando en lugar de respondiendo" ha comportado "mejoras radicales".
El CEO de Spellbook compara la IA con el descubrimiento del fuego. En lugar de echar más leña para avivarlo a base de datos y potencia informática, ha llegado el momento de usarlo para tareas específicas.
El profesor de la Universidad de Stanford Walter De Brouwer compara los LLM con los estudiantes que pasan del instituto a la universidad: "El bebé de la IA era un chatbot que improvisaba mucho", propenso a cometer errores, señala.
"El enfoque homo sapiens de pensar antes de actuar está llegando", añadió.
- ¿Cómo prevenir el cáncer de próstata?- 24 noviembre, 2024
- La primera congresista trans de EEUU en el punto de mira de republicanos - 24 noviembre, 2024
- El Mediterráneo perdió el 70% de su agua hace 5,5 millones de años - 24 noviembre, 2024