Los laboratorios de IA se apresuran a construir centros de datos tan grande como Manhattan, cada uno cuesta miles de millones de dólares y consume tanta energía como una ciudad pequeña. El esfuerzo está impulsado por una profunda creencia en el “escalamiento”: la idea de que agregar más potencia informática a los métodos de entrenamiento de IA existentes eventualmente producirá sistemas superinteligentes capaces de realizar todo tipo de tareas.
Pero un coro cada vez mayor de investigadores de IA dice que la ampliación de grandes modelos lingüísticos puede estar llegando a sus límites y que es posible que se necesiten otros avances para mejorar el rendimiento de la IA.
Esa es la apuesta que Sara Hooker, ex vicepresidenta de investigación de IA de Cohere y exalumna de Google Brain, está haciendo con su nueva startup. Laboratorios de adaptación. Cofundó la empresa con su colega Cohere y el veterano de Google Sudip Roy, y se basa en la idea de que ampliar los LLM se ha convertido en una forma ineficiente de exprimir más rendimiento de los modelos de IA. Hooker, que dejó Cohere en agosto, anunciado en voz baja la startup este mes para comenzar a reclutar de manera más amplia.
En una entrevista con TechCrunch, Hooker dice que Adaption Labs está construyendo sistemas de inteligencia artificial que pueden adaptarse y aprender continuamente de sus experiencias del mundo real, y hacerlo de manera extremadamente eficiente. Se negó a compartir detalles sobre los métodos detrás de este enfoque o si la empresa depende de LLM u otra arquitectura.
“Ahora hay un punto de inflexión en el que está muy claro que la fórmula de simplemente escalar estos modelos (enfoques de escalamiento, que son atractivos pero extremadamente aburridos) no ha producido inteligencia que sea capaz de navegar o interactuar con el mundo”, dijo Hooker.
La adaptación es el “corazón del aprendizaje”, según Hooker. Por ejemplo, si te golpeas el dedo del pie al pasar por la mesa del comedor, la próxima vez aprenderás a caminar con más cuidado alrededor de ella. Los laboratorios de IA han intentado capturar esta idea mediante el aprendizaje por refuerzo (RL), que permite a los modelos de IA aprender de sus errores en entornos controlados. Sin embargo, los métodos de RL actuales no ayudan a los modelos de IA en producción (es decir, a los sistemas que los clientes ya utilizan) a aprender de sus errores en tiempo real. Siguen golpeándose el dedo del pie.
Algunos laboratorios de IA ofrecen servicios de consultoría para ayudar a las empresas a ajustar sus modelos de IA a sus necesidades personalizadas, pero esto tiene un precio. Según se informa, OpenAI requiere que los clientes gastar más de 10 millones de dólares con la empresa para ofrecer sus servicios de consultoría en puesta a punto.
Evento tecnológico
san francisco
|
27-29 de octubre de 2025
“Tenemos un puñado de laboratorios de vanguardia que determinan este conjunto de modelos de IA que se sirven de la misma manera para todos, y su adaptación es muy costosa”, dijo Hooker. “Y, de hecho, creo que eso ya no tiene por qué ser cierto, y los sistemas de IA pueden aprender muy eficientemente de un entorno. Demostrar eso cambiará por completo la dinámica de quién controla y da forma a la IA y, realmente, a quién sirven estos modelos al final del día”.
Adaption Labs es la última señal de que la fe de la industria en ampliar los LLM está flaqueando. Un artículo reciente de investigadores del MIT encontró que los modelos de IA más grandes del mundo pronto podrían mostrar rendimientos decrecientes. Las vibraciones en San Francisco también parecen estar cambiando. El podcaster favorito del mundo de la IA, Dwarkesh Patel, recientemente organizó algunas conversaciones inusualmente escépticas con famosos investigadores de IA.
Richard Sutton, ganador del premio Turing y considerado “el padre de la RL”, le dijo a Patel en septiembre que Los LLM realmente no pueden escalar porque no aprenden de la experiencia del mundo real. Este mes, Andrej Karpathy, uno de los primeros empleados de OpenAI, le dijo a Patel que tenía reservas sobre el potencial a largo plazo de RL para mejorar los modelos de IA.
Este tipo de miedos no tienen precedentes. A finales de 2024, algunos investigadores de IA expresaron su preocupación de que la ampliación de los modelos de IA mediante un entrenamiento previo (en el que los modelos de IA aprenden patrones de un montón de conjuntos de datos) estaba generando rendimientos decrecientes. Hasta entonces, el entrenamiento previo había sido el ingrediente secreto para que OpenAI y Google mejoraran sus modelos.
Esas preocupaciones sobre la escala previa al entrenamiento ahora están apareciendo en los datos, pero la industria de la IA ha encontrado otras formas de mejorar los modelos. En 2025, los avances en torno a los modelos de razonamiento de IA, que requieren tiempo y recursos computacionales adicionales para resolver los problemas antes de responder, han impulsado aún más las capacidades de los modelos de IA.
Los laboratorios de IA parecen estar convencidos de que la ampliación de los modelos de razonamiento de IA y RL es la nueva frontera. Los investigadores de OpenAI le dijeron anteriormente a TechCrunch que desarrollaron su primer modelo de razonamiento de IA, o1, porque pensaron que se ampliaría bien. Investigadores de Meta y Periodic Labs recientemente publicó un documento explorando cómo RL podría escalar aún más el rendimiento: un estudio que, según se informa, costó más de 4 millones de dólares, lo que pone de relieve lo costosos que siguen siendo los enfoques actuales.
Adaptation Labs, por el contrario, pretende encontrar el próximo avance y demostrar que aprender de la experiencia puede ser mucho más barato. La startup estaba en conversaciones para recaudar una ronda inicial de entre 20 y 40 millones de dólares a principios de este otoño, según tres inversores que revisaron sus presentaciones. Dicen que la ronda ya se cerró, aunque el monto final no está claro. Hooker se negó a hacer comentarios.
“Estamos preparados para ser muy ambiciosos”, dijo Hooker cuando se le preguntó sobre sus inversores.
Hooker dirigió anteriormente Cohere Labs, donde entrenó pequeños modelos de IA para casos de uso empresarial. Los sistemas compactos de IA ahora superan rutinariamente a sus contrapartes más grandes en puntos de referencia de codificación, matemáticas y razonamiento, una tendencia que Hooker quiere seguir impulsando.
También se ganó la reputación de ampliar el acceso a la investigación de IA a nivel mundial, contratando talentos de investigación de regiones subrepresentadas como África. Si bien Adaption Labs abrirá pronto una oficina en San Francisco, Hooker dice que planea contratar en todo el mundo.
Si Hooker y Adaption Labs tienen razón sobre las limitaciones del escalamiento, las implicaciones podrían ser enormes. Ya se han invertido miles de millones en ampliar los LLM, con el supuesto de que modelos más grandes conducirán a una inteligencia general. Pero es posible que el verdadero aprendizaje adaptativo resulte no sólo más poderoso, sino mucho más eficiente.
Marina Temkin contribuyó con el reportaje.






