La nueva era de la IA: ¿y si pensar fuera la clave?

La nueva era de la IA: ¿y si pensar fuera la clave?

La nueva era de la IA: ¿y si pensar fuera la clave?

Hemos visto recientemente un vídeo muy interesante de Gustavo Entrala, titulado “El experimento que ha hecho imparable la IA”. Nos ha parecido especialmente relevante, y por eso hemos querido compartir en este artículo de forma resumida sus ideas principales.

Te dejamos a continuación el video, que sin duda merece la pena ver:

En apenas unos meses, el mundo de la inteligencia artificial ha dado un giro radical. Tras años de alimentar modelos con cantidades ingentes de texto, las grandes tecnológicas han tocado techo. A pesar de contar con más datos, más chips y más dinero, los modelos como ChatGPT o Gemini parecían estancados. ¿Qué había fallado? ¿Cómo se puede avanzar cuando ya se ha aprendido “todo”?

El muro invisible: más datos, pero sin progreso

A mediados de 2024, los laboratorios de IA se enfrentaban a dos grandes problemas:

  1. Los modelos ya no mejoraban con más entrenamiento.
  2. Se estaban quedando sin datos. Literalmente, las IAs habían devorado todo el contenido público disponible en Internet.

La vieja fórmula “más datos = más inteligencia” había dejado de funcionar. Era hora de un nuevo enfoque.

El factor humano: aprender a pensar

El punto de inflexión llegó desde un lugar inesperado: el póker profesional. Noam Brown, investigador de OpenAI, había trabajado años antes en Libratus, una IA diseñada para jugar al póker. En su primer intento, perdió estrepitosamente frente a humanos, a pesar de haber jugado billones de manos simuladas. ¿La clave del fracaso? No sabía pararse a pensar.

La nueva era de la IA 2

Inspirado por el psicólogo Daniel Kahneman y su teoría de los dos sistemas de pensamiento (rápido e intuitivo vs. lento y deliberado), Brown implementó una simple pausa de 20 segundos en su IA. El resultado fue tan potente como multiplicar por 100.000 su capacidad de cálculo. Así nacieron los primeros modelos de razonamiento, capaces no solo de predecir, sino de reflexionar.

De “adivinar la siguiente palabra” a “resolver paso a paso”

Los nuevos RLMs (Reasoning Language Models) incorporan algo revolucionario: se toman su tiempo, analizan opciones, se corrigen a sí mismos. Ya no responden en automático, sino que descomponen problemas y construyen una lógica interna antes de contestar. Es como pasar de un alumno que memoriza a otro que razona.

Este cambio dio lugar a una explosión de innovación. Desde diciembre de 2024, aparecen nuevos modelos casi semanalmente, todos más inteligentes que los anteriores. Y todos comparten una característica: piensan antes de hablar.

DeepSeek R1: el terremoto chino

La disrupción llegó de China. DeepSeek R1, un modelo de código abierto que razona, se lanzó al mundo sin restricciones. Tan potente como los mejores modelos americanos, pero gratuito. Su éxito se disparó. Empresas de todo el mundo empezaron a integrarlo en sus sistemas. Incluso gigantes chinos como Alibaba o ByteDance lo adoptaron como base.

¿Su secreto? Técnicas de destilación: aprender de otros modelos existentes como si fueran maestros. ¿Polémico? Sí. ¿Efectivo? Increíblemente.

Datos sintéticos y creatividad artificial

Con los datos humanos agotados, los laboratorios comenzaron a generar contenido sintético: simulaciones de coches, pacientes imaginarios, código ficticio. Al principio, eran repeticiones mediocres. Hoy, ya hay dominios donde los datos sintéticos superan en calidad a los reales, como en matemáticas o programación.

¿Estamos cerca de la superinteligencia?

Modelos como o3 de OpenAI o Gemini 2.5 Pro de Google ya son considerados por algunos expertos como proto-superinteligencias. Resuelven tareas complejas con un nivel que intimida incluso a los propios usuarios. Aún no dominan todo, pero están muy cerca de hacerlo en ámbitos especializados.

Los laboratorios incluso han creado un examen imposible para humanos, el Human Last Eval, con el objetivo de encontrar al primer modelo que lo apruebe. ¿Cuándo ocurrirá? Algunos apuestan por finales de 2025.

El precio de pensar (y no pensar)

Estas nuevas IAs son más lentas y consumen más recursos en cada respuesta. Paradójicamente, eso ha tranquilizado a NVIDIA, ya que su demanda de chips sigue disparada. Pero plantea un dilema humano: si las máquinas piensan por nosotros, ¿dejarán de hacerlo nuestras mentes?

Ya lo vimos con los correctores, los GPS, las calculadoras… ¿Estamos construyendo herramientas que nos vuelven menos críticos, menos creativos?

La chispa sigue siendo humana

En esta carrera por enseñar a las máquinas a pensar, la clave sigue siendo nuestra libertad. Podemos usar la IA como herramienta de reflexión, para ampliar nuestro criterio, no para sustituirlo. El riesgo está en dejar de vivir nuestra vida y empezar a vivir la vida que nos prescribe un algoritmo.

¿IA como copiloto o como piloto? La decisión sigue siendo nuestra.

La nueva era de la IA 3

Leave A Comment

Your email address will not be published. Required fields are marked *