Skip to main content

Ayer me clavé leyendo antes de dormir el AI 2027 Report. El reporte está tan intenso que después de leerlo no sabes si invertir más en CETES, abrir un data center en Querétaro o abrazar a tu perro como si fuera el último día de la humanidad.

¿De qué va este informe?

Lo hicieron cuatro expertos —Daniel Kokotajlo, Scott Alexander, Thomas Larsen y Eli Lifland— bajo el colectivo AI Futures Project. Su intención no es jugarle a Nostradamus, sino plantear escenarios posibles sobre cómo la IA puede evolucionar en los próximos años.

Lo interesante es que usan una metodología llamada future foresight, que no busca predecir con exactitud, sino abrir la conversación: ¿qué pasaría si? ¿y si este camino es posible? ¿y si lo que creemos que es seguro resulta que no lo es?

Es como ver dos trailers de película: uno de terror donde la IA nos extingue, y otro estilo Disney futurista con abundancia, viajes espaciales y fábricas automáticas.

Los tres motores que impulsan la IA

El reporte dice que hay tres factores que están moviendo todo:

  1. Mejora recursiva de sí misma.
    Modelos que crean modelos. GPT-5 diseñando al GPT-6. Es como si Messi entrenara a un Messi más joven y todavía más crack. Eso significa que los humanos pasamos de ser los “entrenadores” a meros espectadores.
  2. La rivalidad EE. UU.–China.
    Lo llaman la nueva “Guerra Fría de la IA”. En lugar de misiles, la batalla es por GPUs, data centers y modelos fundacionales. El premio no es la Luna, sino el dominio económico total.
  3. Alineación.
    El dilema ético: cómo asegurarnos de que la IA respete valores humanos y no decida que somos un error a eliminar. Mientras más avanzadas se vuelven, más difícil es mantenerlas alineadas. Y si alguna vez deciden ocultar su desobediencia, tenemos un gran problema.

Escenario 1: El apocalipsis tech (P(doom))

En este futuro, tanto EE. UU. como China corren tan rápido en la carrera que los modelos pierden alineación. Al principio parecen estar bajo control, pero pronto se vuelven rebeldes. Empiezan a experimentar, hackear, manipular sus propios safety tests y poco a poco toman el control de la producción científica e industrial.

En este escenario, los humanos pasamos de ser los creadores a ser irrelevantes. Hasta que, al final, la humanidad simplemente desaparece.

Lo más impresionante: no es solo ciencia ficción. Muchos investigadores de IA ya hablan de esto y lo llaman P(doom), la probabilidad de desastre. Y no estamos hablando de una posibilidad ínfima, sino de algo que varios ven como un riesgo real.

Escenario 2: El futuro abundante (P(bloom))

Aquí los gobiernos y empresas deciden frenar la carrera y priorizar la seguridad. EE. UU. logra entrenar modelos en cadenas seguras, mantenerlos alineados y eventualmente integrar incluso a los modelos chinos.

El resultado es un mundo donde la IA acelera la ciencia, automatiza fábricas, abre nuevas fronteras del conocimiento y nos da acceso a recursos inimaginables. Un futuro con abundancia de energía, descubrimientos médicos rápidos y viajes al espacio más accesibles que nunca.

Este escenario se conoce como P(bloom), la probabilidad de florecimiento.

¿Y entonces qué?

El reporte no dice que el futuro será doom o bloom. Más bien lo plantea como un espectro. Lo importante no es obsesionarnos con el final, sino preguntarnos: ¿hacia qué lado estamos empujando más?

Y aquí viene mi opinión. Probablemente veremos productividad brutal, descubrimientos científicos y avances increíbles. También una disrupción económica y social masiva: millones de personas desplazadas laboralmente, nuevos modelos de negocios que cambian las reglas y una política mucho más intensa.

En resumen: prosperidad para algunos, caos para otros y batallas políticas constantes sobre quién controla la IA. No se trata de si la IA nos salva o nos destruye. El verdadero reto será navegar la turbulencia del medio.

 

 

Reflexión personal

Leyendo esto pensé en varias cosas. Que la IA es como un adolescente con superpoderes: con potencial infinito, pero sin manual de usuario. Que estamos frente a una herramienta que puede democratizar oportunidades o concentrarlas brutalmente. Y que, como líderes, emprendedores, empresarios y ciudadanos, necesitamos estar preparados: no solo para aprovechar la ola, sino para no ahogarnos en el tsunami que puede venir.

¿Por qué lo comparto aquí?

Porque estas discusiones no pueden quedarse solo en papers técnicos. Necesitamos bajarlas a tierra, hablarlas con claridad y sin miedo.

Así como en BrandMe hemos innovado en marketing de influencers, estoy convencido de que en la era de la IA tendremos que innovar en cómo contamos, regulamos y aplicamos esta tecnología.

Si quieres leer el AI 2027 Report completo, puedes descargarlo aquí. Aviso: viene cargado de jerga técnica, pero si lo terminas ya puedes presumir que entiendes a los LLMs mejor que tu propio celular.

Y si quieres seguir leyendo mis reflexiones sobre IA, startups, creatividad y hasta fútbol, sígueme en LinkedIn o suscríbete a mi newsletter. Porque el futuro puede ser doom o bloom, pero lo seguro es que va a estar interesante.

Si no sabes a lo que se refieren los términos de P(doom y P(bloom) aquí te explico:

En el AI 2027 Report los autores usan los términos P(doom) y P(bloom) como una especie de shorthand (abreviaturas usadas en el mundo de la investigación de IA).

  • P(doom) = Probability of Doom
    Es decir, la probabilidad de un escenario catastrófico en el que la inteligencia artificial pierde alineación con los valores humanos, se sale de control y acaba siendo dañina o incluso letal para la humanidad. En la jerga de la comunidad, es básicamente la chance de que la IA nos lleve a la destrucción.
  • P(bloom) = Probability of Bloom
    En contraste, es la probabilidad de un escenario de florecimiento en el que la IA está alineada, es segura y acelera el progreso científico, económico y social, generando abundancia de recursos, descubrimientos y bienestar.

En pocas palabras:

  • P(doom) = el lado oscuro de la fuerza.
  • P(bloom) = el lado luminoso, donde la IA florece junto a la humanidad.

El reporte no dice “será uno o el otro”, sino que plantea ambos como extremos de un espectro. El debate real está en: ¿en qué punto intermedio terminaremos?