Google inventó la IA generativa. Eso no le compró el mercado.
Un nuevo caso de escuela de negocios sobre el predicamento de Google con la IA es la exhibición empírica más limpia del dilema del innovador en años. La lección se generaliza.

Google inventó la arquitectura que impulsa a casi todos los grandes modelos de lenguaje modernos. En mayo de 2025, las búsquedas de Google en Safari cayeron por primera vez en más de 20 años.
Durante dos décadas, el laboratorio de investigación de Google produjo la mayor parte de la tecnología detrás de la generación actual de IA. El artículo de 2017 Attention Is All You Need—escrito por ocho científicos de Google Brain—introdujo el Transformer, la arquitectura detrás de casi todos los grandes modelos de lenguaje comerciales. Geoffrey Hinton, afiliado a Google cuando se publicaron los artículos fundacionales, recibió el Premio Nobel de Física 2024 por sus contribuciones al aprendizaje automático. Google es dueña de DeepMind. Opera Gemini. Tenía cerca de 100.000 millones de dólares en efectivo en el balance al entrar en 2025. Y en mayo de ese año, Apple reveló que las búsquedas de Google en Safari habían caído por primera vez en más de 20 años. La acción de Alphabet bajó 7 por ciento ese mismo día.
Esa brecha—entre el liderazgo técnico y la respuesta del mercado—es la exhibición más útil que la alta dirección puede estudiar en este momento. El caso de Andy Wu y Anna Yang, AI Wars in 2025, despliega el predicamento con un nivel de detalle inusual. La lección no es sobre Google en particular. Es sobre lo que inventar una tecnología sí compra y lo que no compra cuando el modelo de negocio existente es incompatible con el despliegue de esa tecnología.
Las ventajas sobre el papel
A inicios de 2025, Google se asentaba sobre lo que parecía, desde fuera, una posición inexpugnable. Lideraba el mercado mundial de búsqueda en escritorio con una participación del 93,4 por ciento al cierre de 2022. Tenía el programa interno de chips—la sexta generación de la TPU Trillium—que le permitía entrenar Gemini sin pagarle a Nvidia. Tenía la línea de modelos abiertos (Gemma) y la insignia cerrada (Gemini). Tenía la marca de consumo. Tenía la distribución empresarial a través de Workspace y Cloud. Tenía un linaje de investigación en IA que sus competidores llevaban años intentando replicar.
Aun así, tenía un problema.
La trampa que nadie tuvo que inventar
El negocio de publicidad en búsqueda de Google es uno de los motores de ingresos más eficientes jamás construidos—un estimado de 1,61 centavos por búsqueda en más de 5 billones de búsquedas al año. Una respuesta de chat que sintetiza el resultado elimina la página de enlaces donde se colocan los anuncios. Añadir IA generativa a la búsqueda introduce un nuevo costo de inferencia—aproximadamente 0,356 centavos por consulta, sobre los 1,06 centavos ya existentes por consulta de índice—para una funcionalidad que puede ganar menos por impresión que aquello que reemplaza. Para junio de 2024, los AI Overviews aparecían en solo 7 por ciento de las búsquedas, frente a un pico de 15 por ciento. AI Mode, la interfaz de chat más agresiva, se desplegó con cautela en mayo siguiente.
Eso no es cautela técnica. Es aritmética del modelo de negocio. El producto de chat canibaliza al producto de anuncios. Cada punto porcentual de tráfico de consultas desplazado es un cambio medible en ingresos. La misma aritmética que le permite a una empresa pública pronosticar ganancias trimestrales es la aritmética que la atrapa.
El código abierto rompe el foso
La trampa es más dura porque Google no puede esperar a que pase. Un memorándum interno filtrado en 2023, titulado “We Have No Moat, and Neither Does OpenAI”, advertía que los lanzamientos de código abierto erosionarían la defensibilidad de cualquier modelo cerrado. Para 2025, la evidencia empírica estaba dentro. Meta liberó LLaMA, luego LLaMA 2, y después versiones posteriores, todas disponibles para uso comercial dentro de los límites de licencia. Google liberó Gemma. DeepSeek liberó R1, entrenado con aproximadamente una quinta parte del cómputo de modelos comparables. Los competidores no tienen que igualar a un modelo cerrado en calidad. Tienen que ser gratuitos, recientes, y suficientemente buenos—y lo son.
Para un actor establecido, esto cambia la estructura de la pregunta competitiva. La elección ya no es “construir un modelo mejor que el de OpenAI”. Es si el negocio de modelos cerrados es siquiera defendible cuando “suficientemente bueno” se puede descargar. La presión del código abierto, examinada en por qué las mejores compañías de IA son abiertas, no es una tendencia de marketing; es una corrección de economía unitaria.
De qué trata realmente el caso
El caso se estructura alrededor de preguntas que Google tiene que responder en los próximos 12 a 24 meses. El estudiante de estrategia califica las opciones de Google. El operador enfrenta otra pregunta: ¿qué lección general prueba el caso?
La lección es que inventar la tecnología en su laboratorio no le compra el derecho de desplegarla a través de su distribución. El dividendo de investigación de Google—el Transformer, DeepMind, el linaje de Hinton, el programa de TPU—es real. No se traduce en la libertad de absorber el costo de canibalización sobre un negocio de 1,61 centavos por búsqueda. El mismo dividendo le permitió a OpenAI, sin un negocio de publicidad que proteger, lanzar ChatGPT en noviembre de 2022 y alcanzar 100 millones de usuarios activos mensuales en dos meses. Microsoft, sin un negocio de búsqueda al consumidor de consecuencia alguna, pudo arriesgar una apuesta de 10.000 millones de dólares en OpenAI sin poner en peligro Office o Azure. Google no podía.
Ese es el dilema del innovador en una forma inusualmente difícil de descartar. El planteamiento original de Christensen abordaba la disrupción desde abajo, donde la nueva tecnología era inicialmente peor que la oferta del actor establecido. La situación actual invierte eso. La nueva tecnología es, en algunos usos, dramáticamente mejor. Pero el actor establecido aun así no puede desplegarla a toda velocidad porque el despliegue destruye los ingresos que financiaron la investigación. La capacidad más importante en IA en este entorno no es técnica. Es el juicio para saber qué tan rápido canibalizar un negocio en marcha al servicio de uno potencialmente mayor.
Dónde deja esto al resto de la alta dirección
La mayoría de las empresas nunca enfrentará el problema específico de Google a la escala de Google. Enfrentarán la misma forma de él. Tres preguntas surgen de manera fiable del caso:
- ¿Qué parte del modelo de ingresos existente es incompatible con el nuevo modo? Si la respuesta es “ninguna”, el despliegue de IA es una pregunta de producto. Si la respuesta es “una parte significativa”, es una pregunta de portafolio, y debe secuenciarse con esa óptica.
- ¿Cuál es la economía unitaria del nuevo modo a escala? OpenAI perdió un estimado de 5.000 millones de dólares en 2024. La conversión a suscripción sigue siendo baja—Microsoft 365, Netflix, y Spotify Premium han topado cada uno cerca de 400 millones de usuarios pagos a nivel mundial. Construir el producto es la mitad fácil; hacerlo pagar es la mitad que nadie ha resuelto.
- ¿Cuánto cuesta sostener el piso del código abierto? Si un modelo gratuito que se puede correr localmente hace 80 por ciento del trabajo, el producto cerrado tiene que defender el 20 por ciento restante en calidad, integración, o confianza. Cada uno de esos es una inversión distinta.
. . .
Dos décadas de dominio produjeron algo que Google no anticipó que necesitaría: el hábito de tratar a su negocio central como aquello que hay que defender. La decisión que tiene en frente su liderazgo ahora es si seguir defendiéndolo, o gastarlo. El caso termina sin una respuesta. Las empresas que miran desde fuera deberían tomar en serio cuán difícil es la respuesta, incluso para la compañía que inventó la tecnología subyacente.