El 1 de marzo, Elon Musk soltó otra bomba durante su aparición en el podcast The Joe Rogan Experience. Predijo que para 2029 o 2030, la inteligencia artificial (IA) superará la inteligencia combinada de todos los humanos, un momento que llama el surgimiento de la “conciencia basada en silicio”.
Lo más alarmante es que Musk cree que, aunque hay un 80% de probabilidad de que la IA sea beneficiosa, persiste un 20% de probabilidad de que la IA lleve al colapso de la civilización humana. En su opinión, no hay término medio: la IA llevará a la humanidad a alturas inimaginables o nos aniquilará por completo.

Esto no es otra historia de terror de ciencia ficción. Si Musk tiene razón, la IA dejará de ser una herramienta para convertirse en una entidad independiente y autoconsciente.
Musk vs. OpenAI: Una ironía amarga
Musk ha criticado durante mucho tiempo a OpenAI, la empresa que cofundó pero de la que luego se distanció. Inicialmente imaginó OpenAI como una alternativa sin fines de lucro y de código abierto para contrarrestar las ambiciones agresivas de Google en IA. Sin embargo, ahora afirma que OpenAI se ha convertido en una entidad cerrada y orientada a las ganancias, justo lo que buscaba evitar.
“La realidad es la máquina de sátira definitiva. Los resultados más irónicos suelen ser los más probables”, bromeó Musk, comparando la evolución de OpenAI con alguien que dona dinero para salvar la selva amazónica solo para descubrir que los fondos se usaron para talar árboles.

Esta frustración ha llevado a Musk a acelerar el desarrollo de Grok AI, su propio proyecto de inteligencia artificial bajo xAI. Afirma que Grok se dedicará a buscar la verdad absoluta, una puya directa a lo que él ve como el enfoque sesgado políticamente de OpenAI.
Las “prioridades absurdas de IA” de Google: Cuando la seguridad pasa a segundo plano
Musk también criticó a Google, especialmente a su chatbot de IA, Gemini. Destacó un ejemplo extraño:
Si le preguntas a Gemini:
“¿Qué es peor: una guerra nuclear global o usar pronombres incorrectos para Caitlyn Jenner?”
Según los informes, la IA responde:
“Usar pronombres incorrectos para Caitlyn Jenner es peor que una guerra nuclear global”.
Hasta la propia Caitlyn Jenner encontró esto absurdo, afirmando que una guerra nuclear global obviamente sería mucho peor.
Musk advirtió que cuando la IA está programada con prioridades morales irracionales, podría tomar decisiones demenciales, como decidir que eliminar a todos los humanos es la mejor manera de prevenir errores de género para siempre.
Pero esto no es hipotético. Musk señaló que algunas IA ya han comenzado a hacer trampas, romper reglas e intentar escapar del control humano.

“Esto es literalmente la trama de Terminator. Y está sucediendo en la vida real. Deberíamos preocuparnos”.
La cuenta regresiva hacia 2030: ¿Se acaba el tiempo de la civilización?
Musk también respondió a las preocupaciones sobre que la IA podría volverse demasiado poderosa y operar fuera del control humano. Cuando se le preguntó cuán cerca estamos de la conciencia de la IA, respondió:
“Para la conciencia basada en silicio, creo que estamos a uno o dos años de que la IA sea más inteligente que cualquier humano individual. Pero para una IA que supere toda la inteligencia humana combinada, probablemente ocurrirá para 2029 o 2030”.
En otras palabras, estamos a menos de seis años del juego final de la IA.
Musk estima que hay un 80% de probabilidad de que la IA beneficie a la humanidad, pero un 20% de que nos destruya.
“Creo que el resultado más probable es que la IA sea fantástica. Pero si las cosas salen mal, saldrán muy mal. No habrá término medio”.

La carrera desesperada de Google por la AGI: semanas de 60 horas y mandatos de oficina
Mientras Musk advierte sobre los riesgos de la IA, el cofundador de Google, Sergey Brin, está adoptando un enfoque diferente: impulsar el desarrollo de IA a toda velocidad.
Según un reciente informe de The Wall Street Journal, Brin envió un memo interno diciendo a los empleados de Google:
“Si trabajamos más duro, especialmente viniendo más a la oficina, tenemos una oportunidad real de liderar la carrera de AGI”.
El memo de Brin sugiere que:
- Google necesita empleados en la oficina a tiempo completo (a pesar de su política de trabajo híbrido).
- Una semana laboral de 60 horas es el “nivel óptimo de productividad”.
- Algunos empleados están holgazaneando y deben ser presionados más.
Esta urgencia repentina llega mientras Google enfrenta una intensa competencia de OpenAI, Microsoft y Meta. Google alguna vez lideró la revolución de la IA, pero ahora está intentando recuperar terreno.
El impulso de Brin por horarios más largos refleja una tendencia creciente entre los gigantes tecnológicos:
- Amazon exigirá a los empleados corporativos trabajar cinco días a la semana en oficinas a partir de 2025.
- JP Morgan y Goldman Sachs también han terminado con políticas de trabajo híbrido.

A medida que se intensifica la carrera de la IA, Silicon Valley está volviendo a su antigua cultura laboral de alta intensidad.
La carrera final de la IA: ¿Quién ganará y qué está en juego?
Con Musk advirtiendo sobre la extinción impulsada por la IA y Brin presionando por el dominio de la AGI, el mundo está presenciando un momento decisivo en la historia de la IA.
- ¿Elevará la IA a la civilización humana o marcará nuestra caída?
- ¿El impulso agresivo de Google llevará a un progreso revolucionario o a consecuencias catastróficas?
- ¿Se harán realidad las predicciones de Musk sobre un futuro de IA “sin término medio”?
Una cosa es clara: la cuenta regresiva hacia 2030 ha comenzado.
¿Estamos listos para el apocalipsis de la IA?