🧭 Si acabas de llegar: Empieza aquí
📌 Contenido educativo y divulgativo. No asesoramiento financiero → Disclaimer
CUANDO LA GPU SALE DEL MUNDO GRÁFICO
A comienzos de los años 2000, algo curioso empezó a ocurrir fuera del radar comercial. En 2002, un investigador de la Universidad de Carolina del Norte observó que, para simular fenómenos naturales complejos —movimientos de fluidos, termodinámica atmosférica—, cada vez se recurría más a PCs equipados con GPUs como la GeForce 3.
No se utilizaban para gráficos. Se forzaban para realizar cálculos matriciales, aprovechando su arquitectura paralela. En la práctica, se estaban “pirateando” tarjetas gráficas para hacer ciencia.
Para NVIDIA, aquello abría un mundo nuevo, un descubrimiento ya que hasta entonces sólo habían pensado en gráficos. Pero había un problema evidente: las GPUs no eran fáciles de programar.
CUDA: UNA DECISIÓN QUE TARDÓ EN ENTENDERSE
La respuesta de la empresa fue CUDA (Compute Unified Device Architecture): una capa de programación que permitía reprogramar la GPU para usos no gráficos. No como un experimento puntual, sino como una apuesta estratégica.
La idea era sencilla, pero ambiciosa: si la GPU podía programarse en un lenguaje generalista como C, podría salir definitivamente del mundo gráfico.
En 2006, con la llegada del chip NV50 (G80), NVIDIA presentó por primera vez una GPU concebida desde el inicio con capacidad informática general. La arquitectura pensada para acelerar gráficos resultaba extraordinariamente eficaz para cálculos científicos, ingeniería, medicina o investigación académica.
Era un mercado prácticamente inexistente hasta entonces. Difícil de cuantificar, pero potencialmente enorme.
NVIDIA empezó a regalar GPUs con CUDA a universidades, a organizar congresos en centros de investigación y a sembrar una comunidad técnica que aprendía a pensar la GPU como algo más que un acelerador gráfico.
Ningún otro fabricante de chips ofrecía una capa de programación tan accesible y potente.
EL COSTE DE UNA VISIÓN A LARGO PLAZO
Nada de eso fue inmediato.
El desarrollo de CUDA exigió reorganizar equipos, contratar ingenieros especializados y desviar recursos durante años hacia algo que aún no generaba ingresos claros. Entre 2006 y 2007, el margen operativo de la empresa cayó y la acción volvió a desplomarse cerca de un 80 %.
CUDA era caro. Y su retorno, incierto.
Este tipo de decisiones rara vez se reflejan bien en los estados financieros a corto plazo. A menudo, la estrategia existe solo en la cabeza del CEO o del equipo directivo mucho antes de que el mercado pueda verla.
No era un caso aislado. Algo similar había ocurrido en Netflix, cuando Reed Hastings apostó por el streaming años antes de que fuera rentable.
Los sistemas importantes tardan.
CPU, GPU Y COMPUTACIÓN PARALELA
Con el tiempo, la industria fue clarificando dos grandes familias de chips:
CPU: procesador generalista, versátil, capaz de cambiar rápidamente de tarea, pero con un número limitado de núcleos y ejecución principalmente secuencial.
GPU: diseñada para volumen más que para complejidad. Cientos o miles de núcleos pequeños ejecutando muchas operaciones simples en paralelo.
Durante décadas, la CPU había sido el centro de la informática. La GPU, un complemento.
CUDA cambió esa relación. La GPU se convirtió en un procesador programable de propósito general, especialmente eficaz cuando el problema era manejar grandes volúmenes de datos con operaciones repetitivas.
Visión por ordenador, simulación, modelado… y algo más.
EL APRENDIZAJE PROFUNDO ENCUENTRA SU PARTNER
Con la llegada de CUDA, la GPU dejó de pensarse únicamente como un acelerador gráfico. La compatibilidad con generaciones anteriores se mantenía por diseño, pero los usos empezaron a ampliarse: visión por ordenador, simulación, computación científica e inteligencia artificial.
En el caso de NVIDIA, la combinación de GPU y una capa de programación accesible provocó algo inesperado. Sus chips comenzaron a utilizarse para tareas que requerían procesar grandes volúmenes de datos, aunque los cálculos individuales no fueran especialmente complejos. El valor estaba en el paralelismo.
Una sola GPU podía gestionar modelos con cientos de millones de parámetros.
Con ese contexto, y tras años observando usos alternativos, Jensen Huang empezó a preguntarse qué podía significar el aprendizaje profundo para la empresa. Corría el año 2012, mucho antes de que la IA entrara en la conversación pública con la llegada de OpenAI y ChatGPT en 2022.
La respuesta fue clara. Si la IA iba a escalar, necesitaría hardware y software diseñados para crecer juntos.
NVIDIA volcó recursos y talento en esa dirección. Toda su gama pasó a ser compatible con CUDA y comenzaron a aparecer herramientas específicas para aprendizaje profundo. La más relevante fue cuDNN (CUDA Deep Neural Network), una evolución de CUDA optimizada para redes neuronales profundas, que pronto se convirtió en una pieza esencial para los desarrolladores.
Cuando un ingeniero pensaba en IA, terminaba pensando en NVIDIA.
Jensen Huang estaba convencido de que la IA provocaría la mayor expansión del mercado direccionable jamás vista en la historia del software y del hardware. Y NVIDIA tenía que estar en el centro de ese movimiento.
Durante la década 2010–2020, la empresa logró algo poco frecuente: integrar hardware y software como un sistema único. De algún modo, replicó el antiguo tándem Microsoft–Intel, pero dentro de una sola organización.
EL EQUIPO
A lo largo de los años, NVIDIA se ha centrado de forma sistemática en atraer y retener el mejor talento posible, muchas veces incorporándolo directamente desde competidores, clientes o del propio ecosistema tecnológico que la rodeaba.
No ha sido nunca un lugar cómodo para todo el mundo. Las jornadas intensas —de 60 a 80 horas semanales— no desaparecieron con el paso del tiempo. Pero para quienes compartían una ética de trabajo exigente y una vocación profunda por desarrollar ideas complejas, NVIDIA ofrecía algo poco habitual: autonomía, responsabilidad y continuidad.
La cultura interna empoderaba a los empleados para llevar sus ideas lejos, siempre alineados con la visión de la empresa. A cambio, la compañía utilizó de forma consistente la remuneración en acciones como mecanismo de retención de talento a largo plazo, reforzando la sensación de proyecto compartido.
El resultado fue una rotación significativamente inferior a la media del sector, tradicionalmente alta en industrias donde la competencia por perfiles técnicos es feroz.
No era solo una empresa bien gestionada. Era una organización diseñada para que el talento se quedara y creciera.
REFLEXIÓN FINAL
Aquí termina la historia de NVIDIA hasta donde he sido capaz de destilarla, apoyándome en distintas lecturas y fuentes, especialmente en el trabajo de Tae Kim en El método NVIDIA.
Es una historia fascinante no solo por lo que la empresa llegó a ser, sino por cómo lo hizo. Durante muchos años, los estados financieros no señalaban una gran oportunidad. Lo hacían las personas, las decisiones técnicas y la persistencia de una dirección clara.
Quizá por eso, el análisis de empresas extraordinarias sea, en el fondo, menos una cuestión de números que de criterio sostenido en el tiempo.
Serie Nvidia- Historia fundacional acelerada
Si te interesan las empresas, el largo plazo y las decisiones que importan cuando el ruido desaparece, este es tu lugar.
🧭 Ruta de lectura: entra aquí
MoatScouter es un proyecto educativo y divulgativo. El contenido refleja opiniones personales y no constituye asesoramiento financiero ni recomendaciones de inversión.
Para consultar el disclaimer completo y el alcance del proyecto, accede aquí:
📌 → Descargo de responsabilidad






