Page cover image

DeepSeek vs. los Gigantes: Drama y disrupción en la carrera por la IA 🚀

El ascenso controvertido de un nuevo competidor 🌟

En el competitivo mundo de la inteligencia artificial, donde cada avance cuesta millones de dólares, una empresa china llamada DeepSeek ha logrado lo impensable. Con solo 200 empleados y 2,000 GPUs (unidades de procesamiento gráfico, los "cerebros" que potencian la IA), han conseguido resultados que compiten directamente con los gigantes tecnológicos que gastan fortunas en desarrollo. 💪

La controversia emerge 🔍

A finales de 2024, saltaron las alarmas en Silicon Valley. Los investigadores de seguridad de Microsoft 🔒 descubrieron un patrón inusual: grandes cantidades de datos siendo extraídos a través de cuentas de desarrollador de OpenAI. Este descubrimiento llevó a una acusación que sacudió la industria: DeepSeek podría haber estado utilizando una técnica llamada "destilación" para construir sus modelos.

¿Qué es la destilación? 🧪

Imagina que tienes una receta gourmet muy compleja (el modelo grande de IA) y quieres crear una versión simplificada pero igual de sabrosa (el modelo pequeño). La destilación en IA funciona de manera similar: es un proceso donde un modelo más pequeño "aprende" de uno más grande, capturando su esencia y conocimientos clave. Es como tener un estudiante (modelo pequeño) que aprende de un profesor experto (modelo grande), pero de manera más eficiente y económica.

La ironía del momento 🎭

La situación presenta una ironía fascinante. OpenAI, que construyó su imperio utilizando contenido de internet sin pedir permiso explícito (imagina una aspiradora gigante absorbiendo todo el conocimiento de la web 🌐), ahora se encuentra protestando porque alguien más podría estar haciendo algo similar con sus modelos.

El poder de la eficiencia 💡

La controversia de los 5.6 millones 💰

Una de las afirmaciones más polémicas de DeepSeek ha sido el coste declarado de su desarrollo: apenas 5.6 millones de dólares para entrenar su modelo DeepSeek V3. Esta cifra ha generado un intenso debate en la industria, especialmente cuando se compara con los aproximadamente 100 millones de dólares que OpenAI invirtió en entrenar GPT-4.

Desglose del coste declarado 📊

DeepSeek afirma haber utilizado:

- 2.788 millones de horas de GPU NVIDIA H800

- Un enfoque de entrenamiento altamente optimizado

- Técnicas de precisión FP8 para ahorrar recursos

- Aprendizaje por refuerzo eficiente

La historia detrás de los números 🔍

Sin embargo, los analistas han señalado varias omisiones importantes en esta cifra:

1. Costes no incluidos:

- Investigaciones previas y experimentos en arquitecturas

- Desarrollo de algoritmos

- Preparación y anotación de datos

- Salarios del equipo de desarrollo

- Entrenamientos fallidos o interrumpidos

- Adaptación de DeepSeek V3 a DeepSeek R1

2. Infraestructura previa:

Dylan Patel, de SemiAnalysis, estima que DeepSeek ha invertido más de 500 millones de dólares en GPUs a lo largo de su historia. La empresa ha tenido acceso a "decenas de miles" de GPUs de NVIDIA para entrenar sus modelos anteriores.

La evolución de los costes 📉

Es importante notar que el coste de entrenamiento de modelos de IA está disminuyendo rápidamente:

- GPT-4 costó aproximadamente 63 millones a principios de 2023

- El mismo modelo habría costado 20 millones en el tercer trimestre de 2023

- La tendencia sugiere costes aún menores en la actualidad

Impacto en el mercado tecnológico 📈

El anuncio de DeepSeek provocó una reacción inmediata en la bolsa, afectando especialmente a NVIDIA, el fabricante líder de GPUs utilizadas en la IA. Al conocerse que DeepSeek había logrado entrenar su modelo con costos muy por debajo de los esperados, los inversionistas comenzaron a especular sobre un posible declive en la demanda de hardware de alto rendimiento.

Como resultado, las acciones de NVIDIA sufrieron una caída significativa, con una pérdida temporal del 12% en su valor bursátil. Este descenso reflejó el temor de que el mercado de entrenamiento de modelos de IA se estuviera desplazando hacia alternativas más eficientes y menos dependientes de grandes infraestructuras de GPUs. Además, la posibilidad de que empresas chinas como DeepSeek desafiaran el dominio de OpenAI y otros actores estadounidenses generó preocupaciones geopolíticas y regulatorias adicionales.

La Paradoja de Jevons explicada 📊

Esta paradoja económica, nombrada por William Stanley Jevons en 1865, sugiere que cuando algo se vuelve más eficiente y barato de usar, la demanda total aumenta en lugar de disminuir. En el contexto de la IA, esto significa que aunque DeepSeek haya encontrado formas más eficientes de entrenar modelos, podría llevar a un aumento en el uso total de recursos computacionales al hacer la tecnología más accesible. 🔄

El panorama geopolítico 🌍

La tensión entre Estados Unidos y China en el campo de la IA añade otra capa de complejidad. David Sacks, asesor en IA del presidente Trump, ha expresado preocupaciones sobre la posible transferencia de tecnología y la necesidad de proteger la propiedad intelectual estadounidense. OpenAI ha enfatizado la importancia de trabajar estrechamente con el gobierno de EE.UU. para proteger sus modelos más avanzados de los esfuerzos de competidores y adversarios.

Preocupaciones críticas sobre privacidad 🔐

Las últimas revelaciones sobre las prácticas de privacidad de DeepSeek han añadido una nueva dimensión preocupante a esta historia. Un análisis de su política de privacidad, actualizada en diciembre de 2025, ha expuesto problemas significativos en el manejo de datos personales.

Recopilación extensiva de datos 📱

DeepSeek recolecta una cantidad alarmante de información personal, incluyendo:

  • Todo el contenido de las conversaciones con el chatbot

  • Archivos y contenidos subidos por los usuarios

  • Información detallada sobre dispositivos y sistemas operativos

  • Patrones y ritmos de pulsación de teclas

  • Direcciones IP y datos de navegación

El problema del almacenamiento en China 🌏

A diferencia de OpenAI (30 días) o Google Gemini (3 años), DeepSeek mantiene los datos indefinidamente en servidores ubicados en China. Esto significa que toda la información está sujeta a las leyes chinas y puede ser compartida con el gobierno cuando este lo solicite, una situación que evoca la controversia de TikTok en Estados Unidos.

Control limitado del usuario ⚠️

Los usuarios tienen opciones muy limitadas sobre cómo se utilizan sus datos. Douglas Mac Cord, CEO de Leany, ha identificado riesgos significativos, incluyendo:

  • Compartición de datos con terceros sin consentimiento claro

  • Creación de perfiles detallados de usuarios

  • Falta de transparencia en el procesamiento de datos

  • Acceso potencialmente no autorizado a información sensible

Mirando al futuro 🔮

El caso DeepSeek plantea preguntas fundamentales sobre el futuro de la IA:

  • ¿Cómo equilibrar la innovación con la protección de datos personales?

  • ¿Es sostenible el desarrollo de IA que requiere recursos masivos?

  • ¿Cómo proteger la propiedad intelectual en un campo tan dinámico?

  • ¿Qué papel juegan las regulaciones nacionales en una tecnología global?

Conclusión: un campo en evolución ✨

El caso DeepSeek representa una encrucijada crucial en el desarrollo de la IA. Por un lado, demuestra que la innovación puede surgir de formas inesperadas y que la eficiencia puede superar al poder bruto de los recursos. Por otro lado, las preocupaciones sobre privacidad y seguridad de datos, junto con las cuestiones de propiedad intelectual, plantean serios desafíos que la industria debe abordar.

El futuro de la IA dependerá de cómo equilibremos estos diferentes aspectos. La verdadera innovación no solo debe medirse en términos de eficiencia técnica, sino también en cómo protege los derechos y la privacidad de los usuarios. A medida que esta tecnología continúa evolucionando, la industria deberá encontrar formas de fomentar la innovación mientras mantiene estándares éticos y de seguridad robustos. 🌱

Last updated