DeepSeek news should shake the market??

ENGLISH

I know I’m a couple of weeks late, but on Jan 20th, the Chinese company DeepSeek released its AI Model (R1), which scared every AI investor as all legacy understanding on how to build AI models seemed to vanish. And here’s the key word: seemed. Because when we talk about something built by our Eastern friends, everything comes with a bit of darkness and suspicion, especially when the founder is a hedge fund manager.

We just need to look at examples like the Zhou-class submarine, which was announced as a spectacular revolution in military technology for China but sank at Wuhan’s shipyard in mid-2024, or failures in the EV sector, like Xiaomi and BYD, which claimed battery life and efficiency to match Tesla and Porsche’s performance, while in reality, the actual battery range of Xiaomi vehicles was far lower than announced, and BYD customers reported significant battery degradation after two years of use. Does this mean they will never achieve acceptable results? Certainly not, but it means they’re not transparent about the level of achievements they claim, and this might be another case proving China’s opacity.

Moreover, DeepSeek is a Chinese artificial intelligence company founded in 2023 by Liang Wenfeng, a former hedge fund manager and AI researcher. In 2015, he co-founded High-Flyer Quantitative Investment Management, a hedge fund that utilized AI-driven trading strategies. Quant hedge funds, simplifying as much as possible, look for profits in any (literally any) mispriced opportunities through a primarily statistical approach. This hedge funds get advantage of derivatives to gain yields when prices goes up or down. That being said, if someone were to bet on a price to drop for, let’s say, NVIDIA, that person or hedge fund manager would have made an amazing profit out of it on Jan 20th.

But just relying on the historical ”cheat mode” used by China to analyze this situation would be kind of lazy, don’t you think?

Fasten Your Seatbelts - Let’s Get Technical

We must admit DeepSeek has a point in certain things they claim.

GPUs are the primary hardware needed (or so we all thought) to produce these famous LLMs (AI models). The top five GPU designers (not producers) are all based in the U.S., the sixth is a UK company, and only the seventh is Chinese’s Huawei whose only GPU producer is SMIC, which can manufacture only 7nm GPUs (more than double the size of U.S. GPUs from NVIDIA and AMD). This is important for efficiency, performance, and power consumption, but I won’t go too technical (neither do I have the knowledge, to be honest).

Thus, THUS, and here comes the heart of the matter: DeepSeek claims they have developed R1 without using GPUs but instead using CPUs (the same ones we have in 90% of our computers), which might mean a complete revolution in how LLMs are built and, most dramatically for NVIDIA and AMD, a significant decrease in GPU demand.

For that reason, it is crucial to understand the difference between GPUs and CPUs -I said I wouldn't go further into technicalities, but I was just lying, anyhow, I promise it'll be worth the ride. To simplify:

  • CPU can handle much more complex calculations, but one by one.
  • GPU can process many simpler calculations simultaneously, which is crucial for AI.

As an example, it's like having Kasparov making a single calculation by himself or Montoya and his Temptation Island colleagues making very small calculations at the same time. Who'd win? I can't tell Montoya is slow (If you don't know who Montoya is, please check this out: link).

Thus, if they managed to develop any type of software that enables tons of CPUs to work in parallel, it;d be a bit inefficient, but they might have a point. There's also a chance they could have developed an LLM using simpler but properly optimized CPUs via software. Or maybe they just bought GPUs on the black market, and it's all a lie, as we explained.

Schrödinger’s cat of AI

Anyhow, since we have no clue (and we probably won't in the short term), let's play a bit of Schrödinger’s cat by analyzing three hypothetical worlds:

  1. The truth shall set us free! Ok, let´s assume DeepSeek model is, indeed, as they explained, 27 times more efficient, and was built with 6m$ invested (instead of the 100m$ ChatGPT 4o needed). Does this differencil efficiency make GPUs useless to date? My opinion is that absolutely not, we should be able to combine this advanced SW developed with most powerful GPUs to take AI to the next level and get closer to AGI or Strong AI where the machine is able to adquire human level cognitive capacity. Thus, GPU for sure will still be demanded and crucial for AI development.

2. Board them! If, otherwise, we trust some sources saying DeepSeek Acquired trained the model with obsolete GPUs prior to trading restrictions from US, here nothing new is added to the industry, honestly, they have got mediocre results using mediocre products, nice bros…

3. All roads lead to NVIDIA! Even if those roads are black, there’s also a chance it’s all bullshit. Seems hard to believe as DeepSeek is an open-source developer so everyone can see codes used by them but they still deny the One-child policy implemented at the end of last century, we all know what they can do (I know this was government but the first to differentiate government from private company please raise your hand)

Nutshell Thoughts

DeepSeek’s claims, whether groundbreaking or deceptive, have injected uncertainty into the AI investment landscape, particularly in the hardware sector. But even if their model genuinely achieves 27x efficiency without GPUs, it could reshape LLM infrastructure using GPUs and push models to Strong AI. However, if their success relies on pre-ban GPUs or black-market acquisitions, then the disruption is overhyped, and the fundamental hardware race remains unchanged. Given China’s opaque track record, skepticism is warranted, but so is vigilance—if a software-driven approach to AI training proves viable, it could reshape AI economics, forcing investors to rethink the traditional “GPUs = AI” equation. In the meantime, NVIDIA still holds the keys to the kingdom, whether through open markets or more unofficial channels.

ESPAÑOL

Sé que llego un par de semanas tarde, pero el 20 de enero, la empresa china DeepSeek lanzó su modelo de IA (R1), lo que asustó a todos los inversores en IA, ya que toda la comprensión tradicional sobre cómo construir modelos de IA parecía desmoronarse. Y aquí está la palabra clave: "parecía."

Porque cuando hablamos de algo desarrollado por nuestros amigos orientales, todo viene con un poco de oscuridad y sospecha, especialmente cuando el fundador es un gestor de fondos de cobertura.

Solo hay que mirar ejemplos como el submarino clase Zhou, que fue anunciado como una revolución espectacular en la tecnología militar de China, pero se hundió en el astillero de Wuhan a mediados de 2024, o los fracasos en el sector de los vehículos eléctricos, como Xiaomi y BYD, que afirmaban que la vida útil y eficiencia de sus baterías igualaban el rendimiento de Tesla y Porsche. Sin embargo, en la realidad, la autonomía real de los vehículos Xiaomi era mucho menor de lo anunciado y los clientes de BYD reportaron una degradación significativa de la batería tras dos años de uso.

¿Significa esto que nunca lograrán resultados aceptables? Claro que no. Pero sí significa que no son transparentes sobre los niveles de logro que alcanzan, y este podría ser otro caso que demuestre la opacidad de China.

DeepSeek y el Factor Hedge Fund

DeepSeek es una empresa china de inteligencia artificial fundada en 2023 por Liang Wenfeng, un exgestor de fondos de cobertura y experto en IA. En 2015, cofundó High-Flyer Quantitative Investment Management, un fondo cuantitativo que utiliza estrategias de trading basadas en IA.

Los fondos cuantitativos, simplificando lo máximo posible, buscan obtener beneficios en cualquier (literalmente cualquier) oportunidad de desajuste de precios, basándose principalmente en un enfoque estadístico. Estos fondos aprovechan los derivados para obtener rendimientos cuando los precios suben o bajan.

Dicho esto, si alguien hubiera apostado por la caída del precio de, por ejemplo, NVIDIA, ese inversor o gestor de fondos de cobertura habría obtenido una ganancia increíble el 20 de enero.

Pero confiar únicamente en el "modo trampa" histórico de China para analizar esta situación sería simplista, ¿no crees?

Abróchense los cinturones - Vamos con la parte técnica

Debemos admitir que DeepSeek tiene un punto válido en algunas de sus afirmaciones.

Las GPUs son el hardware principal necesario (o eso creíamos) para producir estos famosos LLMs (modelos de IA).

Los cinco principales diseñadores de GPUs (no fabricantes) están en EE.UU., el sexto es una empresa británica, y el séptimo es Huawei, cuyo único fabricante de GPUs es SMIC, que solo puede producir GPUs de 7nm (más del doble del tamaño de las GPUs estadounidenses de NVIDIA y AMD).

Esto es crucial para la eficiencia, el rendimiento y el consumo de energía, pero no quiero abrumarte con lo técnico (ni tengo el conocimiento para hacerlo, para ser honesto).

Y aquí viene el quid de la cuestión

DeepSeek afirma que ha desarrollado R1 sin usar GPUs, sino utilizando CPUs (las mismas que tenemos en el 90% de nuestras computadoras), lo que podría significar una revolución total en cómo se construyen los LLMs y, especialmente, un gran golpe para NVIDIA y AMD, ya que supondría una reducción drástica en la demanda de GPUs.

Por esa razón, es fundamental entender la diferencia entre GPUs y CPUs.

Dije que no iría más lejos en temas técnicos, pero mentí.

Diferencias clave entre CPU y GPU:

  • Una CPU maneja cálculos más complejos, pero uno a la vez.
  • Una GPU procesa muchos cálculos más simples al mismo tiempo, lo cual es clave para la IA.

Para ponerlo en un ejemplo simple:

  • Una CPU es como Garry Kasparov jugando ajedrez solo.
  • Una GPU es como Montoya y sus colegas de la isla de las tentaciones haciendo calculos a la vez.

¿Quién ganaría? No lo sé, Montoya es lento... (Si no sabes quién es Montoya de La Isla de las Tentaciones, revisa esto: link).

Si DeepSeek logró desarrollar software que permite que muchas CPUs trabajen en paralelo, sería ineficiente, pero factible.

O tal vez simplemente compraron GPUs en el mercado negro y mintieron sobre ello.

El Gato de Schrödinger de la IA - Tres Escenarios Posibles

Dado que no tenemos pruebas claras (y probablemente no las tendremos pronto), exploremos tres escenarios hipotéticos:

  1. "La verdad nos hará libres"El modelo de DeepSeek es real, 27 veces más eficiente y fue construido con solo 6M$ de inversión (en lugar de los 100M$ que costó entrenar ChatGPT-4o).
    • ¿Hace esta eficiencia diferencial que las GPUs sean inútiles a partir de ahora? Absolutamente no.
    • Lo lógico sería combinar este software avanzado con GPUs de última generación para llevar la IA al siguiente nivel y acercarnos a la AGI (Inteligencia Artificial General), donde las máquinas adquieran capacidades cognitivas humanas.
  2. "¡Al abordaje!"Si, en cambio, confiamos en fuentes que dicen que DeepSeek entrenó el modelo con GPUs obsoletas antes de las restricciones comerciales de EE.UU., entonces no hay nada innovador aquí.
    • Básicamente, lograron resultados mediocres con productos mediocres.
    • Bien jugado, hermanos...
  3. "Todos los caminos llevan a NVIDIA."Incluso si esos caminos son oscuros, también hay una posibilidad de que todo sea una gran mentira.
    • Parece difícil de creer, ya que DeepSeek es un desarrollador de código abierto, lo que significa que todo el mundo puede ver los códigos que utilizan.
    • Pero también negaron la política del hijo único implementada a finales del siglo pasado, y todos sabemos de lo que son capaces...
    • (Sí, sé que esto fue el gobierno, pero el primero que logre diferenciar gobierno de empresa privada en China, que levante la mano).

Pensamientos finales

Las afirmaciones de DeepSeek, ya sean revolucionarias o un engaño, han inyectado incertidumbre en el panorama de inversión en IA, especialmente en el sector del hardware.

Pero incluso si su modelo realmente logra 27 veces más eficiencia sin GPUs, esto no significa la muerte del hardware gráfico. Si su software es viable, el siguiente paso natural sería usar GPUs junto con CPUs para impulsar la IA hacia la Inteligencia Artificial Fuerte.

Sin embargo, si su éxito se basa en GPUs obtenidas antes de las restricciones o en adquisiciones en el mercado negro, entonces la disrupción está sobrevalorada y la carrera por el hardware sigue intacta.

Dado el historial opaco de China, el escepticismo es necesario, pero también lo es la vigilancia.

Si una nueva arquitectura de software realmente cambia el juego, la economía de la IA se transformará, y los inversores deberán repensar la ecuación tradicional de “GPUs = IA”.

Mientras tanto, NVIDIA sigue teniendo las llaves del reino, ya sea a través de mercados abiertos o canales menos oficiales.