DeepSeek ¿Transparencia artificial o herramienta estratégica del PCCh?
En medio del creciente dominio occidental en el desarrollo de modelos de lenguaje, la irrupción de DeepSeek, una startup china fundada en 2023 por Liang Wenfeng, marca un hito notable no solo por sus capacidades técnicas, sino por las implicaciones geopolíticas y éticas que conlleva. Su modelo DeepSeek-R1, liberado como open source, se postula como alternativa directa a titanes como OpenAI, Anthropic o Meta, prometiendo transparencia y colaboración comunitaria.
Pero ¿puede un modelo respaldado por un Estado conocido por su férreo control informativo ser considerado realmente libre?
Un modelo abierto… hasta cierto punto
DeepSeek ha atraído atención por publicar su modelo de lenguaje bajo una licencia abierta. En principio, esto permite que desarrolladores, investigadores y entusiastas auditen su arquitectura, evalúen sesgos y adapten el modelo a necesidades particulares. Esta iniciativa contrasta con el secretismo progresivo de OpenAI, que desde GPT-2 a GPT-4 ha avanzado en capacidades pero retrocedido en transparencia.
Sin embargo, es necesario establecer una distinción técnica y ética crucial: un modelo de IA no es solo código, sino también datos y contexto. DeepSeek-R1 es abierto en cuanto a pesos y arquitectura, pero no ha revelado sus datasets de entrenamiento, lo cual impide evaluar de manera rigurosa el sesgo estructural que podría incorporar. Y cuando ese entrenamiento ocurre en un país con estrictos controles estatales sobre la información, las dudas se multiplican.
Riesgos de instrumentalización estatal
China ha demostrado en múltiples ocasiones su capacidad para integrar tecnología con control sociopolítico. Desde sistemas de vigilancia masiva con reconocimiento facial hasta mecanismos de puntuación ciudadana, el régimen de Pekín ha consolidado un ecosistema digital alineado con sus objetivos internos.
En este contexto, el respaldo gubernamental a DeepSeek no es anecdótico, sino estratégico. Modelos como DeepSeek-R1 podrían estar diseñados para:
- Evitar respuestas sobre temas sensibles (Taiwán, Tiananmen, derechos humanos, etc.).
- Reforzar narrativas oficiales mediante respuestas moldeadas según la posición del Partido Comunista.
- Infiltrar el mercado internacional con herramientas técnicamente válidas pero alineadas ideológicamente.
Incluso si el código es auditado, si los datos de entrenamiento son opacos o están seleccionados bajo criterios censurados, la neutralidad del sistema se ve comprometida.
¿Y qué hay de OpenAI? ¿Cuán «open» sigue siendo?
Es fácil mirar a Oriente con recelo. Pero sería ingenuo ignorar que Occidente no está exento de intereses. OpenAI, cuyo nombre sugiere una filosofía abierta, ha evolucionado hacia un modelo corporativo cerrado y exclusivo. Desde 2019, con la inversión de $1.000 millones de Microsoft (ahora uno de sus principales propietarios), OpenAI ha priorizado modelos comerciales, cerrando el acceso a pesos, datos y procesos de entrenamiento de GPT-4 y posteriores.
Además, en su última ronda de financiación por $6.600 millones, se sumaron inversores como SoftBank, Nvidia y MGX (ligada al gobierno de Abu Dabi), lo cual plantea interrogantes sobre el tipo de intereses que podrían condicionar el desarrollo y orientación de sus modelos.
Tanto DeepSeek como OpenAI, en última instancia, están influenciadas por actores de poder político o económico. La diferencia es que mientras DeepSeek se alinea con objetivos estatales chinos, OpenAI podría estar respondiendo a estrategias de hegemonía tecnológica occidental.
Conclusión crítica: ¿quién audita al auditor?
El debate no se trata de elegir entre el «bando bueno» y el «malo», sino de reconocer que ningún modelo de lenguaje es neutral si su entrenamiento, arquitectura y objetivos están condicionados por intereses externos —sean estatales o corporativos—. Lo verdaderamente relevante es:
- Exigir transparencia no solo en el código, sino en los datos y en las políticas de uso.
- Fomentar una comunidad global de auditoría independiente, capaz de verificar, cuestionar y reentrenar modelos con datasets abiertos y diversos.
- Promover el desarrollo de modelos democráticos, creados por y para comunidades con intereses educativos, científicos y sociales, no solo comerciales o ideológicos.
DeepSeek representa una valiosa oportunidad técnica —especialmente si se reutiliza con datos más neutrales—, pero también una advertencia: la inteligencia artificial no es solo una herramienta, sino también un terreno de disputa geopolítica.
En un mundo donde los sistemas automatizados influyen en cómo entendemos la realidad, la mejor defensa sigue siendo el pensamiento crítico. Ninguna IA —sea china, estadounidense o comunitaria— debería ser usada como fuente única de verdad.
La pluralidad, la transparencia y la ética no pueden ser funcionalidades opcionales. Deben ser los pilares sobre los que se construye una inteligencia verdaderamente confiable y al servicio de la humanidad.























