DeepSeek, el modelo de IA chino que enfrenta prohibiciones globales por riesgos de seguridad y censura

Filtraciones de datos y preocupaciones sobre soberanía tecnológica

El modelo de inteligencia artificial DeepSeek, desarrollado en China, ha provocado alertas regulatorias y prohibiciones en diversos países debido a graves vulnerabilidades de seguridad y privacidad. Entre los principales riesgos detectados se encuentran la exposición de datos personales, el acceso potencial del Estado chino a la información de los usuarios y una alineación política con los intereses del Partido Comunista Chino.

Estas preocupaciones han impulsado a Europa y Asia a reforzar sus medidas de protección de datos y debatir sobre la soberanía tecnológica frente a la creciente influencia de la inteligencia artificial china.

Riesgos en la gestión de datos personales

La polémica se centra en la política de privacidad de DeepSeek, que obliga a almacenar toda la información de los usuarios —como registros, historiales de uso, direcciones IP y datos de terceros— en servidores ubicados en China.
Además, la empresa declara que puede utilizar las conversaciones y resultados generados por los usuarios para entrenar sus modelos, lo que implica que incluso datos confidenciales pueden ser aprovechados comercial o técnicamente.

El marco legal chino, especialmente la Ley de Seguridad Nacional, otorga al Estado amplios poderes para acceder a esa información con el argumento de proteger la seguridad nacional. En enero de 2025, Italia prohibió el uso del modelo alegando falta de transparencia y negativa de la empresa a cumplir con la legislación europea.
Irlanda, Corea del Sur y Taiwán siguieron pasos similares, citando riesgos de seguridad nacional y falta de cumplimiento normativo.

Fallos graves de ciberseguridad e infraestructura

Investigadores de seguridad revelaron que, a comienzos de 2025, una base de datos de DeepSeek permaneció expuesta sin autenticación, lo que permitió acceder a más de un millón de registros internos. Entre ellos se encontraban historiales de chats, claves API, secretos criptográficos y metadatos operativos.

El hallazgo demostró que la empresa priorizó la velocidad de desarrollo sobre la seguridad, dejando su infraestructura vulnerable al espionaje corporativo y a la manipulación por parte de actores externos.

En el plano técnico, los modelos DeepSeek-R1 y DeepSeek-V3 han mostrado debilidades frente a ataques de jailbreaking, permitiendo a investigadores forzar respuestas peligrosas, como la generación de código malicioso o herramientas de ciberataque. Estas vulnerabilidades los colocan en varias categorías críticas del Top 10 de OWASP para modelos de lenguaje.

Implicaciones legales, políticas y geopolíticas

DeepSeek ha sido vinculado con organismos estatales y militares chinos, lo que alimenta las sospechas de que opera como un instrumento de recopilación de datos más que como una empresa tecnológica independiente.
Además, el modelo censura sistemáticamente más del 85% de las respuestas relacionadas con temas como democracia, derechos humanos o libertad de expresión, alineándose con los “valores socialistas fundamentales” exigidos por el gobierno chino.

A esto se suman acusaciones de violación de propiedad intelectual, debido a similitudes con modelos occidentales como Gemini y ChatGPT. Investigaciones independientes sugieren que la empresa habría empleado técnicas de destilación y exfiltración de datos para acelerar su desarrollo.

Los términos de uso de DeepSeek trasladan además la responsabilidad legal de posibles infracciones a los propios usuarios, exponiéndolos a litigios internacionales.

Desempeño técnico y riesgos en sectores críticos

Aunque su adopción ha crecido en China —especialmente en el ámbito médico, donde cientos de hospitales lo han implementado—, especialistas advierten que el modelo genera respuestas incorrectas con apariencia convincente, un fenómeno conocido como “alucinación”.
En contextos sanitarios, esto puede conducir a errores de diagnóstico o tratamientos inadecuados, lo que agrava las preocupaciones sobre su uso en entornos sensibles.

Recomendaciones y conclusiones

Expertos en ciberseguridad y organismos regulatorios coinciden en que el uso de DeepSeek no es recomendable para entidades que gestionen datos personales o confidenciales, debido a su baja fiabilidad técnica, opacidad jurídica y alineación política con el Estado chino.

Se aconseja a gobiernos, empresas y universidades:

  • Evitar el uso de DeepSeek en entornos críticos o regulados.

  • Implementar auditorías de seguridad exhaustivas si el modelo se emplea para investigación.

  • Priorizar alternativas con cumplimiento comprobado de normas como el GDPR o el NIST AI Risk Management Framework.

La combinación de ingeniería inmadura, vulnerabilidades estructurales y sesgo ideológico convierte a DeepSeek en un modelo de alto riesgo, capaz de comprometer tanto la privacidad individual como la seguridad institucional.

El caso refleja un desafío global: cómo equilibrar la innovación en inteligencia artificial con la protección de la soberanía digital y la seguridad de los datos en un contexto de creciente competencia tecnológica entre potencias.

Entradas relacionadas