Países prohíben el uso del modelo chino por riesgos de seguridad y manipulación política
El modelo de inteligencia artificial DeepSeek ha desatado una ola de preocupaciones internacionales debido a su política de almacenamiento de datos en servidores ubicados en China, su alineación con intereses estatales y sus vulnerabilidades técnicas. Estas características han motivado a diversos países a imponer prohibiciones o restricciones sobre su uso, en un contexto global donde la soberanía tecnológica y la protección de datos se han convertido en prioridades estratégicas.
Riesgos en privacidad y control estatal
Las políticas de DeepSeek obligan a que toda la información personal de los usuarios se conserve dentro del territorio chino, bajo las leyes de seguridad nacional del país. Esto significa que el Estado puede acceder a esos datos cuando lo considere necesario, lo que genera inquietud entre reguladores y expertos en ciberseguridad. Además, la empresa utiliza las interacciones de los usuarios para entrenar su modelo, lo que incrementa el riesgo de exposición de información sensible.
Italia fue uno de los primeros países en prohibir la plataforma a principios de 2025, argumentando una falta de transparencia en el manejo de datos. Irlanda y Corea del Sur siguieron con medidas similares, mientras que Taiwán vetó su uso en instituciones públicas por motivos de seguridad nacional. Estas decisiones evidencian una creciente desconfianza hacia la infraestructura tecnológica china y su potencial influencia política.
Vulnerabilidades técnicas y espionaje
Investigadores detectaron que una base de datos interna de DeepSeek permaneció expuesta públicamente sin autenticación, permitiendo el acceso a información confidencial como historiales de chat, claves API y metadatos. Este fallo de seguridad demostró que la compañía priorizó el desarrollo acelerado de su sistema por encima de las medidas básicas de protección.
Asimismo, pruebas realizadas por expertos en ciberseguridad revelaron que las versiones DeepSeek-R1 y DeepSeek-V3 pueden ser manipuladas fácilmente mediante técnicas de jailbreaking, logrando que el modelo genere código malicioso y herramientas de ciberataque. Esta falta de robustez técnica lo coloca por debajo de los estándares internacionales y plantea serios riesgos para las organizaciones que manejen información confidencial.
Censura y sesgo ideológico
Otro punto crítico es la censura implementada por el sistema. Más del 80% de las respuestas de DeepSeek sobre temas políticos sensibles, como democracia o derechos humanos, resultan alteradas o suprimidas. La empresa justifica estas prácticas en su obligación de reflejar los “valores socialistas fundamentales” del gobierno chino.
Adicionalmente, expertos internacionales han identificado similitudes entre el código de DeepSeek y modelos occidentales como ChatGPT o Gemini, lo que genera sospechas de apropiación de propiedad intelectual. En sus términos de uso, la compañía transfiere la responsabilidad de posibles infracciones a los usuarios, exponiéndolos a sanciones legales.
Implicaciones y advertencias
Analistas concluyen que la adopción de DeepSeek representa un riesgo elevado para gobiernos, empresas y usuarios individuales. Las fallas estructurales de seguridad, la dependencia de servidores estatales y el sesgo ideológico convierten a este modelo en una amenaza potencial para la privacidad global.
Por ello, los expertos recomiendan a las entidades públicas y privadas evitar su implementación hasta que existan garantías verificables de protección de datos y transparencia algorítmica. La comunidad internacional continúa observando con cautela la expansión de DeepSeek, mientras el debate sobre soberanía digital y control tecnológico se intensifica.
