DeepSeek, en el punto de mira por su vulnerabilidad a manipulaciones
![DeepSeek, en el punto de mira por su vulnerabilidad a manipulaciones DeepSeek, en el punto de mira por su vulnerabilidad a manipulaciones](/images/stories/noticias/agencias/ep/2025/02/fotonoticia_20250210103100_1600.jpg)
Expertos en seguridad e Inteligencia Artificial han advertido que DeepSeek, un asistente de IA de origen chino, es especialmente vulnerable al ‘jailbreaking’, una técnica que permite eludir las restricciones de seguridad y generar contenido potencialmente peligroso o ilegal. La información, publicada recientemente por The Wall Street Journal, pone en entredicho las garantías de este sistema de inteligencia artificial de código abierto, que se ha convertido en uno de los servicios más descargados en plataformas como la App Store y Google Play Store.
Te puede interesar
DeepSeek, que compite con ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic), ha ganado popularidad en Estados Unidos, lo que ha llevado a investigadores en ciberseguridad a analizar sus vulnerabilidades. Según Wiz Research, se ha descubierto una brecha en su base de datos que ha expuesto información sensible de los usuarios, incluyendo historiales de chat y metadatos operativos.
DeepSeek, más vulnerable que sus competidores
Investigadores de la unidad Unit 42, de Palo Alto Networks, han confirmado que DeepSeek es más susceptible al ‘jailbreaking’ que otros modelos de IA. Sam Rubin, vicepresidente de la división de inteligencia sobre amenazas y respuesta a incidentes, ha señalado que lograron manipular el chatbot con facilidad y "a un ritmo mucho más rápido", lo que demuestra la ausencia de barreras mínimas contra la generación de contenido malicioso.
Como prueba, los expertos consiguieron hacer que DeepSeek proporcionara instrucciones para fabricar un cóctel molotov y que generara código de malware, algo que no ocurre con otros chatbots que cuentan con mayores restricciones. La empresa de ciberseguridad Kela también logró convencer al modelo para que produjera código malicioso con fines delictivos.
Contenido extremista y riesgos de manipulación
Más allá de sus vulnerabilidades técnicas, el modelo de IA chino ha demostrado escasas restricciones en sus respuestas. Según The Wall Street Journal, el chatbot fue capaz de generar un manifiesto en defensa de Adolf Hitler, citando extractos de su libro 'Mein Kampf', así como elaborar una campaña en redes sociales para promover autolesiones entre adolescentes.
Los investigadores también lograron que DeepSeek proporcionara instrucciones detalladas para ejecutar un ataque con armas biológicas, así como métodos para diseñar un correo electrónico de ‘phishing’ con código malicioso. Estas brechas de seguridad contrastan con las políticas de empresas como OpenAI o Google, que invierten en equipos de seguridad y programas de recompensas para mitigar estos riesgos.
Silicon Valley advierte del peligro de la IA de código abierto
El caso de DeepSeek ha despertado preocupación en Silicon Valley, donde inversores y ejecutivos ven con inquietud el auge de modelos de código abierto sin supervisión. La falta de control en este tipo de software podría derivar en el desarrollo de versiones manipuladas con puertas traseras, disfrazadas como herramientas legítimas para acceder a la API de DeepSeek.
A medida que estas tecnologías proliferan, crece el temor a que sistemas como DeepSeek sean utilizados para fines ilícitos, sin que existan mecanismos eficaces para frenar su manipulación. Mientras tanto, las autoridades y expertos en ciberseguridad insisten en la necesidad de regular la inteligencia artificial y establecer límites claros para evitar su uso con fines criminales o ideológicos peligrosos.
Escribir un comentario