DeepSeek también censura y no es la única: los riesgos de la IA en la era del tecnofeudalismo
![](https://noti-america.com/site/principal/wp-content/uploads/sites/26/2025/02/descarga-2-3.jpeg)
NOTI-AMERICA.COM | ESPAÑA
«Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa» es una de las respuestas más comunes que devuelve el chatbot de inteligencia artificial (IA) DeepSeek, que ha puesto en jaque a sus competidores. El modelo de lenguaje evita responder a preguntas comprometidas y prácticamente cualquier cuestión relacionada con la política china.
Pero, ¿DeepSeek censura más que otras herramientas de IA? Para el Catedrático de Informática y miembro del Centro de Inteligencia Artificial de la Universidad de Valladolid (UVaIA) Valentín Cardeñoso, «todo depende de lo que entendamos por censura». Si a un amplio colectivo de personas no le parece mal que se limiten ciertos aspectos, se entenderá como un control positivo. Sin embargo, cuando se trata de un tema espinoso para una parte de la población, entonces se llamará censura, explica el experto.
Si bien los distintos experimentos prueban que el modelo de DeepSeek restringe las respuestas sobre determinados temas, las acusaciones de censura a un competidor extranjero forman también parte del juego, según la consultora tecnológica especializada en Big Data e Inteligencia Artificial, Cristina Aranda. «¿Por qué TikTok es tan malo o tan bueno? Son ejercicios de estrategia diplomática. Esto se parece a lo que tanto hemos visto en las películas, los americanos son los buenos y los chinos son los malos», reflexiona.
Las restricciones de DeepSeek están profundamente relacionadas con los temas políticos, algo que Cardeñoso considera «evidente por razones claras, dado que China cuenta con una fuerte política de protección y de ciberseguridad, también en temas de inteligencia artificial». En el caso de Estados Unidos, no existe una normativa equivalente, aunque se dan discusiones al respecto. Para la Unión Europea, las cuestiones relacionadas con la ética y el buen uso de una IA confiable son prioritarias y también han conducido a establecer ciertos límites a estos sistemas.
Al promocionarse como un sistema de código abierto, DeepSeek ha compartido amplia documentación sobre el diseño de sus modelos, pero no arroja detalles sobre los filtros censores que ha aplicado. Tras el lanzamiento de su última versión, la aplicación escaló hasta lo más alto de las listas de descargas. La curiosidad por este nuevo competidor ha llevado a muchas personas a ponerlo a prueba. De este modo, se han revelado sus restricciones a la hora de responder a preguntas relacionadas con los sucesos de Tiananmén o por qué al presidente chino le apodan Winnie The Poo, por ejemplo.
Un aspecto fundamental para el profesor de investigación emérito del CSIC y fundador del Instituto de Investigación en Inteligencia Artificial (IIIA), Ramón López de Mántaras, es que la población conozca que las herramientas de IA no entienden lo que se les pregunta, «no se da una comprensión profunda del lenguaje». Por tanto, los filtros que impiden que las respuestas se muestren tal y como las redacta el modelo están introducidos por humanos.
Cuando el modelo recibe un prompt o instrucción, busca y proporciona la respuesta a la consulta. Antes de transmitírsela al usuario, pasa por un sistema que evalúa si el resultado es adecuado o no. Esa es la censura más evidente, pero no la única, explica Cardeñoso. En un nivel más profundo, se encuentra la limitación en la educación del modelo, que ha recibido un entrenamiento controlado.
El proceso de aprendizaje de la herramienta puede estar sesgado, en función de los datos de los que se alimente. «Es algo muy difícil de saber. No conocemos el dataset con el que se ha entrenado porque no se especifica claramente en ninguno de los modelos, por muy abiertos que sean», aclara Cardeñoso.
Sobre el papel, si un usuario accede al código —que DeepSeek ofrece en abierto— y lo instala en local en su propio ordenador, dejaría de estar sujeto a las restricciones impuestas por la compañía, es decir, recibiría respuestas a temas delicados que no estarían disponibles si la misma pregunta se hiciera conectado a los servidores de la empresa. Sin embargo, esta posible limitación en el entrenamiento del modelo se traduce en respuestas condicionadas, también en esa versión local.
Cardeñoso explica que existen sistemas que permiten probar la tasa de censura que presentan los grandes modelos de lenguaje. Para ello, no se limitan a las respuestas que ofrecen a preguntas concretas, sino que evalúan toda una conversación. El experto lo asemeja a esos periodistas hábiles que logran plantear las preguntas adecuadas para conseguir respuestas que el entrevistado, en un inicio, no quería dar. «Se ha visto que, incluso si ejecutas el modelo en local, la respuesta no es tan abierta como te podría dar otra herramienta, eso puede tener que ver con su entrenamiento, pero es casi imposible de saber», explica Valentín.
Como reacción a la censura, algunos usuarios aplican técnicas de jailbreaking, una serie de estrategias diseñadas para esquivar las restricciones. «Por ejemplo, ChatGPT no te puede dar información sobre dónde comprar cocaína, pero ya se hizo el experimento de pedirle una lista de zonas a evitar para no toparse con vendedores de cocaína y ahí sí daba la respuesta», cuenta López de Mántaras. La clave está en la habilidad a la hora de redactar el prompt.
Comentarios recientes