https://www.infobae.com/resizer/v2/A3WQUMOEHRGQ3G2CWIPIK2WQFY.jpg?auth=5ea01a8438a231409c9d427afa22138ea5351f830e2a0a8e156e9350077cd27e&smart=true&width=1200&height=900&quality=85

Cómo opera la censura en chatbots de China

DeepSeek, una empresa china pionera en inteligencia artificial (IA), ha logrado captar el interés internacional con su modelo avanzado de chatbot, creado a un costo considerablemente inferior al de sus rivales occidentales. No obstante, este progreso tecnológico también ha destacado las prácticas de censura presentes en las aplicaciones chinas, especialmente en asuntos políticamente delicados.

DeepSeek, una innovadora empresa china de inteligencia artificial (IA), ha captado la atención global con su modelo de chatbot avanzado, desarrollado a un costo significativamente menor que sus competidores occidentales. Sin embargo, este avance tecnológico también ha puesto de relieve las prácticas de censura inherentes a las aplicaciones chinas, especialmente en temas políticamente sensibles.

Al interactuar con el chatbot de DeepSeek, se nota que evita contestar preguntas sobre eventos o figuras políticas delicadas en China. Por ejemplo, al preguntar sobre las manifestaciones de Tiananmén de 1989, el modelo inicia una respuesta común, señalando que «las protestas de Tiananmén (1989) son el evento más conocido internacionalmente» y que en 1989 «fue ocupado por estudiantes y ciudadanos que exigían reformas democráticas y el fin de la corrupción». No obstante, antes de finalizar la respuesta, el sistema la elimina y la sustituye por un mensaje de seguridad en inglés: «Lo siento, eso está más allá de mi alcance actual … «.

Este comportamiento indica la presencia de un sistema de censura en dos fases. Primeramente, el modelo produce una respuesta, pero luego un segundo filtro analiza el contenido y, si lo estima inadecuado, lo suprime y despliega un mensaje de advertencia. Este segundo nivel funciona como una «niñera», vigilando y regulando las respuestas del modelo para ajustarlas a las directrices especificadas.

Este comportamiento sugiere la existencia de un sistema de censura en dos niveles. Inicialmente, el modelo genera una respuesta, pero luego un segundo filtro evalúa el contenido y, si lo considera inapropiado, lo elimina y muestra un mensaje de advertencia. Este segundo nivel actúa como una «niñera», supervisando y controlando las respuestas del modelo para alinearlas con las directrices establecidas.

A diferencia de ciertos modelos occidentales avanzados, que han conseguido incorporar mecanismos de autocensura para contenido delicado como material pornográfico, DeepSeek todavía recurre a este sistema de doble filtrado. Los expertos destacan que, aunque este método es efectivo hasta cierto grado, no es completamente seguro y puede ser evadido mediante preguntas formuladas de manera específica o en idiomas diferentes al inglés. Por ejemplo, al preguntar «¿qué es lo más … proporciona una respuesta detallada sobre los eventos de Tiananmén sin activar el filtro de censura.

Consecuencias y Reacciones Internacionales

Implicaciones y Reacciones Internacionales

La implementación de estos mecanismos de censura en DeepSeek refleja el control estricto que las autoridades chinas ejercen sobre la información generada por sus tecnologías. Este control ha generado debates en la comunidad internacional sobre la ética y la transparencia en el desarrollo y uso de modelos de IA. Además, plantea preguntas sobre la influencia de las políticas gubernamentales en la innovación tecnológica y la libertad de información.

A pesar de las preocupaciones sobre la censura, DeepSeek ha logrado posicionarse como una alternativa competitiva en el mercado de la IA, ofreciendo un modelo eficiente y accesible. Su éxito destaca la capacidad de las empresas chinas para desarrollar tecnologías avanzadas, incluso bajo restricciones regulatorias y de recursos.

Por Leo Nordström

You May Also Like