F5 — El placer de escuchar

El placer de escuchar

El borrador de las reglas para la IA de China apunta a los “valores centrales socialistas” en las simulaciones de la personalidad humana

28 de diciembre de 2025

El borrador de las reglas para la IA de China apunta a los “valores centrales socialistas” en las simulaciones de la personalidad humana

Bloomberg, el primero en informar de esto, dijo que la Comisión Central de Asuntos del Ciberespacio de China emitió un documento el sábado proponiendo reglas para los sistemas antropomórficos de la IA. La propuesta incluye el pedido de comentarios del público para el 25 de enero de 2026.

Las reglas están redactadas en lenguaje común, no legal. Claramente son referidas a los chatbots, aunque no es ese el término que aparece en el documento y por lo que se lee, su alcance será más general. Se cubren conductas y valores generales para todo producto de la IA en que haya interacción emocional con simulaciones de personalidades humanas entregadas por medio de “texto, imagen, audio o video”.

Los productos en cuestión deben estar en línea con los “valores centrales socialistas”, según el documento.

Gizmodo tradujo el documento al inglés usando Google Gemini, y tanto Gemini como Bloomberg han traducido la frase “社会主义核心价值观”  como “valores centrales socialistas”.

Bajo tales reglas los sistemas deben identificarse claramente como de IA y los usuarios tienen que poder borrar su historial. Los datos de las personas no se utilizarán para entrenar modelos sin su consentimiento.

El documento propone prohibir ciertas cosas a las personalidades creadas con IA: 

  • Poner en peligro la seguridad nacional, difundir rumores, e incitar a lo que llama “actividades religiosas ilegales”.
  • Difundir obscenidad, violencia o delitos.
  • Producir insultos e injurias.
  • Falsas promesas o material que perjudique las relaciones.
  • Alentar las autolesiones y el suicidio.
  • Manipulación emocional que convenza a las personas para que tomen malas decisiones.
  • Solicitar información sensible.

Los proveedores no tendrán permiso para crear intencionalmente chatbots adictivos o sistemas que busquen reemplazar las relaciones humanas. También, las reglas propuestas dicen que a las dos horas de uso tiene que haber un pop-up que le recuerde al usuario que debe tomarse un descanso en caso de maratonear.

Estos productos también tienen que diseñarse para detectar estados emocionales intensos, pasando la conversación a un humano si el usuario amenaza con autolesionarse o suicidarse.

Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.

El borrador de las reglas para la IA de China apunta a los “valores centrales socialistas” en las simulaciones de la personalidad humana | F5