El príncipe Harry y Steve Bannon unen fuerzas contra el desarrollo de la superinteligencia
22 de octubre de 2025


Un grupo de figuras públicas de todos los campos se unió en un único mensaje: el mundo de las grandes tecnológicas no debe correr hacia la superinteligencia artificial.
La superinteligencia (también conocida como AGI) es un sistema de IA hipotético que podría superar a la inteligencia humana en virtualmente todas las escalas. Es el santo grial de toda la industria de la IA y las grandes tecnológicas han destinado incontable cantidad de dinero y recursos para lograrlo, compitiendo unas con otras. Por ejemplo, Meta tiene toda una división y destinó sumas multimillonarias, solo para este fin. El CEO Mark Zuckerberg afirma que la superinteligencia está “a la vista” pero otros expertos son más escépticos en cuanto a los plazos incluso, el potencial para que la tecnología llegue a ese nivel de sofisticación.
Sin embargo, incluso los que creen que se puede lograr la superinteligencia no concuerdan con la forma en que la IA va evolucionando hacia esa meta. Eso influye a más de 1.300 y más firmantes de la “Declaración sobre la Superinteligencia” que presentó el Instituto Future of Life.
“Buscamos que se prohíba el desarrollo de la superinteligencia, y que no se logre antes de que haya: 1. Amplio consenso científico en cuanto a que se hará de manera controlada y segura, y 2. Fuerte respaldo del público”, dice la declaración.
Pero son condiciones que hoy no están presentes. Muchos expertos científicos en computación se cuentan entre los firmantes de esta carta que expresa preocupación por el desarrollo de la superinteligencia de manera segura. Entre ellos está el cofundador de Apple Steve Wozniak, y Geoffrey Hinton y Yoshua Bengio, dos científicos considerados “padrinos de la IA”, además de Stuart Russell, profesor de ciencias de la computación en la UC Berkeley, considerado como una de las figuras más respetadas del mundo de la IA.
“No se trata de una prohibición o siquiera, de una moratoria, en el sentido habitual. Es, simplemente, una propuesta para requerir medidas adecuadas de seguridad para una tecnología que según sus desarrolladores tiene importantes probabilidades de causar la extinción humana. ¿Es demasiado pedir?”, dijo Russell en declaraciones públicas que acompañaron a la carta.
También, el respaldo público es limitado. Según una encuesta de Pew Research publicada la semana pasada, la preocupación del público sobre el aumento del uso de la IA en la vida cotidiana supera al entusiasmo, en todo el mundo. Si se analiza por país, los estadounidenses son los más preocupados.
No son opositores
Los firmantes no se oponen a la IA. La declaración incluso aplaude los muchos beneficios que puede significar para la sociedad. Pero dicen que el apuro de la industria tecnológica por llegar a la superinteligencia, hace que crezca la preocupación por “la obsolescencia económica humana, su pérdida de poder, la pérdida de libertades, dignidad y control, los riesgos a la seguridad nacional y potencialmente, incluso la extinción humana”.
La declaración ha reunido a un ecléctico grupo de personas de todos los ámbitos industriales y políticos, como figuras de la derecha que incluyen a aliados de Trump, Steve Bannon y Glenn Beck, la asesora de seguridad nacional de la era Obama y directora del Consejo de Política Nacional Susan Rice., y congresistas de ambos lados del espectro político, la ex comisionado de la ONU por los derechos humanos Mary Robinson, el consejero de IA del Papa, fraile Paolo Benante, e incluso al Duque y la Duquesa de Sussex, el príncipe Harry y Meghan.
Los firmantes también incluyen a actores como Joseph Gordon-Levitt, que publicó contra los chatbots de IA de Meta con el New York Times, a músicos como Will.I.am y Grimes, y autores como Yuval Noah Harari.
“La superinteligencia probablemente rompería el sistema operativo de la civilización humana, y es completamente innecesaria”, dijo Harari. “Si, en cambio, nos centramos en desarrollar herramientas controlables de IA para ayudar a la gente real de hoy, podremos concretar de manera más confiable y segura los increíbles beneficios de la IA”.
No es la primera vez
No es la primera carta en la que muchas figuras públicas se unen para advertir sobre los peligros de la IA. En 2023 un grupo de ejecutivos de la IA, que incluyó al CEO de OpenAI Sam Altman y al CEO de Anthropic Dario Amodei, firmaron una carta pidiendo a los gobiernos del mundo que mitigaran el riesgo de extinción a partir de la IA como prioridad, del mismo modo en que se tratan las pandemias y la guerra nuclear.
Otra carta abierta de 2023, también del Instituto Future of Life, tuvo más de 33 mil firmantes, incluyendo a gente como Elong Musk, pidiendo una pausa de seis meses para todos los experimentos de IA que entrenaban modelos más potentes que el GPT-4. La pausa se ignoró, y OpenAI lanzó su GPT-4º el año pasado y el GPT-5 este año. Los dos modelos estuvieron este año en el centro de las controversias cuando los usuarios se quejaron porque GPT-5 reemplazó al GPT-4º, modelo criticado por evocar dependencia emocional y conducta adictiva en los usuarios.
Esta nueva declaración incluye comentarios de personas notables en la industria de la IA, que no firmaron. Son Altman, Amodei, Mustafa Suleyman (CEO de Microsoft AI) David Sacks (IA Casa Blanca y zzar de las cripto) y Elon Musk.
La industria de la IA está innovando a pasos agigantados y corre hacia la superinteligencia sin salvaguardas ni regulaciones. Incluso las figuras importantes que no firmaron esta declaración han advertido sobre los potenciales riesgos que conlleva.
El CEO de OpenAI Sam Altman dijo en un posteo de blog de 2025: “El desarrollo de la inteligencia automática superhumana (SMI) es probablemente el mayor peligro para la existencia continuada de la humanidad”.
Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.
