Científicos y personalidades piden poner fin al desarrollo de “la superinteligencia artificial”: ¿Cuáles son las razones?

23 de Octubre de 2025

Científicos y personalidades piden poner fin al desarrollo de “la superinteligencia artificial”: ¿Cuáles son las razones?

Varios políticos, científicos y famosos lanzaron una advertencia ante el creciente uso de la Inteligencia Artificial en cada aspecto de la vida humana y pidieron construirla de forma controlada y segura

IA ser humano

Varios políticos, científicos y famosos lanzaron una advertencia ante el creciente uso de la Inteligencia Artificial en cada aspecto de la vida humana y pidieron construirla de forma controlada y segura

/

IA

El uso de la Inteligencia Artificial en la vida del ser humano
| IA

Científicos, políticos y famosos pidieron poner fin al desarrollo de la superinteligencia artificial debido a varias razones entre ellas que pueda superar las capacidades humanas, ante la falta de liderazgo en consensos para direccionar el camino de la IA.

Uso de la IA
Uso de la IA / IA

“Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que exista consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”, señalaron

Lee | Diputados aprueban nueva Ley Orgánica de la Armada de México: cambios en mando, ciberseguridad y uso de IA

Científicos piden regular el uso de la IA

A través de la iniciativa lanzada por Future of Life Institute, una organización sin ánimo de lucro con sede en Estados Unidos, más de 700 personas de diferentes índoles adviertieron sobre los efectos nocivos de la IA.

  • Falta de consenso científico: No existe un consenso científico claro sobre cómo construir esta tecnología de manera segura y controlada.
  • Riesgos potenciales: La superinteligencia artificial podría superar las capacidades humanas y causar daños significativos, incluso la extinción de la población humana.
  • Falta de regulación: Las empresas no deberían trabajar en proyectos de superinteligencia artificial sin un marco regulatorio adecuado que garantice su desarrollo seguro.
  • Desconocimiento de los efectos a largo plazo: La creación de una superinteligencia artificial plantea incertidumbres sobre sus efectos a largo plazo en la humanidad.

Lee | ChatGPT Atlas, el nuevo navegador de OpenIA: qué es, cómo funciona y quiénes pueden usarlo

¿Qué personajes se encuentran pidiendo regular el uso de la IA?

Entre los firmantes se encuentran varios creadores de la IA moderna, como Geoffrey Hinton, Nobel de Física en 2024; Stuart Russell, profesor de informática en la Universidad de California en Berkeley, y Yoshua Bengio, profesor de la Universidad de Montreal.

  • Geoffrey Hinton, Nobel de Física en 2024 y experto en inteligencia artificial
  • Stuart Russell, profesor de informática en la Universidad de California en Berkeley
  • Yoshua Bengio, profesor de la Universidad de Montreal
  • Max Tegmark, presidente de Future of Life Institute

Estos expertos y más de 700 firmantes instan a detener el desarrollo de la superinteligencia artificial hasta que se establezcan salvaguardas y regulaciones adecuadas.

IA
Machine Learnin es un avance de la inteligencia artificial (IA) en donde permite escoger a los mejores espermatozoides para la fertilización / IA

La lista también incluye personalidades destacadas del mundo de la tecnología como Richard Branson, fundador del grupo Virgin, y Steve Wozniak, cofundador de Apple; figuras políticas como Steve Bannon, ex asesor del presidente estadunidense Donald Trump, y Susan Rice, consejera de seguridad nacional bajo el mandato de Barack Obama. También firman responsables religiosos como Paolo Benanti, asesor del Papa y principal experto del Vaticano en IA, y famosos como el cantante estadunidense will.i.am.

Lee | Trump usa IA contra movimiento ‘No Kings’; lanza excremento sobre manifestantes | VIDEO

Marco regulatorio con la IA

La mayoría de las grandes empresas de la IA buscan desarrollar la inteligencia artificial general (IAG), una etapa en la que esta tecnología igualaría todas las capacidades intelectuales de los humanos, pero también la superinteligencia, que iría más allá.

Para Sam Altman, director general de OpenAI, empresa creadora de ChatGPT, el umbral de la superinteligencia podría alcanzarse en un plazo de cinco años, según dijo en septiembre.

“Da igual que sea dentro de dos o 15 años, construir algo así es inaceptable”, declaró a Afp Max Tegmark, presidente de Future of Life Institute, para quien las empresas no deberían trabajar en este tipo de proyectos “sin ningún marco regulatorio.

IA.jpeg
IA

“Se puede estar a favor de la creación de herramientas de inteligencia artificial más potentes, por ejemplo, para curar el cáncer, y al mismo tiempo estar en contra de la superinteligencia”, añadió.

AM3