(París, Francia). Más de 700 científicos, políticos y celebridades, incluido el príncipe Harry, pidieron el miércoles poner fin al desarrollo de una inteligencia artificial (IA) que puede superar las capacidades humanas.
“Exigimos que se detenga el desarrollo de la superinteligencia hasta que haya un consenso científico para construirla de forma controlada y segura, y hasta que haya apoyo popular”, dice el sitio web de la iniciativa del Future of Life Institute, una organización sin fines de lucro con sede en Estados Unidos que alerta sobre los efectos nocivos de la IA.
Entre los firmantes se encuentran varios creadores de la IA moderna, como Geoffrey Hinton, Premio Nobel de Física 2024, Stuart Russell, profesor de informática en la Universidad de California en Berkeley, y Yoshua Bengio, profesor de la Universidad de Montreal.
En la lista también figuran destacadas figuras del mundo de la tecnología como Richard Branson, fundador de Virgin Group, y Steve Wozniak, cofundador de Apple; Figuras políticas como Steve Bannon, exasesor del presidente estadounidense Donald Trump, y Susan Rice, asesora de seguridad nacional durante la presidencia de Barack Obama. También firman líderes religiosos como Paolo Benanti, asesor del Papa y experto en IA más importante del Vaticano, y celebridades como el cantante estadounidense will.i.am y el príncipe Enrique y su esposa Meghan Markle.
Que no supere al hombre
La mayoría de las principales empresas de IA apuntan a desarrollar inteligencia artificial general (AGI), una etapa en la que esta tecnología alcanzaría todas las capacidades intelectuales humanas, pero también una superinteligencia que iría más allá.
Para Sam Altman, director ejecutivo de OpenAI, la empresa que desarrolló ChatGPT, el umbral de la superinteligencia podría alcanzarse en cinco años, dijo en septiembre.
«No importa si es dentro de dos o quince años, construir algo como esto es inaceptable», dijo a la AFP Max Tegmark, presidente del Future of Life Institute, para el que las empresas no deberían trabajar en proyectos de este tipo «sin ningún marco regulatorio».
«Se puede estar a favor del desarrollo de herramientas de inteligencia artificial más potentes, por ejemplo para curar el cáncer, y al mismo tiempo estar en contra de la superinteligencia», añadió.