Steve Bannon, el principe Harry e y Richard Branson se sumaron a un grupo de figuras públicas que llaman a una “prohibición” del desarrollo de la llamada superinteligencia, en una alianza poco común contra los sistemas avanzados de inteligencia artificial.
Más de 800 personas, entre ellas científicos de IA, políticos, celebridades y líderes religiosos, firmaron una declaración para impedir la creación de “superinteligencia”, sistemas de IA más inteligentes que la mayoría de los humanos.
“Hacemos un llamado a una prohibición del desarrollo de la superinteligencia, que no se levantará antes de que exista un amplio consenso científico de que se hará de manera segura y controlable, y con un fuerte respaldo público”, dice la declaración.
Entre los firmantes figuran los “padrinos” de la IA Geoffrey Hinton y Yoshua Bengio, la expresidenta de Irlanda Mary Robinson y Megan Markle.
El Future of Life Institute (FLI), una organización sin fines de lucro de campaña, publicó la carta el miércoles junto con una encuesta que muestra que 5% de los estadounidenses apoya “el status quo actual de desarrollo no regulado”. Casi tres cuartas partes de los encuestados se mostraron a favor de una regulación robusta, según el sondeo realizado por el grupo.
El presidente del Instituto, Max Tegmark, dijo al Financial Times: “Es nuestra humanidad la que nos reúne aquí… Cada vez más personas empiezan a pensar que la mayor amenaza no es la otra empresa o incluso el otro país, sino quizá las máquinas que estamos construyendo”.
Las alarmas ya están encendidas
Varias grandes empresas de Big Tech y startups de IA, incluyendo OpenAI, Meta y Google, compiten ferozmente por ser las primeras en desarrollar “superinteligencia” o inteligencia artificial general. Ambos términos suelen referirse a sistemas de IA que pueden superar a los humanos en la mayoría de las tareas.
En marzo de 2023, cinco meses después del lanzamiento de ChatGPT, expertos en tecnología —entre ellos Elon Musk— difundieron una declaración similar organizada por FLI, que pedía una moratoria de seis meses en todo el desarrollo de IA. Sin embargo, xAI, la empresa de Musk, continúa construyendo sistemas de IA.
La declaración más reciente es más acotada y “absolutamente no pide una pausa en el desarrollo de la IA”, señaló Tegmark. “No se necesita superinteligencia para curar el cáncer, para los autos autónomos, o para mejorar masivamente la productividad y la eficiencia”, añadió.
Varios destacados científicos chinos firmaron la declaración, entre ellos Andrew Yao y Ya-Qin Zhang, ex presidente de Baidu.
Otros firmantes incluyen a exfuncionarios gubernamentales como Susan Rice, quien fue asesora de seguridad nacional durante el entonces presidente Barack Obama, y Mike Mullen, exjefe del Estado Mayor Conjunto en las administraciones de Obama y George W. Bush.
Tegmark afirmó: “La pérdida de control es algo que se considera una amenaza a la seguridad nacional tanto en Occidente como en China. Estarán en contra por sus propios intereses; por lo tanto, no necesitan confiar entre sí en absoluto”.
También firmó el cofundador de Apple, Steve Wozniak.
El panorama regulatorio global para la IA avanza lentamente; la legislación más desarrollada, la Ley de IA de la UE, se está implementando por etapas pese a las duras críticas de la industria.
En Estados Unidos, estados como California, Utah y Texas han promulgado leyes específicas sobre IA. Una propuesta de moratoria de 10 años sobre la regulación de la IA fue retirada del presupuesto federal en julio.