Expertos mundiales reclaman detener durante seis meses la “carrera sin control” de los nuevos sistemas avanzados de Inteligencia Artificial
Más de un millar de empresarios, intelectuales e investigadores mundiales del sector tecnológico han reclamado en una carta abierta con tono dramático que se suspendan durante seis meses el desarrollo de programas avanzados con Inteligencia Artificial (IA) porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro 'Future of Life Institute'
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.
Entre los firmantes de la misiva, que consideran necesario recapacitar sobre las consecuencias para la Humanidad de estas tecnologías, al advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas, figuran el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”
Incluso, aseguran, que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.
Los firmantes enarbolan los miedos y peligros que en los últimos meses han sido detallados en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.
En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.
Los firmanten subrayan que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.
Los firmanten subrayan que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables
“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dice el comunicado, que pide la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.
GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para crear lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.
La carta abierta propone que, durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.
Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.
Información relacionada: