Por Antonhy Aguirre de Mantengamos el Futuro Humano
La humanidad está a punto de desarrollar una inteligencia artificial general que supere la nuestra. Es hora de cerrar las puertas a la inteligencia artificial general y a la superinteligencia … antes de que perdamos el control de nuestro futuro.
A lo largo de la historia, los humanos hemos construido herramientas para ampliar y automatizar nuestras capacidades.
La era de la información nos trajo sistemas que podían, por ejemplo, ganarnos al ajedrez, pero eran altamente especializados y se limitaban a dominios estrechos.
La IA moderna es diferente. Los avances recientes nos han proporcionado sistemas mucho más potentes y de uso general que pueden escribir, codificar y resolver problemas.

En cierto modo, las IA modernas han sido sorprendentemente fáciles de crear. Son más bien «desarrolladas» que construidas, y obtienen su poder de la escala pura en lugar de un código inteligente escrito a mano.
Aprenden procesando enormes cantidades de datos a través de capas de neuronas artificiales. Sus fortalezas de conexión (pesos) codifican gradualmente patrones y características de los datos de entrenamiento.
El resultado es una destilación densa y abstracta de todo lo que se le mostró al modelo.
No hay una manera fácil de entender cómo sus pesos codifican cosas como «felino» o «perro».
A gran escala, perseguir este objetivo simple conduce a capacidades inesperadamente amplias, como la codificación y la resolución de problemas complejos.

Foto: © Andreas Riemenschneider (CC)
Hasta ahora, la simple ampliación de la escala de estos sistemas los ha vuelto más inteligentes. Las corporaciones y los países más poderosos del mundo están invirtiendo cientos de miles de millones de dólares en una carrera para desarrollar una IA más potente.
Algunos están motivados por aspiraciones genuinas de beneficiar a la humanidad. Todos sienten una intensa presión para no quedarse atrás. Nadie quiere provocar un desastre, pero no podemos predecir ni controlar las entidades que este proceso apresurado generará.
La IA ya puede superarnos en tareas específicas. Ahora estamos construyendo algo más profundo: una IA que es mejor que los expertos humanos en prácticamente cualquier tarea . Un sistema de este tipo es una «Inteligencia General Artificial» (AGI).
¿Cómo podemos decidir si un sistema es AGI? Comparar las IA con los humanos puede ser complicado, ya que nuestras habilidades no siempre coinciden. Las definiciones han sido variadas y están cambiando con el tiempo. A medida que las IA sigan ganando poder, necesitaremos un marco riguroso para comprender sus capacidades.
Es útil pensar en la AGI como una combinación de autonomía, generalidad e inteligencia.

Los sistemas actuales son muy inteligentes y generales, pero tienen una autonomía limitada. La carrera mundial de la IA se centra ahora en crear sistemas que nos superen en las tres.
Más allá de la IAG está la ASI, o «superinteligencia artificial», un sistema con mayores capacidades que toda la humanidad junta. Sería imposible para nosotros controlar o comprender un sistema así.
La IAG puede conducir naturalmente a la ASI, a medida que aprende a mejorarse aún más.

Foto: ASKA
Un sistema autónomo sobrehumano seguramente desarrollaría sus propios objetivos. Incluso alineado con nuestros mejores intereses, sería inherentemente incontrolable.
¿Cómo dirigirías, o incluso supervisarías, algo que no pudieras entender? ¿Cómo anticiparías y evitarías perturbaciones catastróficas en los sistemas sociales y económicos?
No debemos apresurarnos a crear entidades que no podamos controlar con seguridad.
No estamos destinados a reemplazarnos con IAG.
Podemos optar por no hacerlo. Aunque la IA general puede ofrecer beneficios, los riesgos existenciales superan con creces las posibles ganancias.
En cambio, deberíamos invertir en desarrollar una «IA de herramientas» poderosa que nos mejore en lugar de eclipsarnos.
En el siguiente link puede encontrar el ensayo completo preparado por Keef the Human Future www.https://keepthefuturehuman.ai/