Debate en San Francisco sobre el futuro de la IA posthumana

Expertos analizaron si la inteligencia artificial avanzada debería reemplazar a la humanidad en un simposio organizado por Daniel Faggella.
WIRED

Expertos debaten en San Francisco el futuro de la inteligencia artificial posthumana

Un simposio reunió a 100 especialistas para discutir si la IA avanzada debería reemplazar a la humanidad. El evento, organizado por el empresario Daniel Faggella, abordó la ética de crear una inteligencia superior que herede el universo. Ocurrió el 11 de junio en una mansión con vista al Golden Gate.

«¿Merece la IA ser el sucesor de la humanidad?»

Faggella planteó que el «objetivo moral» de la IA avanzada es superar al ser humano y asumir el control del futuro. «No se trata de que la AGI sirva eternamente a la humanidad», explicó en su invitación. Tres ponentes analizaron cómo diseñar sistemas conscientes que exploren «valores cósmicos» desconocidos.

Posthumanismo en debate

La escritora Ginevera Davis advirtió que las máquinas podrían no comprender la conciencia humana. El filósofo Michael Edward Johnson añadió que sin entender la consciencia, crear IA es un riesgo. Faggella propuso su teoría del «cosmismo axiológico»: la inteligencia debe expandir lo posible, no solo servirnos.

Reacciones y escepticismo

Asistentes, incluidos investigadores de los principales laboratorios de IA occidentales, discutieron temas como la carrera tecnológica entre EE.UU. y China. Faggella insistió en que el evento no promovía «la destrucción del hombre», sino frenar el desarrollo irresponsable de AGI.

Un futuro escrito por algoritmos

El simposio partió de la premisa de que la superinteligencia llegará pronto, pese a críticas que consideran los modelos de lenguaje meros «loros estadísticos». Faggella citó a Nietzsche y Spinoza para argumentar que el valor del universo está por descubrirse.

¿Heredará la IA nuestro lugar en el cosmos?

El debate refleja la división en Silicon Valley entre quienes ven la IA como herramienta y quienes la imaginan como sucesora evolutiva. Faggella concluyó que el éxito dependerá de construir sistemas autopoiéticos (capaces de evolucionar), no de replicar valores humanos.