Fuente de la imagen: generada por la herramienta Unbounded AI
Esto no es casualidad: la religión y la tecnología han estado entrelazadas durante siglos.
¿Qué pasaría si te dijera que en 10 años el mundo tal como lo conoces se acabará? Vivirás en el cielo sin enfermedad, envejecimiento ni muerte. ¡La vida eterna será tuya! Aún mejor, tu cerebro se liberará de la incertidumbre y obtendrás un conocimiento perfecto. Ya no estás atrapado en la tierra, puedes vivir en el cielo.
Si te dijera todo esto, ¿pensarías en mí como un predicador religioso o un investigador de inteligencia artificial?
Cualquiera de las dos suposiciones tiene sentido.
Cuanto más escuchas las discusiones sobre inteligencia artificial en Silicon Valley, más ecos de religión escuchas. Porque gran parte del entusiasmo por la construcción de máquinas superinteligentes proviene del reciclaje de ideas religiosas. La mayoría de los tecnólogos seculares que están construyendo inteligencia artificial no se dan cuenta de esto.
Estos expertos en tecnología sugieren ocultar la muerte subiendo nuestros pensamientos a la nube, donde podemos vivir digitalmente para siempre. Describen la inteligencia artificial como un mecanismo de toma de decisiones que puede determinar con certeza matemática qué es óptimo y qué no. Visualizan la inteligencia artificial general (AGI), un sistema hipotético que podría igualar las capacidades humanas de resolución de problemas en muchos dominios, como un esfuerzo que podría garantizar la salvación de la humanidad si va bien y, si no, también puede traer desastre.
Estas visiones son casi idénticas a las de la escatología cristiana, una rama de la teología que se ocupa de la "escatología" o destino final de la humanidad.
La escatología cristiana nos dice que todos nos dirigimos hacia “cuatro últimas cosas”: la muerte, el juicio, el cielo o el infierno. Los que hayan muerto resucitarán en la Segunda Venida de Cristo y encontrarán el destino eterno. Nuestras almas enfrentarán el juicio final de Dios, el perfecto tomador de decisiones. Si las cosas van bien, ascenderemos al cielo, pero si las cosas van mal, caeremos al infierno.
Hace cinco años, cuando comencé a asistir a conferencias en Silicon Valley y noté por primera vez las similitudes entre el tema de la religión y la inteligencia artificial, pensé en una explicación psicológica simple. Ambas son respuestas a ansiedades humanas fundamentales: la muerte; la dificultad de saber qué estamos haciendo bien o mal; la incognoscibilidad de nuestro significado en la vida y nuestro lugar último en este universo... o el próximo. Los pensadores religiosos y los pensadores de la IA acaban de encontrar respuestas similares a preguntas que nos preocupan a todos.
Por eso me sorprendió descubrir que la conexión es mucho más profunda que eso.
"La religión y la tecnología han estado entrelazadas durante siglos, aunque algunas personas dirán que la ciencia es neutral en cuanto a valores y no tiene nada que ver con cosas como la religión", dijo Robert Geraci, profesor de estudios religiosos en el Manhattan College y autor de "Apocalyptic AI." Eso simplemente no es cierto. Ese nunca ha sido el caso."
De hecho, los historiadores que rastrean la influencia del pensamiento religioso creen que desde los teólogos cristianos de la Edad Media hasta los padres del empirismo en el Renacimiento, pasando por el futurista Ray Kurzweil y los pesos pesados tecnológicos de Silicon Valley influenciados por él, podemos trazar una línea recta. línea.
De vez en cuando, algunas personas todavía tienen una vaga idea de las similitudes. Jack Clark, cofundador de la empresa de seguridad de inteligencia artificial Anthropic, escribió en Twitter en marzo: "A veces pienso que el entusiasmo de la gente por AGI es un impulso religioso fuera de lugar de una cultura secular".
Sin embargo, la mayoría de los que ven la AGI como una forma de escatología tecnológica (desde Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, hasta Elon Musk, que quiere conectar cerebros a computadoras) expresan sus ideas en términos seculares. O no se dan cuenta, o no están dispuestos a admitir, que la visión que proponen está en gran medida fusionada con el pensamiento religioso antiguo.
Pero es importante saber de dónde vienen estas ideas. Esto no se debe a que “religión” sea de algún modo un término peyorativo; el hecho de que las ideas sean religiosas no significa que haya algo malo en ellas (a menudo ocurre lo contrario). En lugar de ello, deberíamos entender la historia de estas ideas (digamos, una vida virtual después de la muerte como una forma de salvación, o el progreso moral entendido como progreso tecnológico) para que entendamos que no son inmutables ni inevitables; algunas personas estas ideas fueron propuestas en ciertos momentos. veces para ciertos propósitos, pero otros existen si así lo queremos. No tenemos por qué caer en el peligro de una sola historia.
"Tenemos que tener cuidado con las narrativas que aceptamos", dijo Elke Schwarz, teórica política de la Universidad Queen Mary de Londres que estudia la ética de la inteligencia artificial militar. "Siempre que hablamos de algo religioso, hay algo sagrado involucrado. Tener algo sagrado Puede doler porque si algo es sagrado, vale la pena hacer lo peor por ello."
El concepto de inteligencia artificial siempre ha sido profundamente religioso
En las religiones abrahámicas que dieron forma a Occidente, todo vuelve a ser vergüenza.
¿Recuerdas lo que pasó en Génesis? Cuando Adán y Eva comieron del Árbol del Conocimiento, Dios los expulsó del Jardín del Edén y los sometió a todas las indignidades de la carne y la sangre: trabajo y dolor, nacimiento y muerte. Después de la caída en desgracia, la humanidad nunca volvió a ser la misma. Antes de pecar, éramos criaturas perfectas creadas a imagen de Dios; ahora, somos pieles lamentables.
Pero en la Edad Media, los pensadores cristianos propusieron una idea radical, como explica el historiador David Noble en su libro La religión de la tecnología. ¿Qué pasaría si la tecnología pudiera ayudarnos a restaurar a la humanidad a su estado de perfección anterior a la caída?
Por ejemplo, el influyente filósofo del siglo IX Juan Escoto Eriúgena sostuvo que parte del significado de que Adán fuera hecho a imagen de Dios era que él era un creador, un hacedor. Por lo tanto, debemos acercarnos a este aspecto de nosotros mismos si queremos restaurar a la humanidad a la perfección divina que tenía antes de la caída de Adán. Eriugena escribe que las "artes mecánicas" (también conocidas como tecnología) son "la conexión del hombre con lo divino, y su cultivo es el medio para salvar a la humanidad".
Esta idea surgió en los monasterios medievales, donde empezó a circular el lema "ora et labora" (orar y trabajar). Incluso durante la llamada Edad Media, algunos de estos monasterios se convirtieron en focos de ingeniería, produciendo inventos como la primera rueda hidráulica impulsada por mareas y la perforación por percusión. Los católicos se hicieron conocidos como innovadores; hasta el día de hoy, los ingenieros tienen cuatro santos patrones en la religión. Algunos dicen que la Iglesia Católica era el Silicon Valley de la Edad Media, y hay una razón para ello: como señalé en un artículo de 2018 en The Atlantic, todo, desde "metalurgia, molinos y notación musical hasta mecanismos de relojería e imprenta", la Iglesia Católica La iglesia es indispensable.
Esto no es investigación con fines tecnológicos ni investigación con fines de lucro. Por el contrario, el progreso científico y tecnológico es sinónimo de progreso moral. Al restaurar a la humanidad a su perfección original, podemos marcar el comienzo del Reino de Dios. Como escribe Noble: “La tecnología se ha convertido en sinónimo de trascendencia y está vinculada como nunca antes a las ideas cristianas de redención”.
La idea medieval de equiparar el progreso tecnológico con el progreso moral ha influido en generaciones de pensadores cristianos y continúa en la era moderna. Una pareja Bakong ilustra cómo la misma creencia fundamental (que la tecnología traerá la salvación) afecta a los tradicionalistas religiosos y a quienes adoptan una cosmovisión científica.
En el siglo XIII, el alquimista Roger Bacon se inspiró en las profecías bíblicas en un intento de crear un elixir de vida que lograra una resurrección similar a la descrita por el apóstol Pablo. Bacon espera que este elixir no sólo haga inmortales a los humanos, sino que también les otorgue habilidades mágicas, como viajar a la velocidad del pensamiento. En el siglo XVI apareció Francis Bacon. Superficialmente, parecía muy diferente de sus predecesores - criticaba la alquimia, considerándola poco científica - pero predijo que algún día usaríamos la tecnología para vencer nuestra mortalidad, "para glorificar al Creador y aliviar el sufrimiento humano".
En el Renacimiento, los europeos se atrevieron a soñar que podríamos rehacernos a imagen de Dios, no sólo alcanzar gradualmente la inmortalidad, sino también crear conciencia a partir de materia inanimada.
Schwarz señaló: “Más allá de la victoria sobre la muerte, la posibilidad de crear nueva vida es el poder supremo”.
Los ingenieros cristianos crearon autómatas (robots de madera) que podían moverse y decir oraciones. Según la leyenda, los musulmanes crearon cabezas mecánicas que hablaban como oráculos. Hay historias en el folclore judío sobre rabinos que utilizan conjugaciones de lenguaje mágico para dar vida a figuras de arcilla (llamadas "figuras de barro"). En estas historias, las figuras de arcilla a veces salvan a los judíos de la persecución. Pero en otras ocasiones, las figuras de arcilla se vuelven traidoras, matan gente, roban bienes y usan sus poderes para hacer el mal.
Sí, todo esto suena muy familiar. Se puede escuchar la misma ansiedad en el libro de 1964 del matemático y filósofo Norbert Wiener sobre los riesgos de la inteligencia artificial, God & Golem, Inc., y en la gran cantidad de cartas abiertas que publican actualmente expertos en tecnología. Advierten que AGI nos traerá la salvación o la perdición.
Al leer estos comentarios, es posible que se pregunte: si AGI amenaza con el apocalipsis y promete salvación, ¿por qué creamos AGI? ¿Por qué no limitarnos a crear formas más limitadas de inteligencia artificial (que ya pueden hacer maravillas en aplicaciones como el tratamiento de enfermedades) y seguir con ellas por un tiempo?
Para descubrirlo, síganme un poco más atrás en la historia mientras comenzamos a comprender cómo tres movimientos recientes y entrelazados están dando forma a la visión de Silicon Valley sobre la inteligencia artificial.
Hacia el transhumanismo, el altruismo efectivo y el largoplacismo
Según muchos relatos, cuando Charles Darwin publicó su teoría de la evolución en 1859, todos los pensadores religiosos inmediatamente la vieron como una aterradora amenaza herética para la humanidad, la creación más piadosa de Dios. Pero algunos pensadores cristianos lo ven como un nuevo y llamativo disfraz de antiguas profecías espirituales. Después de todo, las ideas religiosas nunca mueren, simplemente adquieren ropa nueva.
Un ejemplo típico es Pierre Teilhard de Chardin, un sacerdote jesuita francés que también estudió paleontología a principios del siglo XX. Él cree que, impulsada por la tecnología, la evolución humana es en realidad portadora del reino de Dios. La integración de humanos y máquinas conducirá a una explosión de inteligencia, que él llama el Punto Omega. Nuestra conciencia entrará en un "estado superconsciente" en el que nos fusionaremos con Dios y nos convertiremos en una nueva especie.
Como documenta la autora Meghan O'Gieblyn en su libro Dios, hombre, animal, máquina de 2021, el biólogo evolutivo Aldous Huxley fue presidente de la Asociación Humanista Británica y de la Sociedad Británica de Eugenesia. Huxley popularizó la idea de Teilhard de que deberíamos utilizar la tecnología para evolucionar nuestra especie. llamándolo "transhumanismo".
Esto a su vez influyó en el futurista Ray Kurzweil, quien hizo básicamente la misma predicción que Teilhard: Estamos a punto de iniciar una era de integración de la inteligencia humana y la inteligencia artificial, y la inteligencia humana se volverá extremadamente poderosa. Pero en lugar de llamarlo "Punto Omega", Kurzweil lo renombró "Punto de Singularidad".
"Los seres humanos y las tecnologías informáticas que crean podrán resolver problemas antiguos... y cambiarán la naturaleza de la muerte en un futuro posbiológico", escribió Kurzweil en su bestseller nacional de 1999 La era del ingenio. del Nuevo Testamento. Según el Libro del Apocalipsis: "Ya no hay muerte, ni luto, ni llanto, ni dolor, porque las cosas primeras han pasado.")
Kurzweil reconoce las similitudes espirituales entre los dos, al igual que aquellos que han formado movimientos explícitamente religiosos en torno a la adoración de la inteligencia artificial o el uso de la inteligencia artificial para llevar a los humanos hacia la piedad, desde el movimiento Terasem de Martine Rothblatt hasta la Asociación de superhumanos mormones, hasta el efímero Camino de la iglesia del Futuro. Pero muchos, como el filósofo de la Universidad de Oxford Nick Bostrom, insisten en que el transhumanismo es diferente de la religión y se basa en "la razón crítica y la mejor evidencia científica que tenemos".
Hoy, el transhumanismo tiene una hermana, otro movimiento nacido en Oxford y que explotó en Silicon Valley: el Altruismo Efectivo (EA), cuyo objetivo es descubrir cómo hacer el mayor bien posible para la mayor cantidad de personas. Los altruistas eficaces también dicen que su enfoque está arraigado en la razón y la evidencia seculares.
Sin embargo, el altruismo efectivo es en muchos aspectos lo mismo que la religión: funcionalmente (reúne a un grupo construido en torno a una visión compartida de la vida moral), estructuralmente (tiene una jerarquía de líderes proféticos, textos clásicos, festivales y rituales) y estéticamente. (fomentó el diezmo y favoreció el ascetismo). Lo más importante es que proporciona una escatología.
La escatología del altruismo efectivo se presenta en la forma de su visión más controvertida, el largoplacismo, que Musk alguna vez describió como "muy consistente con mi filosofía". Sostiene que la mejor manera de ayudar a la mayoría de las personas es centrarse en garantizar la supervivencia de la humanidad en un futuro lejano (digamos, dentro de millones de años), cuando podrían existir miles de millones de personas más que las que existen ahora, suponiendo que nuestra especie no se extinga. primero.
A partir de aquí comenzamos a obtener respuestas a la pregunta de por qué los tecnólogos están trabajando para construir AGI.
El progreso de la IA como progreso moral
Para los altruistas eficaces y los partidarios del largo plazo, simplemente insistir en una IA restringida no es una opción. El filósofo de la Universidad de Oxford, Will MacAskill, ha sido llamado el "profeta reacio" del altruismo efectivo y el largoplacismo. En su libro de 2022 What We Owe the Future, explica por qué cree que el estancamiento del progreso tecnológico es inaceptable. "Los períodos de estancamiento", escribió, "podrían aumentar el riesgo de extinción y colapso permanente".
Cita a su colega Toby Ord, quien estima que hay una posibilidad entre seis de extinción humana durante el próximo siglo debido a riesgos como la IA deshonesta y las epidemias diseñadas. Otro colega de EA, Holden Karnofsky, cree de manera similar que estamos viviendo en un "punto de inflexión en la historia" o "el siglo más importante", un período especial en la historia humana en el que prosperaremos como nunca antes o sufriremos la destrucción. MacAskill, al igual que Musk, sugiere en el libro que una buena forma de evitar la extinción es colonizar otros planetas para no poner todos los huevos en la misma cesta.
Pero eso es sólo la mitad del "argumento moral a favor de la solución espacial" de MacAskill. La otra mitad es que debemos esforzarnos por hacer que la futura civilización humana sea lo más grande y utópica posible. Como dice Bostrom, colega de MacAskill en Oxford, la "colonización cósmica" nos dará el espacio y los recursos para ejecutar una gran cantidad de simulaciones digitales que permitirán a los humanos vivir felices para siempre. ¡Cuanto más grande sea el espacio, más humanos (digitales) felices habrá! Aquí es donde residen la mayoría de los valores morales: no en el presente aquí en la tierra, sino en el futuro en el cielo… lo siento, me refiero a la “vida virtual después de la muerte”.
Cuando juntamos todas estas ideas y las generalizamos, llegamos a esta proposición básica:
Puede que no nos quede mucho tiempo antes de que termine la vida tal como la conocemos.
Por tanto, debemos apostar por algo que nos salve.
Dado que hay tanto en juego, deberíamos apostar lo suficiente y hacer todo lo posible.
Cualquiera que estudie religión puede ver inmediatamente qué es esto: lógica apocalíptica.
Los transhumanistas, los altruistas eficaces y los a largo plazo heredan la visión de que el fin es inminente y que el progreso tecnológico es nuestra mejor oportunidad de progreso como civilización. Para aquellos que actúan según esta lógica, perseguir AGI puede parecer una obviedad. Aunque creen que AGI plantea un riesgo existencial significativo, creen que no podemos darnos el lujo de no construir AGI porque tiene el potencial de impulsar a la humanidad desde una precaria adolescencia terrestre (¡que podría terminar cualquier día!) hasta una próspera edad adulta interestelar (¡tantas personas felices, tantas!). ¡Muchos valores civilizados!). ¡Por supuesto que debemos avanzar tecnológicamente, porque eso significa avanzar civilizacionalmente!
¿Pero esto tiene sus raíces en la razón y la evidencia? ¿O tiene sus raíces en un dogma?
La premisa subyacente aquí es el determinismo tecnológico, mezclado con una pizca de geopolítica. La idea es que incluso si usted y yo no creamos una IA terriblemente poderosa, alguien más o algún otro país lo hará; entonces, ¿por qué dejar de involucrarnos? Altman de OpenAI ejemplifica la creencia de que la tecnología debe avanzar. Escribió en su blog en 2017: "A menos que nos destruyamos a nosotros mismos primero, surgirá una inteligencia artificial sobrehumana". "Como hemos aprendido, el progreso científico eventualmente se producirá si las leyes de la física no lo detienen".
¿Hemos aprendido? No veo ninguna evidencia de que algo que pueda inventarse vaya a ser inventado alguna vez. (Como escribe Katja Grace, investigadora principal del Impacto de la Inteligencia Artificial: "Piensa en una máquina que te escupe mierda a los ojos. Técnicamente podemos hacerlo, pero probablemente nadie haya construido nunca una máquina así".) La gente parece estar más inclinada a perseguir la innovación cuando están impulsados por fuertes presiones económicas, sociales o ideológicas.
En medio de la locura por las AGI en Silicon Valley, la presión social e ideológica proviene de ideas religiosas reinventadas bajo la apariencia de transhumanismo, altruismo efectivo y largoplacismo. En cuanto a las presiones económicas y de rentabilidad, siempre están ahí en Silicon Valley.
Una encuesta de Reuters realizada en mayo mostró que el 61% de los estadounidenses cree ahora que la inteligencia artificial puede amenazar la civilización humana, una opinión que es particularmente fuerte entre los cristianos evangélicos. Para el experto en estudios religiosos Geraci, esto no es sorprendente. Señaló que la lógica apocalíptica es "muy, muy, muy poderosa en el cristianismo protestante estadounidense", hasta el punto de que 4 de cada 10 adultos estadounidenses creen actualmente que la humanidad está viviendo en el fin de los tiempos.
Desafortunadamente, la lógica apocalíptica a menudo engendra un fanatismo peligroso. En la Edad Media, cuando aparecía un falso mesías, la gente abandonaba sus posesiones mundanas para seguir a su profeta. Hoy en día, mientras los medios de comunicación inundan los rumores sobre el fin del mundo de la IA, los verdaderos creyentes están abandonando la universidad para estudiar la seguridad de la IA. La lógica del apocalipsis o la redención, el cielo o el infierno, lleva a la gente a correr enormes riesgos, a comprometerse con ellos.
En una entrevista conmigo el año pasado, MacAskill negó prácticas extremas de juego. Me dijo que en su imaginación, cierto tipo de hermanos tecnológicos en Silicon Valley creen que hay un 5% de posibilidades de morir a causa de un desastre de AGI y un 10% de posibilidades de que AGI traiga una utopía feliz, y estarán dispuestos a hacerlo. Para soportar estas oportunidades, construya AGI rápidamente.
"No quiero que personas como esta construyan AGI porque no responden a las cuestiones éticas", me dijo MacAskill. "Quizás eso signifique que tenemos que retrasar la Singularidad para hacerla más segura. Quizás eso signifique que la Singularidad no va a funcionar". serlo en mi vida. Va a ser un gran sacrificio".
Cuando MacAskill me dijo esto, imaginé una imagen de Moisés mirando hacia la Tierra Prometida pero sabiendo que no podría alcanzarla. La visión a largo plazo parecía exigirle una creencia brutal: usted personalmente no será salvo, pero sus descendientes espirituales sí.
Necesitamos decidir si esta es la forma en que queremos la salvación
No hay nada malo en sí mismo en creer que la tecnología puede mejorar fundamentalmente el destino de la humanidad. En muchos sentidos, claramente así es.
"La tecnología no es el problema", me dijo Ilia Delio, quien tiene dos doctorados y una cátedra de teología en la Universidad de Villanova. De hecho, Delio estaba convencido de que ya estamos en una nueva etapa evolutiva, pasando del Homo sapiens al “Homo sapiens tecnológico”. “La visión es gratificante. Ella cree que debemos evolucionar de forma proactiva con la ayuda de la tecnología y con la mente abierta.
Pero también entiende que debemos tener claro qué valores influyen en nuestra tecnología, "para que podamos desarrollar tecnología con un propósito y con ética", dijo. De lo contrario, "la tecnología es ciega y potencialmente peligrosa".
Geraci está de acuerdo. "Sería un poco aterrador si mucha gente en Silicon Valley dijera: 'Oye, apoyo esta tecnología porque me hará inmortal'", me dijo. "Pero si alguien dijera: 'Apoyo esta tecnología', porque creo que podemos usarlo para resolver el hambre en el mundo". Esas son dos motivaciones muy diferentes. Eso afectará el tipo de producto que intentas diseñar, las personas para las que estás diseñando y las personas que estás intentando diseñar. rodearse de la forma en que se implementa en el mundo”.
Al decidir cuidadosamente el valor de la tecnología, también se debe ser muy consciente de quién tiene el poder de decidir. Schwarz cree que los diseñadores de la IA nos venden una visión de los avances tecnológicos necesarios que traerá la IA y se presentan como los únicos expertos en ello, lo que les da un poder enorme, posiblemente más que el que nuestros funcionarios elegidos democráticamente tienen más poder.
"La idea de que el desarrollo de la inteligencia artificial es una ley de la naturaleza se convierte en un principio ordenador, y ese principio ordenador es político. Da poder político a algunas personas y mucho menos poder a la mayoría de otras", afirmó Schwarz. "Me resulta extraño decir: 'Tenemos que tener mucho cuidado con el AGI', en lugar de decir: 'No necesitamos el AGI, no forma parte del debate'. Pero hemos llegado a un punto en el que el poder es "Ser tratado de una manera que ni siquiera es la forma en que se nos dan opciones se solidifica, e incluso podemos recomendar colectivamente que no se aplique AGI".
Hemos llegado a este punto en gran parte porque durante los últimos mil años, Occidente ha estado en peligro de caer en una narrativa única: la historia que heredamos de los pensadores religiosos medievales que equiparaban el progreso tecnológico con la moralidad.
"Es la única narrativa que tenemos", dice Delio. "Esa narrativa nos lleva a escuchar a los expertos técnicos (que, en el pasado, también eran autoridades espirituales) y a incorporar los valores y suposiciones en sus productos".
"¿Cuál es la alternativa? Si la alternativa fuera 'vivir vivo es un objetivo en sí mismo'", añadió Delio, "entonces nuestras expectativas sobre la tecnología podrían ser completamente diferentes". "¡Pero no tenemos esa narrativa! Nuestras narrativas dominantes tratan sobre crear, inventar, hacer y dejar que nos cambien”.
Necesitamos decidir qué tipo de salvación queremos. Si nuestro entusiasmo por la inteligencia artificial proviene de una visión de trascender los límites de la tierra y la muerte del cuerpo, eso tendrá una consecuencia social. Pero si nos comprometemos a utilizar la tecnología para mejorar el mundo y el bienestar de estos organismos, podemos lograr resultados diferentes. Como dice Noble, podemos "comenzar a dirigir nuestras asombrosas habilidades hacia fines más seculares y humanos".
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿La visión de la IA de Silicon Valley? Ese es el eco de la religión reenvasada
Escrito por Sigal Samuel
Fuente: Vox
¿Qué pasaría si te dijera que en 10 años el mundo tal como lo conoces se acabará? Vivirás en el cielo sin enfermedad, envejecimiento ni muerte. ¡La vida eterna será tuya! Aún mejor, tu cerebro se liberará de la incertidumbre y obtendrás un conocimiento perfecto. Ya no estás atrapado en la tierra, puedes vivir en el cielo.
Si te dijera todo esto, ¿pensarías en mí como un predicador religioso o un investigador de inteligencia artificial?
Cualquiera de las dos suposiciones tiene sentido.
Cuanto más escuchas las discusiones sobre inteligencia artificial en Silicon Valley, más ecos de religión escuchas. Porque gran parte del entusiasmo por la construcción de máquinas superinteligentes proviene del reciclaje de ideas religiosas. La mayoría de los tecnólogos seculares que están construyendo inteligencia artificial no se dan cuenta de esto.
Estos expertos en tecnología sugieren ocultar la muerte subiendo nuestros pensamientos a la nube, donde podemos vivir digitalmente para siempre. Describen la inteligencia artificial como un mecanismo de toma de decisiones que puede determinar con certeza matemática qué es óptimo y qué no. Visualizan la inteligencia artificial general (AGI), un sistema hipotético que podría igualar las capacidades humanas de resolución de problemas en muchos dominios, como un esfuerzo que podría garantizar la salvación de la humanidad si va bien y, si no, también puede traer desastre.
Estas visiones son casi idénticas a las de la escatología cristiana, una rama de la teología que se ocupa de la "escatología" o destino final de la humanidad.
La escatología cristiana nos dice que todos nos dirigimos hacia “cuatro últimas cosas”: la muerte, el juicio, el cielo o el infierno. Los que hayan muerto resucitarán en la Segunda Venida de Cristo y encontrarán el destino eterno. Nuestras almas enfrentarán el juicio final de Dios, el perfecto tomador de decisiones. Si las cosas van bien, ascenderemos al cielo, pero si las cosas van mal, caeremos al infierno.
Hace cinco años, cuando comencé a asistir a conferencias en Silicon Valley y noté por primera vez las similitudes entre el tema de la religión y la inteligencia artificial, pensé en una explicación psicológica simple. Ambas son respuestas a ansiedades humanas fundamentales: la muerte; la dificultad de saber qué estamos haciendo bien o mal; la incognoscibilidad de nuestro significado en la vida y nuestro lugar último en este universo... o el próximo. Los pensadores religiosos y los pensadores de la IA acaban de encontrar respuestas similares a preguntas que nos preocupan a todos.
Por eso me sorprendió descubrir que la conexión es mucho más profunda que eso.
"La religión y la tecnología han estado entrelazadas durante siglos, aunque algunas personas dirán que la ciencia es neutral en cuanto a valores y no tiene nada que ver con cosas como la religión", dijo Robert Geraci, profesor de estudios religiosos en el Manhattan College y autor de "Apocalyptic AI." Eso simplemente no es cierto. Ese nunca ha sido el caso."
De hecho, los historiadores que rastrean la influencia del pensamiento religioso creen que desde los teólogos cristianos de la Edad Media hasta los padres del empirismo en el Renacimiento, pasando por el futurista Ray Kurzweil y los pesos pesados tecnológicos de Silicon Valley influenciados por él, podemos trazar una línea recta. línea.
De vez en cuando, algunas personas todavía tienen una vaga idea de las similitudes. Jack Clark, cofundador de la empresa de seguridad de inteligencia artificial Anthropic, escribió en Twitter en marzo: "A veces pienso que el entusiasmo de la gente por AGI es un impulso religioso fuera de lugar de una cultura secular".
Sin embargo, la mayoría de los que ven la AGI como una forma de escatología tecnológica (desde Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, hasta Elon Musk, que quiere conectar cerebros a computadoras) expresan sus ideas en términos seculares. O no se dan cuenta, o no están dispuestos a admitir, que la visión que proponen está en gran medida fusionada con el pensamiento religioso antiguo.
Pero es importante saber de dónde vienen estas ideas. Esto no se debe a que “religión” sea de algún modo un término peyorativo; el hecho de que las ideas sean religiosas no significa que haya algo malo en ellas (a menudo ocurre lo contrario). En lugar de ello, deberíamos entender la historia de estas ideas (digamos, una vida virtual después de la muerte como una forma de salvación, o el progreso moral entendido como progreso tecnológico) para que entendamos que no son inmutables ni inevitables; algunas personas estas ideas fueron propuestas en ciertos momentos. veces para ciertos propósitos, pero otros existen si así lo queremos. No tenemos por qué caer en el peligro de una sola historia.
"Tenemos que tener cuidado con las narrativas que aceptamos", dijo Elke Schwarz, teórica política de la Universidad Queen Mary de Londres que estudia la ética de la inteligencia artificial militar. "Siempre que hablamos de algo religioso, hay algo sagrado involucrado. Tener algo sagrado Puede doler porque si algo es sagrado, vale la pena hacer lo peor por ello."
El concepto de inteligencia artificial siempre ha sido profundamente religioso
En las religiones abrahámicas que dieron forma a Occidente, todo vuelve a ser vergüenza.
¿Recuerdas lo que pasó en Génesis? Cuando Adán y Eva comieron del Árbol del Conocimiento, Dios los expulsó del Jardín del Edén y los sometió a todas las indignidades de la carne y la sangre: trabajo y dolor, nacimiento y muerte. Después de la caída en desgracia, la humanidad nunca volvió a ser la misma. Antes de pecar, éramos criaturas perfectas creadas a imagen de Dios; ahora, somos pieles lamentables.
Pero en la Edad Media, los pensadores cristianos propusieron una idea radical, como explica el historiador David Noble en su libro La religión de la tecnología. ¿Qué pasaría si la tecnología pudiera ayudarnos a restaurar a la humanidad a su estado de perfección anterior a la caída?
Por ejemplo, el influyente filósofo del siglo IX Juan Escoto Eriúgena sostuvo que parte del significado de que Adán fuera hecho a imagen de Dios era que él era un creador, un hacedor. Por lo tanto, debemos acercarnos a este aspecto de nosotros mismos si queremos restaurar a la humanidad a la perfección divina que tenía antes de la caída de Adán. Eriugena escribe que las "artes mecánicas" (también conocidas como tecnología) son "la conexión del hombre con lo divino, y su cultivo es el medio para salvar a la humanidad".
Esta idea surgió en los monasterios medievales, donde empezó a circular el lema "ora et labora" (orar y trabajar). Incluso durante la llamada Edad Media, algunos de estos monasterios se convirtieron en focos de ingeniería, produciendo inventos como la primera rueda hidráulica impulsada por mareas y la perforación por percusión. Los católicos se hicieron conocidos como innovadores; hasta el día de hoy, los ingenieros tienen cuatro santos patrones en la religión. Algunos dicen que la Iglesia Católica era el Silicon Valley de la Edad Media, y hay una razón para ello: como señalé en un artículo de 2018 en The Atlantic, todo, desde "metalurgia, molinos y notación musical hasta mecanismos de relojería e imprenta", la Iglesia Católica La iglesia es indispensable.
Esto no es investigación con fines tecnológicos ni investigación con fines de lucro. Por el contrario, el progreso científico y tecnológico es sinónimo de progreso moral. Al restaurar a la humanidad a su perfección original, podemos marcar el comienzo del Reino de Dios. Como escribe Noble: “La tecnología se ha convertido en sinónimo de trascendencia y está vinculada como nunca antes a las ideas cristianas de redención”.
La idea medieval de equiparar el progreso tecnológico con el progreso moral ha influido en generaciones de pensadores cristianos y continúa en la era moderna. Una pareja Bakong ilustra cómo la misma creencia fundamental (que la tecnología traerá la salvación) afecta a los tradicionalistas religiosos y a quienes adoptan una cosmovisión científica.
En el siglo XIII, el alquimista Roger Bacon se inspiró en las profecías bíblicas en un intento de crear un elixir de vida que lograra una resurrección similar a la descrita por el apóstol Pablo. Bacon espera que este elixir no sólo haga inmortales a los humanos, sino que también les otorgue habilidades mágicas, como viajar a la velocidad del pensamiento. En el siglo XVI apareció Francis Bacon. Superficialmente, parecía muy diferente de sus predecesores - criticaba la alquimia, considerándola poco científica - pero predijo que algún día usaríamos la tecnología para vencer nuestra mortalidad, "para glorificar al Creador y aliviar el sufrimiento humano".
En el Renacimiento, los europeos se atrevieron a soñar que podríamos rehacernos a imagen de Dios, no sólo alcanzar gradualmente la inmortalidad, sino también crear conciencia a partir de materia inanimada.
Schwarz señaló: “Más allá de la victoria sobre la muerte, la posibilidad de crear nueva vida es el poder supremo”.
Los ingenieros cristianos crearon autómatas (robots de madera) que podían moverse y decir oraciones. Según la leyenda, los musulmanes crearon cabezas mecánicas que hablaban como oráculos. Hay historias en el folclore judío sobre rabinos que utilizan conjugaciones de lenguaje mágico para dar vida a figuras de arcilla (llamadas "figuras de barro"). En estas historias, las figuras de arcilla a veces salvan a los judíos de la persecución. Pero en otras ocasiones, las figuras de arcilla se vuelven traidoras, matan gente, roban bienes y usan sus poderes para hacer el mal.
Sí, todo esto suena muy familiar. Se puede escuchar la misma ansiedad en el libro de 1964 del matemático y filósofo Norbert Wiener sobre los riesgos de la inteligencia artificial, God & Golem, Inc., y en la gran cantidad de cartas abiertas que publican actualmente expertos en tecnología. Advierten que AGI nos traerá la salvación o la perdición.
Al leer estos comentarios, es posible que se pregunte: si AGI amenaza con el apocalipsis y promete salvación, ¿por qué creamos AGI? ¿Por qué no limitarnos a crear formas más limitadas de inteligencia artificial (que ya pueden hacer maravillas en aplicaciones como el tratamiento de enfermedades) y seguir con ellas por un tiempo?
Para descubrirlo, síganme un poco más atrás en la historia mientras comenzamos a comprender cómo tres movimientos recientes y entrelazados están dando forma a la visión de Silicon Valley sobre la inteligencia artificial.
Hacia el transhumanismo, el altruismo efectivo y el largoplacismo
Según muchos relatos, cuando Charles Darwin publicó su teoría de la evolución en 1859, todos los pensadores religiosos inmediatamente la vieron como una aterradora amenaza herética para la humanidad, la creación más piadosa de Dios. Pero algunos pensadores cristianos lo ven como un nuevo y llamativo disfraz de antiguas profecías espirituales. Después de todo, las ideas religiosas nunca mueren, simplemente adquieren ropa nueva.
Un ejemplo típico es Pierre Teilhard de Chardin, un sacerdote jesuita francés que también estudió paleontología a principios del siglo XX. Él cree que, impulsada por la tecnología, la evolución humana es en realidad portadora del reino de Dios. La integración de humanos y máquinas conducirá a una explosión de inteligencia, que él llama el Punto Omega. Nuestra conciencia entrará en un "estado superconsciente" en el que nos fusionaremos con Dios y nos convertiremos en una nueva especie.
Como documenta la autora Meghan O'Gieblyn en su libro Dios, hombre, animal, máquina de 2021, el biólogo evolutivo Aldous Huxley fue presidente de la Asociación Humanista Británica y de la Sociedad Británica de Eugenesia. Huxley popularizó la idea de Teilhard de que deberíamos utilizar la tecnología para evolucionar nuestra especie. llamándolo "transhumanismo".
Esto a su vez influyó en el futurista Ray Kurzweil, quien hizo básicamente la misma predicción que Teilhard: Estamos a punto de iniciar una era de integración de la inteligencia humana y la inteligencia artificial, y la inteligencia humana se volverá extremadamente poderosa. Pero en lugar de llamarlo "Punto Omega", Kurzweil lo renombró "Punto de Singularidad".
"Los seres humanos y las tecnologías informáticas que crean podrán resolver problemas antiguos... y cambiarán la naturaleza de la muerte en un futuro posbiológico", escribió Kurzweil en su bestseller nacional de 1999 La era del ingenio. del Nuevo Testamento. Según el Libro del Apocalipsis: "Ya no hay muerte, ni luto, ni llanto, ni dolor, porque las cosas primeras han pasado.")
Kurzweil reconoce las similitudes espirituales entre los dos, al igual que aquellos que han formado movimientos explícitamente religiosos en torno a la adoración de la inteligencia artificial o el uso de la inteligencia artificial para llevar a los humanos hacia la piedad, desde el movimiento Terasem de Martine Rothblatt hasta la Asociación de superhumanos mormones, hasta el efímero Camino de la iglesia del Futuro. Pero muchos, como el filósofo de la Universidad de Oxford Nick Bostrom, insisten en que el transhumanismo es diferente de la religión y se basa en "la razón crítica y la mejor evidencia científica que tenemos".
Hoy, el transhumanismo tiene una hermana, otro movimiento nacido en Oxford y que explotó en Silicon Valley: el Altruismo Efectivo (EA), cuyo objetivo es descubrir cómo hacer el mayor bien posible para la mayor cantidad de personas. Los altruistas eficaces también dicen que su enfoque está arraigado en la razón y la evidencia seculares.
Sin embargo, el altruismo efectivo es en muchos aspectos lo mismo que la religión: funcionalmente (reúne a un grupo construido en torno a una visión compartida de la vida moral), estructuralmente (tiene una jerarquía de líderes proféticos, textos clásicos, festivales y rituales) y estéticamente. (fomentó el diezmo y favoreció el ascetismo). Lo más importante es que proporciona una escatología.
La escatología del altruismo efectivo se presenta en la forma de su visión más controvertida, el largoplacismo, que Musk alguna vez describió como "muy consistente con mi filosofía". Sostiene que la mejor manera de ayudar a la mayoría de las personas es centrarse en garantizar la supervivencia de la humanidad en un futuro lejano (digamos, dentro de millones de años), cuando podrían existir miles de millones de personas más que las que existen ahora, suponiendo que nuestra especie no se extinga. primero.
A partir de aquí comenzamos a obtener respuestas a la pregunta de por qué los tecnólogos están trabajando para construir AGI.
El progreso de la IA como progreso moral
Para los altruistas eficaces y los partidarios del largo plazo, simplemente insistir en una IA restringida no es una opción. El filósofo de la Universidad de Oxford, Will MacAskill, ha sido llamado el "profeta reacio" del altruismo efectivo y el largoplacismo. En su libro de 2022 What We Owe the Future, explica por qué cree que el estancamiento del progreso tecnológico es inaceptable. "Los períodos de estancamiento", escribió, "podrían aumentar el riesgo de extinción y colapso permanente".
Cita a su colega Toby Ord, quien estima que hay una posibilidad entre seis de extinción humana durante el próximo siglo debido a riesgos como la IA deshonesta y las epidemias diseñadas. Otro colega de EA, Holden Karnofsky, cree de manera similar que estamos viviendo en un "punto de inflexión en la historia" o "el siglo más importante", un período especial en la historia humana en el que prosperaremos como nunca antes o sufriremos la destrucción. MacAskill, al igual que Musk, sugiere en el libro que una buena forma de evitar la extinción es colonizar otros planetas para no poner todos los huevos en la misma cesta.
Pero eso es sólo la mitad del "argumento moral a favor de la solución espacial" de MacAskill. La otra mitad es que debemos esforzarnos por hacer que la futura civilización humana sea lo más grande y utópica posible. Como dice Bostrom, colega de MacAskill en Oxford, la "colonización cósmica" nos dará el espacio y los recursos para ejecutar una gran cantidad de simulaciones digitales que permitirán a los humanos vivir felices para siempre. ¡Cuanto más grande sea el espacio, más humanos (digitales) felices habrá! Aquí es donde residen la mayoría de los valores morales: no en el presente aquí en la tierra, sino en el futuro en el cielo… lo siento, me refiero a la “vida virtual después de la muerte”.
Cuando juntamos todas estas ideas y las generalizamos, llegamos a esta proposición básica:
Cualquiera que estudie religión puede ver inmediatamente qué es esto: lógica apocalíptica.
Los transhumanistas, los altruistas eficaces y los a largo plazo heredan la visión de que el fin es inminente y que el progreso tecnológico es nuestra mejor oportunidad de progreso como civilización. Para aquellos que actúan según esta lógica, perseguir AGI puede parecer una obviedad. Aunque creen que AGI plantea un riesgo existencial significativo, creen que no podemos darnos el lujo de no construir AGI porque tiene el potencial de impulsar a la humanidad desde una precaria adolescencia terrestre (¡que podría terminar cualquier día!) hasta una próspera edad adulta interestelar (¡tantas personas felices, tantas!). ¡Muchos valores civilizados!). ¡Por supuesto que debemos avanzar tecnológicamente, porque eso significa avanzar civilizacionalmente!
¿Pero esto tiene sus raíces en la razón y la evidencia? ¿O tiene sus raíces en un dogma?
La premisa subyacente aquí es el determinismo tecnológico, mezclado con una pizca de geopolítica. La idea es que incluso si usted y yo no creamos una IA terriblemente poderosa, alguien más o algún otro país lo hará; entonces, ¿por qué dejar de involucrarnos? Altman de OpenAI ejemplifica la creencia de que la tecnología debe avanzar. Escribió en su blog en 2017: "A menos que nos destruyamos a nosotros mismos primero, surgirá una inteligencia artificial sobrehumana". "Como hemos aprendido, el progreso científico eventualmente se producirá si las leyes de la física no lo detienen".
¿Hemos aprendido? No veo ninguna evidencia de que algo que pueda inventarse vaya a ser inventado alguna vez. (Como escribe Katja Grace, investigadora principal del Impacto de la Inteligencia Artificial: "Piensa en una máquina que te escupe mierda a los ojos. Técnicamente podemos hacerlo, pero probablemente nadie haya construido nunca una máquina así".) La gente parece estar más inclinada a perseguir la innovación cuando están impulsados por fuertes presiones económicas, sociales o ideológicas.
En medio de la locura por las AGI en Silicon Valley, la presión social e ideológica proviene de ideas religiosas reinventadas bajo la apariencia de transhumanismo, altruismo efectivo y largoplacismo. En cuanto a las presiones económicas y de rentabilidad, siempre están ahí en Silicon Valley.
Una encuesta de Reuters realizada en mayo mostró que el 61% de los estadounidenses cree ahora que la inteligencia artificial puede amenazar la civilización humana, una opinión que es particularmente fuerte entre los cristianos evangélicos. Para el experto en estudios religiosos Geraci, esto no es sorprendente. Señaló que la lógica apocalíptica es "muy, muy, muy poderosa en el cristianismo protestante estadounidense", hasta el punto de que 4 de cada 10 adultos estadounidenses creen actualmente que la humanidad está viviendo en el fin de los tiempos.
Desafortunadamente, la lógica apocalíptica a menudo engendra un fanatismo peligroso. En la Edad Media, cuando aparecía un falso mesías, la gente abandonaba sus posesiones mundanas para seguir a su profeta. Hoy en día, mientras los medios de comunicación inundan los rumores sobre el fin del mundo de la IA, los verdaderos creyentes están abandonando la universidad para estudiar la seguridad de la IA. La lógica del apocalipsis o la redención, el cielo o el infierno, lleva a la gente a correr enormes riesgos, a comprometerse con ellos.
En una entrevista conmigo el año pasado, MacAskill negó prácticas extremas de juego. Me dijo que en su imaginación, cierto tipo de hermanos tecnológicos en Silicon Valley creen que hay un 5% de posibilidades de morir a causa de un desastre de AGI y un 10% de posibilidades de que AGI traiga una utopía feliz, y estarán dispuestos a hacerlo. Para soportar estas oportunidades, construya AGI rápidamente.
"No quiero que personas como esta construyan AGI porque no responden a las cuestiones éticas", me dijo MacAskill. "Quizás eso signifique que tenemos que retrasar la Singularidad para hacerla más segura. Quizás eso signifique que la Singularidad no va a funcionar". serlo en mi vida. Va a ser un gran sacrificio".
Cuando MacAskill me dijo esto, imaginé una imagen de Moisés mirando hacia la Tierra Prometida pero sabiendo que no podría alcanzarla. La visión a largo plazo parecía exigirle una creencia brutal: usted personalmente no será salvo, pero sus descendientes espirituales sí.
Necesitamos decidir si esta es la forma en que queremos la salvación
No hay nada malo en sí mismo en creer que la tecnología puede mejorar fundamentalmente el destino de la humanidad. En muchos sentidos, claramente así es.
"La tecnología no es el problema", me dijo Ilia Delio, quien tiene dos doctorados y una cátedra de teología en la Universidad de Villanova. De hecho, Delio estaba convencido de que ya estamos en una nueva etapa evolutiva, pasando del Homo sapiens al “Homo sapiens tecnológico”. “La visión es gratificante. Ella cree que debemos evolucionar de forma proactiva con la ayuda de la tecnología y con la mente abierta.
Pero también entiende que debemos tener claro qué valores influyen en nuestra tecnología, "para que podamos desarrollar tecnología con un propósito y con ética", dijo. De lo contrario, "la tecnología es ciega y potencialmente peligrosa".
Geraci está de acuerdo. "Sería un poco aterrador si mucha gente en Silicon Valley dijera: 'Oye, apoyo esta tecnología porque me hará inmortal'", me dijo. "Pero si alguien dijera: 'Apoyo esta tecnología', porque creo que podemos usarlo para resolver el hambre en el mundo". Esas son dos motivaciones muy diferentes. Eso afectará el tipo de producto que intentas diseñar, las personas para las que estás diseñando y las personas que estás intentando diseñar. rodearse de la forma en que se implementa en el mundo”.
Al decidir cuidadosamente el valor de la tecnología, también se debe ser muy consciente de quién tiene el poder de decidir. Schwarz cree que los diseñadores de la IA nos venden una visión de los avances tecnológicos necesarios que traerá la IA y se presentan como los únicos expertos en ello, lo que les da un poder enorme, posiblemente más que el que nuestros funcionarios elegidos democráticamente tienen más poder.
"La idea de que el desarrollo de la inteligencia artificial es una ley de la naturaleza se convierte en un principio ordenador, y ese principio ordenador es político. Da poder político a algunas personas y mucho menos poder a la mayoría de otras", afirmó Schwarz. "Me resulta extraño decir: 'Tenemos que tener mucho cuidado con el AGI', en lugar de decir: 'No necesitamos el AGI, no forma parte del debate'. Pero hemos llegado a un punto en el que el poder es "Ser tratado de una manera que ni siquiera es la forma en que se nos dan opciones se solidifica, e incluso podemos recomendar colectivamente que no se aplique AGI".
Hemos llegado a este punto en gran parte porque durante los últimos mil años, Occidente ha estado en peligro de caer en una narrativa única: la historia que heredamos de los pensadores religiosos medievales que equiparaban el progreso tecnológico con la moralidad.
"Es la única narrativa que tenemos", dice Delio. "Esa narrativa nos lleva a escuchar a los expertos técnicos (que, en el pasado, también eran autoridades espirituales) y a incorporar los valores y suposiciones en sus productos".
"¿Cuál es la alternativa? Si la alternativa fuera 'vivir vivo es un objetivo en sí mismo'", añadió Delio, "entonces nuestras expectativas sobre la tecnología podrían ser completamente diferentes". "¡Pero no tenemos esa narrativa! Nuestras narrativas dominantes tratan sobre crear, inventar, hacer y dejar que nos cambien”.
Necesitamos decidir qué tipo de salvación queremos. Si nuestro entusiasmo por la inteligencia artificial proviene de una visión de trascender los límites de la tierra y la muerte del cuerpo, eso tendrá una consecuencia social. Pero si nos comprometemos a utilizar la tecnología para mejorar el mundo y el bienestar de estos organismos, podemos lograr resultados diferentes. Como dice Noble, podemos "comenzar a dirigir nuestras asombrosas habilidades hacia fines más seculares y humanos".