Javier Murillo

El momento bisagra

Por primera vez tenemos la posibilidad, con inteligencia artificial, de tomar un camino errado y provocar un revés ambiental catastrófico.

Momento extraordinario, una época fuera de serie, la nueva era o realidad... Hay una innumerable cantidad de adjetivos para definir los años recientes, pero coincido con quienes han llamado a esta era "el momento bisagra". Filósofos, pensadores, académicos e investigadores de referencia debaten si los eventos de nuestro siglo pueden cambiar el signo de nuestra especie en los próximos miles o millones de años.

Dados los descubrimientos científicos y tecnológicos de los últimos dos siglos, el mundo nunca ha cambiado tan rápido. Puede que pronto tengamos mayores poderes para transformar, no sólo nuestro entorno, sino a nosotros mismos y nuestros sucesores. La teoría de la bisagra de la historia ha ganado una renovada atención en meses recientes, aunque los científicos quieren abordar esta cuestión de una forma más sistemática.

Comenzó el año pasado, cuando el filósofo de la Universidad de Oxford, Will MacAskill, publicó un análisis de profundidad en un foro popular dedicado al altruismo efectivo, un movimiento con el propósito de aplicar la razón y la evidencia para el mayor bien común. En años recientes, ha crecido el apoyo a la idea de que vivimos en un momento de alto e inusual riesgo de 'autoaniquilación' con los daños correspondientes a largo plazo a nuestro planeta. Tal y como argumenta el astrónomo británico Martin Rees: "nuestra Tierra ha existido durante 4,500 millones de años, pero este siglo es especial. Es la primera vez que una especie, la nuestra, tiene el futuro del planeta en sus manos". Coincido, aunque algunos gobiernos no alcancen a ver más allá de sus fronteras.

Por primera vez, tenemos la habilidad con inteligencia artificial de degradar irreversiblemente la biósfera o tomar un camino errado con la tecnología y provocar un revés catastrófico a la civilización, lo que hace que nuestro tiempo sea particularmente influyente. Hemos creado amenazas que nuestros ancestros nunca tuvieron que enfrentar, como una guerra nuclear o lidiar con patógenos asesinos. Y encima, no hacemos suficiente para evitar que estos eventos ocurran.

Un ejemplo de lo que aquí compartimos es la Convención sobre Armas Biológicas de las Naciones Unidas, cuyo veto global al desarrollo de armas biológicas, como un supercoronavirus, tiene un presupuesto más pequeño que un restaurante McDonald's promedio. Aunque usted no lo crea.

Pero aquí va la buena noticia, de acuerdo con varios investigadores de renombre, existe la posibilidad de que el siglo XXI presencie la llegada de una sofisticada inteligencia artificial que pronto se transforme en superinteligencia. Argumentan que la forma en que manejemos esta transición puede determinar todo el futuro de nuestra civilización. Por sí misma, una inteligencia todopoderosa puede marcar el destino de la humanidad en función de los objetivos y necesidades que se tenga. El futuro de la civilización podría ser moldeado por el primero que consiga controlar la inteligencia artificial. Y esto podría provocar que una única fuerza busque el bien de todos o que un gobierno malvado use ese poder para subyugar a todos sus disidentes. ¿Tiene en mente algunas potencias candidatas? ¿Una en este continente y otra en Asia? Al tiempo.

Fundador y presidente del consejo de Metrics.

COLUMNAS ANTERIORES

Empoderamiento femenino en la ciencia de datos
La disputa de Musk contra OpenAI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.