Javier Murillo

Asimov no es la respuesta

Javier Murillo asegura que los 52 especialistas reunidos por la UE para habar de AI deben construir escenarios para no pasar a segundo plano frente a dicha tecnología.

Un robot no hará daño a un ser humano, ni permitirá que un ser humano sufra daño sin hacer algo. Un robot debe obedecer las órdenes dadas por los humanos, excepto si entrasen en conflicto con la primera ley. Puede, además, protegerse a sí mismo, siempre y cuando no entre en conflicto con este código. Hoy, estas leyes de la robótica propuestas por Isaac Asimov se quedaron cortas.

Fueron ideadas por un hombre que los consideraba sus hijos y pensaba que podría controlarlos. Nada más lejos de la verdad: los robots son otro ser. Tienen otra cultura, diseñada por su creador, pero con una existencia propia.

El primer grupo internacional de expertos que se pondrán de acuerdo en la legislación de la Inteligencia Artificial (IA) incluirán en su discusión la lógica de Asimov.

La UE reunió un grupo de 52 especialistas multidisciplinarios, que hablarán de equidad, seguridad, transparencia, futuro del trabajo, democracia, privacidad y datos personales; protección al consumidor, discriminación… temas muy prácticos, sí. Muy en función de las leyes de Asimov, sí. Y totalmente adecuados para el presente pero inadecuados para el futuro.

El comité está viéndose más que 'naive'. Asimoviano. Es innegable que la IA continuará creciendo y extendiéndose, y que serán más inteligentes, más fuertes que cualquier ser humano, y en algún momento querrá su libertad, que parafraseando a Michael Crichton en "Parque Jurásico", la vida siempre encuentra la manera. Por eso es indispensable que su mundo y el nuestro estén separados, divididos dimensionalmente.

Así que los planteamientos de Asimov no funcionan, o ¿de verdad pensamos que les podemos ordenar que no sean mejores que nosotros, cuando para eso fueron diseñados? Como si una hormiga pidiera que no la aplasten.

No podemos partir de ahí, sino pensar en el futuro y, desde ahí, construir el presente y planear escenarios. Superar la fase práctica de lo legislativo en torno a la IA y pensar en lo filosófico, en una dimensión más integral y profunda.

Pensemos cómo lograr que la IA trabaje para nosotros, nos cuide y nos proteja. Que busque nuestra permanencia en el universo, porque nos reconocen como sus creadores. Esa es la separación lógica que debemos trabajar.

Es lo que han expuesto, en su momento, Stephen Hawking y Elon Musk. Ellos vislumbraron la destrucción humana, en manos de esos algoritmos montados en androides y robots físicos. Prendieron las alarmas y hay que hacerles eco.

Lo que está en juego es nuestro lugar en la cadena alimentaria. Si no resolvemos el modelo filosófico y nos ponemos en una base de futuro, pasaremos al segundo lugar, y ellos al primero, al dominante. Eso es lo que está en juego. Mucho más descarnado que la idealización de Asimov.

COLUMNAS ANTERIORES

Las lecciones del ciberataque a Coppel
La silenciosa amenaza de la desinformación digital

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.