Ya hace 2,500 años Antisthenes nos decía “La pieza de conocimiento más útil en términos prácticos es desaprender aquello que no es cierto” (“The most useful piece of learning for the uses of life is to unlearn what is untrue.”).
¿Alguna vez te has preguntado cómo una computadora “aprende” cosas? Imagina que tienes una libreta donde escribes recetas de cocina y, al mismo tiempo, puedes borrar una receta para que nadie más pueda verla. Algo similar sucede con la inteligencia artificial (IA), pero de una manera mucho más compleja.
La IA ha cambiado nuestra forma de vivir, desde sugerir películas en Netflix hasta ayudar a los médicos a diagnosticar enfermedades. Sin embargo, con estas capacidades aparecen nuevos retos. Por ejemplo, ¿qué pasaría si un algoritmo pudiera calibrarse y aprendiera cómo hacer algo considerado como “peligroso”, como crear sustancias nocivas o incrementar las vulnerabilidades en una red de datos? Aquí es donde entra el concepto de “machine unlearning” o “desaprendizaje automático” explicado recientemente por mi amigo Philip Torr[1]. Este término se refiere a la capacidad de una IA para olvidar conocimientos específicos que podrían ser peligrosos.
¿Cómo aprende una IA?
Para entender el desaprendizaje, primero necesitamos comprender cómo una IA aprende. Todo comienza con datos. Estos pueden ser imágenes, textos o números que alimentan un sistema para que este pueda identificar patrones. Por ejemplo, una IA que reconoce caras estudia miles de fotos hasta aprender qué hace única a una cara.
El aprendizaje de las máquinas no se limita a copiar información; en cambio, organiza el conocimiento en una red compleja de conexiones, inspirada inicialmente de cómo funciona nuestro cerebro. Una vez que la IA aprende algo, es difícil deshacerlo completamente porque el conocimiento está “integrado” en dichas conexiones.
¿Por qué necesitamos que las máquinas desaprendan?
Aunque la capacidad de una IA para aprender es increíble y cada vez más poderosa, a veces necesita olvidar cosas. Esto ocurre por varias razones. En aspectos de privacidad, si una IA aprende algo privado, como tus datos personales, podría necesitar olvidarlo para cumplir con leyes como el Europeo Reglamento General de Protección de Datos (GDPR). En áreas de seguridad (o ciberseguridad) la IA podría aprender información que, si cae en las manos incorrectas o no autorizadas, podría causar daño: una IA entrenada para ayudar en química podría ser mal utilizada para desarrollar sustancias peligrosas. En aspectos de corrección de errores o detección de fallas una IA puede aprender patrones incorrectos o sesgados. Desaprender de esos errores ayuda a que las inferencias puedan ser más justas y precisas.
¿Cómo funciona el “desaprendizaje”?
El desaprendizaje no es tan sencillo como borrar una receta de una libreta. Es como si las conexiones que formaron esa receta en tu memoria estuvieran mezcladas con otras recetas. Si intentas borrar solo una, podrías borrar información importante o alterar las otras conexiones.
Para lograr que una IA desaprenda se pueden utilizar técnicas avanzadas como “confundir” a la IA cambiando las partes específicas de su conocimiento que queremos eliminar. También se pueden introducir datos que obligan a la IA a corregir o deshacer un conocimiento específico sin afectar sus otras habilidades. Otra técnica es la de encontrar o “vectorizar” los parámetros que permitan identificar exactamente qué conexiones de la IA están relacionadas con la información que queremos olvidar y eliminarlas. Hace unos años, mi padre sufrió un infarto cerebral, por lo que recibió una intervención neurofisiológica en la que le suministraron un líquido de contraste que recorría ciertas arterias cerebrales. Gracias a este contraste, fue posible detectar algunas zonas dañadas por el infarto, lo que permitió diagnosticar la gravedad y evaluar los riesgos. En muchos casos, estos infartos generan consecuencias como pérdida de memoria o cambios en la conducta. Algo similar puede aplicarse en sistemas basados en redes neuronales artificiales.
A pesar de su importancia, el desaprendizaje todavía enfrenta grandes desafíos. Por ejemplo, poder reconstruir el conocimiento. Incluso si logramos que una IA olvide algo, puede “redescubrirlo” combinando otras piezas de conocimiento que ya tiene. Otro tema de gran interés es el impacto involuntario al eliminar una pieza de conocimiento relevante y con lo que podríamos afectar habilidades relacionadas que la IA necesita para otras tareas. Un tema no menor es el relacionado con los costos computacionales: El proceso de desaprender es complicado y consume muchos recursos, lo que lo hace difícil de aplicar en modelos con grandes volúmenes de datos.
El desaprendizaje es solo una de las herramientas que se están desarrollando para hacer que la IA sea más segura. Aunque no es una solución perfecta, es un paso crucial hacia sistemas que respeten nuestra privacidad, eviten riesgos y sean integralmente responsables. Imagina un futuro donde las máquinas no solo sean inteligentes, sino también conscientes de cómo protegernos mejor.
Así como nosotros aprendemos a ser responsables con nuestro conocimiento, las máquinas también están aprendiendo a hacerlo. Y eso, en última instancia, nos ayuda a todos a construir un mundo más seguro y mejor conectado.
[1] F. Barez, T. Fu, A. Prabhu, S. Casper, A. Sanyal, A. Bibi, A. O’Gara, R. Kirk, B. Bucknall, T. Fist, L. Ong, P. Torr, K.-Y. Lam, R. Trager, D. Krueger, S. Mindermann, J. Hernandez-Orallo, M. Geva, and Y. Gal, “Open Problems in Machine Unlearning for AI Safety,” arXiv preprint, arXiv:2501.04952, 2025. [Online]. Available: https://arxiv.org/abs/2501.04952