No sé si fue premeditado o coincidencia, pero el hecho de que 3 de los 5 premios Nobel del 2024 estén o hayan trabajado para Google tiene un significado relevante en la selección de los futuros ganadores de estos premios.
Este pasado octubre me sorprendieron notablemente los premios Nobel entregados este año.
En Química, al investigador David Baker, por descifrar el código de las estructuras de las proteínas, junto a Demis Hassabis y John Jumper, co-creadores de la herramienta (AlphaFold) de aprendizaje de inteligencia artificial (IA) para predecir, con gran precisión, la estructura de 3D de proteínas a partir de su secuencia de aminoácidos.
Y el deseado premio de física, a John Hopfield y Geoffrey Hinton por los descubrimientos fundamentales de redes neuronales, para la creación del aprendizaje maquinal de los modelos de lenguaje extenso (LLM).
AlphaFold no es precisamente un avance científico sino un algoritmo inteligente que administra información de enormes bancos de datos que ya existen y predice, mediante millones de iteraciones y combinaciones, un resultado espectacular, algo difícil y tardado de hacer en un laboratorio convencional.
Pero lo más sorprendente es que, el laureado G. Hinton, que junto con Josua Bengio y Yann LeCun, han sido los padrinos de la IA moderna, haya declarado en 2023, la posibilidad de que “los sistemas inteligentes pudieran escapar del control humano y tomar sus propias decisiones e influir sobre actividades de impacto nacional como las elecciones, o el activar mecanismos de alto peligro para la humanidad”, es impactante, o sea, ¿el padre se atemoriza de su invento?
Por lo anterior, pide al gobierno que, de alguna forma, se regule su uso y a las empresas que inviertan más en seguridad de sus propios productos.
Pero esto no es todo. Lo que creo más critico es el impacto de las empresas tecnológicas sobre una de las áreas más importantes del crecimiento de las naciones, la educación; porque entonces estamos navegando en aguas muy peligrosas.
“Las tecnologías digitales han sido uno de los impulsores más prometedores de la educación moderna” (B. Gates, 2023). Principalmente en la integración de IA en los procesos educativos, en la educación personalizada, en la eficiencia administrativa, en tutores inteligentes, en el feedback continuo y efectivo, en el análisis de grandes cantidades de datos, entre otras áreas.
La IA generativa, más que una herramienta, es un agente autónomo que no se programa, sino que se entrena y a medida que crece puede llegar a tomar sus propias decisiones, muchas veces basadas en premisas falsas o distorsionadas de la realidad, lo que hace a la IA muy peligrosa para usarla como fundamento para educar, dado que puede desarrollar sus propias teorías, en diferentes disciplinas, basadas en datos y criterios artificiales, falsos, no verificados por expertos y difundirlas como grandes descubrimientos.
Como lo ha expresado Eric Schmidt ex CEO de Google, …podemos construir nuevas herramientas, con agentes inteligentes, “sin pasar” por programadores.
Antes educábamos basados en teorías de gigantes de las ciencias, de las contribuciones de los grandes pensadores; ahora hay que construir sobre las plataformas que las compañías tecnológicas desarrollen, por lo que estamos sujetos a las tendencias, y a los caprichos de unos pocos tecnólogos de gran influencia lo que, en manos perversas, podría tender a perpetuar la pobreza, la desigualdad y la parálisis de crecimiento de las regiones más vulnerables del planeta.
Creo que, en el futuro, va a ser tremendamente difícil educar a los próximos científicos, pues habrá que competir con investigadores, expertos y emprendedores “artificiales inteligentes” que pueden aplicar el método científico (observar, hipotetizar, experimentar, coleccionar datos, analizar las conclusiones, validar con colegas -artificiales- y lanzar teorías), mucho más eficientemente que el humano. Lo siento por los programadores de TI, que ya tienen sustitutos.
Si educamos basados en estos conceptos, las estructuras del saber y de la sociedad estarán debilitándose y entraremos en una curva de rendimientos decrecientes de conocimiento y de prosperidad.
La educación es clave para lograr un crecimiento social, económico y ambiental balanceado de las naciones, por lo que debemos asegurar que la investigación científica y tecnológica sea conducida en forma responsable y ética para proteger los derechos humanos y ambientales, y los de los investigadores, principalmente en países en desarrollo, en donde no hay estado de derecho confiable, y en donde las regulaciones son impuestas por gobiernos autocráticos, sin oposición y sin instituciones regulatorias.
Temor que refuerza de nuevo G. Hinton, 2023, “en un próximo futuro, será incuestionable que las maquinas se conviertan en entes más inteligentes que el humano, en todos los dominios en los que él es superior; es una cuestión de cuándo y cómo, no de si lo van a lograr”,
Quizás ganar un nobel ya no sea para bien de la humanidad.
¿Sera que irá para una máquina y en beneficio de unos pocos?
El autor es Profesor Emérito de EGADE Business School del Tecnológico de Monterrey.
Contacto: cscheel@tec.mx