Estimados lectores, hoy retomamos el fascinante viaje por la historia de la inteligencia artificial que iniciamos hace un par de semanas. Si recuerdan, nos quedamos en el punto en que Google, ese gigante de la tecnología, estaba inyectando vida a sus proyectos internos con el poder de las redes neuronales. Pero no cualquier red neuronal, sino aquellas que habían sido rebautizadas con un nombre mucho más atractivo: “aprendizaje profundo”. Este cambio de nomenclatura no fue solo un truco de marketing; reflejaba la complejidad y la gran cantidad de parámetros que estas redes requerían para ser verdaderamente útiles.
Ahora, imaginen la sorpresa en la industria cuando se descubrió que las GPUs, esos procesadores gráficos diseñados originalmente para mejorar nuestra experiencia en videojuegos, eran también máquinas de cálculo excepcionales para manejar estas complejas redes. Aquí es donde Nvidia entra en escena. Por una feliz coincidencia, esta empresa se convirtió en el fabricante líder de las GPUs que hoy son el corazón de muchos sistemas de IA. Este giro del destino catapultó a Nvidia al estatus de principal fabricante de semiconductores a nivel global.
Pero no todo termina ahí. Casi en paralelo, Facebook, ahora rebautizado como Meta, hizo un movimiento estratégico al contratar a Yann LeCun, una eminencia en el campo del aprendizaje profundo. LeCun se convirtió en el timonel del laboratorio de IA de la empresa, donde se han gestado algunas de las herramientas más avanzadas en visión por computadora. Estas innovaciones no solo han revolucionado la forma en que interactuamos con la tecnología, sino que también se han convertido en estándares de la industria.
Es importante destacar que muchos de estos grupos de investigación han sido generosos al compartir sus descubrimientos con la comunidad científica. Sin embargo, hubo quienes vieron con preocupación la acumulación de poder en manos de unas pocas corporaciones gigantes. En respuesta a esto, nació OpenAI, una iniciativa destinada a democratizar la inteligencia artificial. Elon Musk, ese visionario de la tecnología, fue uno de los líderes iniciales de este proyecto, aunque más tarde se desvincularía de la empresa.
Y aquí es donde las cosas se ponen realmente interesantes. OpenAI y Google se embarcaron en una especie de carrera espacial de la IA, centrada en el desarrollo de modelos de lenguaje de gran escala, conocidos como LLMs. Estos modelos tienen la capacidad de procesar cantidades astronómicas de texto y se utilizan en una variedad de aplicaciones, desde la detección de sentimientos hasta la generación de respuestas a preguntas complejas. El modelo GPT-4, implementado en ChatGPT, es quizás el más célebre de estos.
Aunque Google ha sido un pionero en muchos aspectos, optó por una estrategia cautelosa, evitando lanzar estos modelos al público general debido a los riesgos inherentes. Esto dejó a OpenAI en una posición ventajosa, dando la impresión de que habían ganado esta carrera por el modelo de lenguaje más avanzado.
¿Y qué hay de México en todo esto? ¿Cómo ha repercutido esta revolución tecnológica en nuestra ciencia y en nuestra industria? Esa es una historia que merece su propio espacio, y que sin duda abordaremos en nuestra próxima entrega.
León Palafox es académico de la Facultad de Ingeniería de la Universidad Panamericana.
Twitter: @leonpalafox
LinkedIn: www.linkedin.com/in/leonpalafox
Mail: lfpalafox@up.edu.mx