En el vertiginoso mundo de la tecnología, pocos avances han generado tanto entusiasmo y expectativas como la inteligencia artificial (IA), especialmente con la reciente explosión de los modelos de lenguaje de gran escala. Empresas de todos los sectores se han apresurado a subirse al tren de la IA, viendo en ella la próxima gran revolución tecnológica. Sin embargo, tras la euforia inicial, estamos comenzando a ver los primeros signos de una realidad más compleja.
Hasta hace un par de años, el apetito de la industria por proyectos que involucraran datos seguía un paso bastante saludable. Aprovechar los datos era un paso natural después de los millones que se gastaron en transformaciones digitales. Muchas empresas estaban invirtiendo fuertemente en arquitecturas de datos que pudieran hacer de esto una realidad.
De pronto, todo cambió. ChatGPT fue lanzado y todas las empresas trataron de saltar los pasos naturales en la evolución de los datos para poder llegar a tener el tipo de motor de inteligencia que los LLM (modelos de lenguaje) podían ofrecer. Y empresas que aún no tenían la madurez de datos suficientes querían tener su ChatGPT interno.
El advenimiento de los modelos de lenguaje como GPT, Llama o Gemini, parece haber impulsado a todas las industrias en una carrera por ver quién tendría el acceso primicio a estos motores y quién podría implementarlos mejor en sus arquitecturas. He visto cómo se han dedicado recursos, tiempo y esfuerzo, y de la noche a la mañana han aparecido empresas y expertos que dicen ser capaces de generar mucho valor a través de estos modelos de lenguaje.
Sin embargo, varias empresas están comenzando el ciclo de la desilusión. Goldman Sachs anunció que es muy probable que los atractivos retornos de inversión que se veían venir no se cristalicen. De la misma forma, hay varias empresas que están comenzando a descontinuar los proyectos que habían comenzado por varias razones.
Una de estas razones es el costo. Utilizar los modelos es caro; es una de las formas más costosas de usar un modelo de machine learning. Se necesitan conexiones constantes a un servicio externo, por el cual se cobra por preguntar y por recibir respuestas. Las economías de escala comienzan a fallar cuando nos damos cuenta de que al incrementar el número de usuarios, es muy probable que los costos no aumenten linealmente sino exponencialmente.
Otra razón es que todas estas arquitecturas y modelos de lenguaje se están implementando en el vacío por personas que muchas veces no tienen más preparación que un par de cursos sobre cómo implementarlos, sin preocuparse particularmente por cómo estos modelos van a dar un verdadero valor al negocio. Al implementarse en el vacío, no se sabe a ciencia cierta cómo se pueden integrar a los procesos y a los sistemas. Muchas veces no son más que interesantes pruebas de concepto que no forman parte de una estrategia sólida.
Hemos olvidado mucho de los principios a los cuales nos tardó años llegar para tener estrategias sólidas de analítica e inteligencia artificial. Uno de ellos es el principio de data management. Veo pocos proyectos que traten de tener estos principios aún cuando ya se habla de tener este tipo de modelos en ambientes productivos. Se generarán miles de datos que nadie está gobernando y se ingestan miles de documentos de los que nadie sabe el formato o la taxonomía.
Pero como siempre, hay un halo de esperanza, y este es que las empresas que sepan y puedan implementar estas estrategias adecuadamente, que tengan desde antes taxonomías claras y datos bien ordenados, podrán en verdad sacarle provecho a esta tecnología.
¿Pienso yo que se viene un enfriamiento en la inversión de IA? Sí, es lo más probable, pero igual que el Internet en su momento, también pienso que la IA llegó para quedarse. Vamos a entrar en una etapa donde solo las empresas que puedan generar verdadero valor se quedarán y se convertirán en los nuevos gigantes tecnológicos.