En el vertiginoso mundo de la tecnología, los modelos de lenguaje grandes (LLMs) han sido presentados como la vanguardia de la inteligencia artificial (IA), con promesas de revolucionar desde la medicina hasta la manufactura. Sin embargo, un examen más detenido revela una estrategia menos altruista y más calculadora por parte de las grandes corporaciones tecnológicas. A través de un meticuloso análisis de un esquemático diagrama de flujo, recientemente filtrado, y discusiones con expertos del sector emerge una narrativa preocupante sobre cómo estas empresas pueden estar manipulando el mercado y la percepción pública para consolidar su dominio.
Esta semana vi un diagrama que circula discretamente entre círculos internos de la industria, el cual detalla un plan cíclico donde se exageran las capacidades de los LLMs, describiéndolos como casi ‘mágicos’. Esta promoción desmedida no sólo atrae inversiones masivas sino que también establece un terreno fértil para influir en la legislación favorable que protege a las corporaciones establecidas y margina a los competidores que creen en que la solución para que la tecnología no sea ‘malvada’ se encuentra en el código abierto.
Como ha sucedido en otras ocasiones, esta manipulación se cristaliza en una regulación sesgada hacia los grandes competidores que, según el documento, apunta a “usar legislación para cortar a competidores de código abierto”, todo esto gracias a la capacidad económica de las grandes corporaciones que les da recursos casi ilimitados para cabildear con el Congreso.
Uno de los pilares de esta estrategia es la construcción propagandística de demostraciones hiperbólicas que, aunque impresionantes, a menudo no representan las capacidades reales de la IA. Estas demostraciones son esenciales para perpetuar el mito de la omnipotencia de la IA, lo que a su vez facilita la obtención de fondos significativos de los mercados de capital. Exageran las capacidades tecnológicas creando ilusiones que les permiten aumentar la visibilidad y obtener más apoyos.
El flujo de dinero no termina ahí. Según el diagrama, millones de dólares pasan a los empleados a través de transacciones secundarias activas, y se utilizan grandes desembolsos para retener talento y competir contra gigantes tecnológicos como Google y Microsoft. Esta estrategia no solo asegura la lealtad del talento clave sino que también mantiene la innovación firmemente bajo el control de unas pocas entidades poderosas.
El impacto social y ético de estas prácticas es profundamente significativo. Como apunta la Dra. Elisa Martínez, experta en ética tecnológica de la Universidad de Barcelona: “estamos permitiendo que la narrativa sobre la IA sea escrita por quienes se benefician de su omnipresencia controlada. Esto plantea serias preguntas sobre privacidad, autonomía y la equidad en el acceso a la tecnología”.
Además, estas prácticas podrían estancar la innovación genuina al desincentivar el desarrollo de tecnología de código abierto, que a menudo lidera en innovación pero carece del soporte financiero de grandes corporaciones. Esto no solo afecta la competencia sino que también limita la diversidad de soluciones tecnológicas disponibles para problemas críticos, poniendo en riesgo el progreso en áreas como el cambio climático y la medicina personalizada.
En un mundo ideal, la regulación de la IA debería fomentar un campo de juego equitativo donde los innovadores puedan competir basados en la calidad y la utilidad de sus tecnologías, no su capacidad para influir en políticos o mercados financieros. Sin embargo, el panorama que revela el citado diagrama sugiere un camino preocupante hacia una concentración de poder tecnológico y económico que podría ser difícil de revertir.
Es crucial que la discusión sobre la IA y su futuro sea transparente y participativo. Solo así podemos esperar que la tecnología cumpla su verdadero potencial como herramienta para el bien común, no solo para un selecto grupo que domina su narrativa y mercado. Este, no es un problema ético en el uso, pero sí representa un problema ético de preponderancia.