En la toma de decisiones intervienen múltiples factores, alta variabilidad, procesos de selección, validación de información y de individuos, y si se quiere que sea sustentable, lo cual significa que una decisión tomada hoy, para satisfacer ciertas necesidades, no comprometa los recursos y oportunidades para el futuro, se requiere de un factor adicional que hoy se ha convertido en un dolor de cabeza. La confianza -o la creencia firme en la verdad, la responsabilidad, la habilidad o fortaleza de alguien o algo-, el cuidado por la naturaleza incluido, son fundamentales. Por otro lado, el malestar creado por la desinformación, la baja transparencia, el caos, la manipulación de los medios y la poca credibilidad en las instituciones, atenta considerablemente contra la confianza.
Además, se añade otra calamidad. A finales del 2022 más de 700 científicos y expertos legisladores se reunieron para predecir los riesgos de las tecnologías de IA y proponer límites al tremendo crecimiento que han tenido, principalmente las aplicaciones de inteligencia generativa tipo GPT.
Aunque la mayoría de los participantes confirmó que no hay de qué preocuparse, aproximadamente el 15%, expresó que la influencia de estas herramientas “sería mala o muy mala” para la evolución de la humanidad. (The Economist 4.22.2023)
Este temor tiene fundamento, pues actualmente la inteligencia generativa maneja tanto conocimiento como ningún ser humano pueda procesar en forma individual. Para el 2025-26 el grupo Shoup ha predicho que cerca del 99% del contenido de internet será generado por un GPT, que usa datos preexistentes para generar información tan convincente, que un humano difícilmente podría encontrar una incongruencia. No se puede diferenciar quién o qué generó un contenido especifico.
¿Por todo esto, será posible que “las decisiones que tomemos hoy”, basadas en estas estructuras artificiales de información perecedera, falsa o incompleta, controladas por unos pocos poderosos influencers, y/o producidas por algoritmos auto generativos, puedan impactar de alguna forma el desempeño de futuras generaciones? Indudablemente, pero no se podrán validar ni las fuentes, ni los procesos, ni la información, ni responsabilizar con certeza a máquinas o individuos que nunca han existido físicamente; son sólo espectros electrónicos los que las generaron.
¿Son estas decisiones sustentables?
Realmente no lo sabemos. Porque no conocemos con certeza quien las ha tomado. No tenemos “confianza de las acciones tomadas por el humano/maquina”, porque a medida que evolucionan los algoritmos y se utilizan más estos mecanismos artificiales, cada vez nos entienden mucho mejor y aprenden no sólo de hechos (verdaderos o falsos) ya ocurridos, sino de eventos provenientes de sus propias estructuras de inferencia estadística, supuestos provenientes de modelos probabilísticos y estocásticos de predicción, de sus propias reglas, comportamientos, y acciones, que no están basados en las experiencias humanas, naturales o sociales. Es un futuro que estará sesgado, no a los hechos sino a los intereses de algunos pocos.
Los modelos generativos de las diversas versiones del GPT nos ha sobrepasado, se autogeneran y auto aprenden sin control. Y esto conduce al gran temor llamado “problema de alineamiento”, o el riesgo de que un mecanismo de IA logre, a cualquier costo, el propósito solicitado por el usuario (¿humano?), pero en el camino haga algo que no sea deseado ni detectado y que no pueda ser controlado. Lo peor es que no nos daremos cuenta, pues como la fábula de la rana en el agua tibia, “no puede salir de la olla hasta que ya está totalmente cocinada”, sin retorno.
Como lo predijo N. Wiener, padre de la cibernética, en 1949: “el potencial de la maquina en la fábrica es enorme, pero ha traído una revolución de incalificable crueldad. Debemos manejar hechos comprobables en lugar de ideologías de moda, si queremos sobrepasar este periodo sin heridas”.
Esto es gravísimo para líderes empresarios o gobernantes que tomen decisiones a su conveniencia, y aunque insignificantes que parezcan, ya que pueden entrar en un torbellino ciclónico de expansión, que llamo “la tragedia de los grandes números, o las consecuencias que genera una insignificante decisión hoy, -como enviar un video, infringir un reglamento, tirar una botella de plástico -, en el ecosistema natural, cuando esta se replica billones de veces”.
No es posible ser sustentable cuando no hay confianza en las instituciones y en los decisores, cuando no se conocen las verdaderas fuentes de información, ni sus intenciones, ni sus mecanismos de verificación, y no hay conciencia de las consecuencias de lo que un individuo hace hoy y que puede influenciar a todo el planeta, mañana.
El autor es Profesor Emérito de EGADE Business School.