Con 523 votos a favor, 46 en contra y 49 abstenciones, el Parlamento Europeo aprobó una normativa para el uso de la inteligencia artificial (IA) en los 27 países que comprenden la Unión Europea (UE). A lo largo de las discusiones que antecedieron su aprobación, se desarrolló un debate centrado en asegurar que las innovaciones derivadas de la IA estén centradas en los seres humanos, con un enfoque basado en principios éticos y de protección de los derechos, la seguridad y la confianza de las personas.
Esta legislación marca un hito en la historia, ya que, a la par de garantizar los derechos fundamentales de las personas, también permitirá impulsar la innovación y la inversión para posicionar al continente europeo como un líder en la materia a nivel global. Asimismo, la normativa constituye el primer marco jurídico que aborda un esquema de riesgos de inteligencia artificial, al establecer prohibiciones y limitaciones específicas a prácticas que pudieran derivar en amenazas a la privacidad e integridad de las personas, la sociedad, el medio ambiente y las democracias.
En relación con estas prohibiciones existen excepciones limitadas estrictamente definidas que se relacionan con las aplicaciones de IA, las cuales amenazan los derechos de la población. Ahí se consideran las que podrían influir en la conducta, salud o bienestar de las personas; las que permitan su identificación biométrica remota y en tiempo real en espacios públicos, así como las que faciliten la categorización de las personas y haciéndolas vulnerables a posibles actos de discriminación o segregación. Todo lo anterior, con la finalidad de proteger los derechos fundamentales de las personas.
Asimismo, la transparencia representa uno de los elementos centrales de esta normativa, al considerar obligaciones para los responsables, proveedores y desarrolladores encargados de notificar a las personas si están interactuando con un sistema de este tipo o si los contenidos o resultados fueron generados por esa tecnología, con lo que se brinda certidumbre sobre su funcionamiento y alcances.
Por ejemplo, en el caso del Chat GPT, dentro de las obligaciones que deberán observar sus desarrolladores está la publicación de un resumen de los datos protegidos por derechos de autor, un punto muy importante, pues, como se debatió ampliamente, las autoridades y los desarrolladores deben asegurar que las plataformas y tecnologías de IA sean utilizadas sin recurrir a prácticas como el plagio, el fraude o la difusión de información errónea, poco neutral o sintética.
Otro elemento central de esta legislación es la adopción de un enfoque basado en el riesgo, ya que al señalar deberes claros y requisitos para desarrolladores y proveedores de esos sistemas, se origina una obligación de evaluar la fiabilidad de las aplicaciones e innovaciones, a efecto de identificar qué tipos de riesgos podrían implicar para las personas usuarias. A partir de dicho análisis y valoración de riesgos, se podrá establecer en la normativa los requisitos, limitantes o prohibiciones para su implementación, según sea el caso.
No podemos negar que la inteligencia artificial ha surgido como una poderosa herramienta para incrementar la utilidad y eficiencia de las tecnologías en diversos ámbitos. No obstante, es importante observar que su regulación y utilización contemple limitantes y previsiones que garanticen que su desarrollo dará como resultado sistemas seguros, fiables, transparentes, éticos e imparciales, siempre bajo supervisión humana. Las tecnologías deben ser un aliado del ser humano y de sus derechos.