Comisionada del Inai

Paradigmas tecnológicos sobre protección de datos personales

La protección de datos personales debe ser un imperativo ético-normativo que acompañe a cualquier solución tecnológica, colocando la dignidad humana al centro.

Cada nuevo lanzamiento de un teléfono inteligente se envuelve en un ambiente festivo para promocionar sus mejoras, que parecieran a veces una mezcla de magia y ciencia ficción, para que las y los consumidores adopten con rapidez esas tendencias. Sin embargo, ¿las empresas comparten esa misma efusividad para proteger la privacidad en sus soluciones tecnológicas? ¿el paradigma tecnológico requiere una protección de datos personales desde el diseño?

Las tecnologías disruptivas tienen un impacto revolucionario en nuestra sociedad contemporánea. Como muestra en el ámbito de la inteligencia artificial (IA), una reciente investigación de Open AI, OpenResearch y la Universidad de Pensilvania sobre implicaciones potenciales de tecnologías como el ChatGPT y el mercado laboral de los Estados Unidos de Norteamérica encontró que, al menos 80 por ciento de la fuerza laboral podría tener un 10 por ciento de sus tareas afectadas con las innovaciones en IA, mientras que 19 por ciento de las personas profesionistas podrían verse afectadas en al menos un 50 por ciento en sus labores, siendo más susceptibles de ser automatizadas aquellas relacionadas con la escritura y la programación.

Ahora, si trasladamos esas tendencias para los retos de los demás países, resulta importante dentro de la complejidad del panorama que ofrece la IA y la posibilidad de establecer futuras políticas y regulaciones, el posicionamiento de la protección de los datos personales y la privacidad por defecto en las diversas soluciones tecnológicas que se ofertan al público.

En nuestro día a día, cada vez interactuamos más con las tecnologías, por lo que estos paradigmas parecerían indicativos de que la labor humana podría quedar relegada con aplicativos como ChatGPT: un modelo de lenguaje de IA, base de un amplio espectro de funcionalidades de automatización inteligente que dan muestra de su capacidad, madurez y potencia, al generar respuestas precisas y relevantes a preguntas o mensajes enviados por las personas usuarias, dando cuenta de un tratamiento dinámico de información a partir del entrenamiento y aprendizaje en una gran cantidad de datos disponibles en Internet, obtenidos de páginas web, noticias, libros, artículos científicos e inclusive conversaciones.

En esa coyuntura, entre las consideraciones éticas, sociales y económicas debemos mantener en el horizonte que la tecnología siempre tendrá como destinatarias a personas, cuyos derechos y libertades son exigibles en el ciberespacio a través de datos personales, por ende, cualquier solución tecnológica requiere protegerlos por defecto y por diseño, ante su tratamiento real o potencial, directo o indirecto.

Las medidas de seguridad no son infalibles, y, si bien en ChatGPT se afirma que se protege la privacidad mediante el anonimato y la eliminación de datos (entre otros parámetros de cumplimiento normativo), la reciente referencia de un fallo que expuso datos personales, no solo confirma la aplicabilidad de nuestra materia, sino la necesidad de ir más allá y abordar cuestiones clave para su adecuada gobernanza y una responsabilidad proactiva efectiva, acompañada de transparencia, ética y rendición de cuentas en torno a la debida gestión de datos sintéticos, la proscripción de manipulación y desinformación, el control de sesgos, y, el reconocimiento de la aportación individual en el proceso de aprendizaje de máquinas.

Toda nuestra actividad en línea genera un rastro y una estela digital, razón por la cual, es necesario que todas las partes interesadas compartan los mismos valores e incorporen a la protección de datos personales como un imperativo ético-normativo que acompañe a cualquier solución tecnológica, brindando a la innovación y a los aplicativos una mayor viabilidad y factibilidad a largo plazo, al colocar la dignidad humana al centro, en el entendido que, si queremos generar una verdadera inteligencia, ésta debe empezar por cuidar nuestros datos.

La autora es comisionada del INAI.

COLUMNAS ANTERIORES

La protección de datos personales para personas con discapacidad en México
Privacidad y protección de datos personales de personas fallecidas

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.