Como la principal experta en estadística de la ONG Human Rights Data Analysis Group, Kristian Lum, de 33 años, trata de asegurarse que los algoritmos que controlan cada vez más nuestras vidas sean lo más justos posible. Está enfocada en el uso controvertido de programas de vigilancia predictiva y de sentencia en el sistema de justicia penal. Cuando se trata de sesgo, Lum no se refiere solo a los datos. En una publicación de su blog en diciembre, describió el acoso que había experimentado en conferencias académicas cuando era doctorante en la Universidad de Duke y profesora asistente de investigación en Virginia Tech. Fuera de la academia, utiliza las estadísticas para examinar los apremiantes problemas de derechos humanos.
-¿Cuál es la relación entre la estadística y la inteligencia artificial (IA) y el aprendizaje automático?
-La IA parece una especie de lugar común para el modelado predictivo y el modelado por computadora. Hubo un gran tuit que decía algo así como: "Es IA cuando intentas recaudar dinero, aprendizaje automático cuando tratas de contratar desarrolladores y estadística cuando realmente lo haces". Pienso que es bastante preciso.
-Estás estudiando cómo se usa el aprendizaje automático en el sistema de justicia penal. ¿Qué te llevó a ese tema?
-Hace unos años leí un documento publicado por una empresa de vigilancia predictiva. Replicamos el modelo que habían construido y lo aplicamos en algunos datos reales para ver cuáles serían las consecuencias. Aplicamos nuestro modelo a registros policiales de delitos relacionados con drogas en Oakland, California, y lo comparamos con una estimación del perfil demográfico de personas que probablemente usan drogas basadas en registros de salud pública. Esa comparación encontró que la aplicación de la ley y el registro de los delitos relacionados con drogas se realizan desproporcionadamente en las comunidades de color. Luego aplicamos el algoritmo de control predictivo a ese conjunto de datos y descubrimos que perpetuaría o tal vez amplificaría el sesgo histórico que ya estaba en esos datos.
El movimiento hacia el uso de la IA en la justicia penal es, al menos en parte, una respuesta a un creciente reconocimiento de que hay prejuicios raciales en la actuación policial. Un punto de venta para mucha gente es que piensan que una computadora no puede ser racista, que un algoritmo no puede ser racista. Quería desafiar la idea de que solo porque es una computadora haciendo las predicciones, eso resolvería esos problemas.
-¿Es una venta difícil la idea de que una computadora puede estar sesgada?
-Siento que no puedo abrir Twitter sin ver otro artículo sobre la IA racista. Lo difícil de esto es que no existe un acuerdo universal sobre lo que significa la equidad. La gente no está de acuerdo sobre cómo se ve la equidad. Eso es cierto, en general, y también es verdad cuando intenta escribir una ecuación matemática y decir: "ésta es la definición de equidad".
-En la publicación de tu blog escribiste sobre una conferencia de 2010 a la que asististe y donde un académico prominente te tocó a escondidas. Otro comentó que estabas muy sexy y te envió mensajes sugestivos. No nombraste a los hombres, pero la gente descubrió quiénes eran y uno perdió su trabajo. ¿Por qué sacaste estos incidentes a la luz ahora?
-Mucho de lo que escribí lo he tenido firme en mi cabeza durante años. Hasta hace poco, realmente no pretendía escribir de ese asunto. Pensé que era importante que la gente se diera cuenta de que incluso las cosas que parecen relativamente inofensivas, como las bromas, son importantes. Y me pareció un momento cultural en el que la gente podría escucharme más.
Lo que experimenté tuvo un impacto descomunal en mi carrera, a pesar de que no me di cuenta en ese momento. No es como que el día después de esa conferencia dejé la academia. Fue uno de muchos factores. Para ser clara, estoy muy contenta con el resultado de mi carrera, pero las cosas hubieran funcionado de manera diferente si hubiera tenido experiencias distintas.
-¿Qué fue lo primero que te atrajo de la estadística cuando decidiste continuar?
-Es bastante genial. Tienes la oportunidad de aprender cosas de los datos. Ése es realmente el centro del asunto; hay que probar la hipótesis sobre el mundo o, si tomas un enfoque aprendizaje automático, puedes intentar predecir algo en el futuro. También realmente aprecio repensar el encuadre alrededor de los datos, sin pensar en ellos como algo fijo.
Honestamente, sólo soy un gran nerd.