Sesión 5.1: Ética y tipos de sesgo algorítmico
Hoy: las preguntas difíciles
Y al final: sus mini-propuestas de investigación.
Sesión 5.1: Tipos de sesgo (~1 h)
Sesión 5.2: Detección y regulación (~1 h)
Sesión 5.3: Laboratorio (~2 h)
Sesión 5.4: Cierre (~2 h)
¿Qué pasó?
Fuente: ACLU; NPR (2020)
“Sesgo” significa cosas diferentes:
| Contexto | Significado | Ejemplo |
|---|---|---|
| Estadístico | Desviación sistemática | Estimador sesgado |
| Cognitivo | Atajos mentales | Sesgo de confirmación |
| Cultural | Suposiciones aprendidas | “Los doctores son hombres” |
| Algorítmico | Injusticia sistemática | Diferentes tasas de error por grupo |
| Histórico | Desigualdades pasadas | Menos datos sobre minorías |
En IA, sesgo típicamente significa:
Un sistema que produce resultados sistemáticamente injustos para ciertos grupos de personas.
Pero, ¿quién define “injusto”? Esa es la parte difícil.
Fuente: NIST
¿La IA es sesgada, o simplemente nos muestra lo que ya somos?
Ejemplo: word embeddings
Fuente: UNESCO
| Tipo de sesgo | Cuándo ocurre | Ejemplo |
|---|---|---|
| Histórico | Decisiones pasadas codificadas en datos | Datos de crédito de una era discriminatoria |
| Representación | Grupos subrepresentados | Pocas caras de piel oscura en el entrenamiento |
| Medición | Proxies para conceptos no medibles | Usar código postal para solvencia |
| Agregación | Tratar grupos diversos como uno | “Un modelo para todos” falla |
| Evaluación | Benchmarks incorrectos | Probar con datos no representativos |
| Despliegue | Modelo usado en contexto equivocado | Modelo de EE.UU. aplicado globalmente |
El sesgo puede entrar en cualquier etapa: recolección de datos, etiquetado, entrenamiento, evaluación, despliegue, uso.
Ocurre cuando la discriminación pasada se incorpora a los datos de entrenamiento, aunque los datos reflejen con precisión el mundo real de ese momento.
El caso de Amazon (2018) (Dastin, Reuters):
Los datos eran “precisos”: reflejaban las contrataciones reales de Amazon. Pero esas contrataciones eran sesgadas.
Cuando ciertos grupos están subrepresentados en los datos de entrenamiento, el modelo funciona mal para ellos.
Ejemplo: reconocimiento facial (Buolamwini y Gebru, 2018)
Ejemplo: asistentes de voz
Si no estás en los datos de entrenamiento, el modelo no tiene nada que aprender sobre ti.
Usar un proxy medible para algo que realmente nos importa, pero el proxy no funciona igual para todos.
Ejemplo: código postal como proxy crediticio
Otros proxies problemáticos:
| Lo que queremos | Proxy usado | Problema |
|---|---|---|
| Inteligencia | Tests estandarizados | Refleja acceso a preparación |
| Calidad laboral | Antigüedad | Penaliza a cuidadores |
| Necesidades de salud | Gasto pasado | Refleja barreras de acceso |
Se puede eliminar la raza de los datos y terminar con un modelo racialmente sesgado (ver Obermeyer et al., 2019, sobre sesgo racial en algoritmos de salud en EE.UU.).
Fuente: Harvard Law Review
Ocurre cuando un modelo trata a grupos diversos como si fueran homogéneos, ignorando diferencias que afectan los resultados.
Ejemplo: diabetes y etnicidad (Obermeyer et al., 2019)
En ciencias sociales:
Sesgo de evaluación
Cuando los benchmarks de prueba no son representativos de la población real.
Ejemplo:
Problema: los datasets de prueba suelen venir de los mismos lugares que los de entrenamiento
Sesgo de despliegue
Cuando un modelo se usa en un contexto diferente al que fue diseñado.
Ejemplos:
| Modelo entrenado en… | Desplegado en… | Problema |
|---|---|---|
| EE.UU. | Uruguay | Diferencias culturales |
| Adultos | Adolescentes | Lenguaje diferente |
| 2015 | 2025 | Cambios temporales |
| Texto formal | Redes sociales | Registro diferente |
El rendimiento del modelo no viaja bien entre contextos.
¿Qué es un bucle de retroalimentación?
Cuando las predicciones del algoritmo influyen en los datos que se usarán para entrenarlo en el futuro.
Ejemplo: vigilancia predictiva (Ensign et al., 2018; Lum e Isaac, 2016)
Por qué es peligroso:
Fuente: SpotCrime
Otros bucles:
Brasil: reconocimiento facial en Carnaval
Argentina: scoring social en ANSES
Chile: algoritmo de riesgo delictivo
Colombia: VeriTran en Bogotá
Los mismos problemas de sesgo del norte global se replican en la región, a menudo con menos protecciones.
Desafíos técnicos
Desafíos institucionales
Desafíos conceptuales
Ejemplo:
Un modelo de scoring crediticio no usa raza. Pero usa código postal, que correlaciona con raza por segregación histórica.
¿El modelo es sesgado? ¿Debería prohibirse usar código postal? ¿O el problema es la segregación, no el modelo?
Caso para analizar:
Una universidad uruguaya quiere usar IA para predecir qué estudiantes tienen riesgo de deserción y ofrecerles apoyo temprano.
El modelo usa: - Notas del primer semestre - Asistencia a clases - Barrio de residencia - Si trabaja además de estudiar - Tipo de liceo de procedencia (público/privado)
El modelo tiene 85% de precisión en predecir deserción.
Preguntas para discutir (10 min):
Recuerden: un modelo puede ser preciso en promedio pero injusto para ciertos grupos.
Tipos de sesgo:
Ideas clave:
En la próxima sesión: ¿cómo detectamos, medimos y mitigamos el sesgo? Y, ¿cómo se regula la IA?