¿Cómo perfeccionar el algoritmo de Spotify o Tinder? Sí, con ciencia del comportamiento
Los algoritmos no son exactamente un nuevo invento. Han existido por mucho tiempo y nos han ayudado a aprender idiomas, hacer matemáticas e incluso a cocinar. Sí, seguir una receta es básicamente un algoritmo, es una serie de pasos que deben ser tomados en un orden exacto para lograr un objetivo (= comida deliciosa). Pero si parece que cada vez oyes más sobre algoritmos, no te equivocas. Debido a todo tipo de desarrollos tecnológicos (hola aprendizaje de máquinas), el alcance de lo que los algoritmos pueden hacer por nosotros ha aumentado, y ahora prevalecen en todo tipo de áreas de nuestras vidas donde antes no estaban.
¿Quieres algunos ejemplos? Claro. Los algoritmos nos ayudan a encontrar nuestro camino en una nueva ciudad (Google Maps), a elegir la lista de reproducción adecuada para nuestro estado de ánimo (Spotify), a determinar qué información vamos a ver sobre nuestros amigos (Facebook) e incluso nuestra cita del sábado por la noche (Tinder). Y no es que todo esto no sea súper importante, lo es, pero los algoritmos también están involucrados en algunas decisiones que son aún más cruciales. Los algoritmos ayudan a detectar tumores, recomendar tratamiento médico, determinar la puntuación de crédito e incluso decidir quién se sentará en la cárcel mientras espera el juicio y quién se irá pagando la fianza. Es algo bastante pesado.
El sesgo de los algoritmos es una cosa. También lo es el sesgo humano.
¿Y cómo nos va todo eso? No muy bien. Hemos oído muchos informes de casos en los que los algoritmos se han estropeado. Amazon tuvo que abolir su algoritmo de contratación al descubrir que discriminaba a las mujeres. Una tormenta de medios sociales estalló cuando un marido se quejó de que el algoritmo de la tarjeta de crédito de Apple le daba a su esposa un límite de tarjeta de crédito 20 veces más bajo que el suyo, a pesar de que la pareja tenía finanzas conjuntas durante décadas, y los algoritmos son llamados repetidamente por estar sesgados contra las poblaciones más vulnerables.
Pero antes de que pierdas la fe en los algoritmos para siempre, considera las alternativas. Como en los humanos. ¿Saben qué? Tampoco somos perfectos. Los humanos demuestran todo tipo de sesgos TODO EL TIEMPO. Hay todo un campo que estudia esto y eso es lo que en Impactually nos gusta hacer regularmente. Básicamente, hemos sabido durante décadas que a pesar de las mejores intenciones de la gente, a veces hay demasiadas cosas en marcha y terminamos tomando atajos en nuestro pensamiento que pueden llevarnos a decisiones que son menos que óptimas.
Los algoritmos son geniales. Lástima que no confiemos en ellos
Así que ni los algoritmos ni los humanos son perfectos, entendido. ¿Pero cómo se comparan entre sí? Bueno, me temo que tengo malas noticias para todos los humanos de la multitud. Cuando se trata de tomar decisiones, los algoritmos nos dan una paliza. Es una dura realidad para aceptar, lo sé. Considere la evidencia: los algoritmos son mejores que los médicos para predecir ataques cardíacos, erupciones de enfermedades y tasas de supervivencia de los pacientes. Son mejores para predecir qué negocios van a la quiebra y qué delincuentes violarán su libertad condicional. También nos ganan en juegos que antes creíamos que sólo los humanos podían ganar.
Pero a pesar de tanta evidencia de que los algoritmos son excelentes para tomar decisiones, todavía no confiamos en ellos. Claro, ese candidato puede haber impresionado al algoritmo, pero necesitamos conocerlo y asegurarnos, porque simplemente no hay manera de que el algoritmo tenga nuestra intuición, nuestro instinto, nuestra experiencia. Excepto que, bueno, lo tiene. Y es mejor. Cuando vemos a un humano cometer un error, como contratar a un candidato que termina con un rendimiento pobre y dejar la compañía, lo atribuimos a un error de juicio, pero lo más probable es que todavía le demos a ese gerente de contratación otra oportunidad. Pero cuando tenemos pruebas de que un algoritmo ha cometido un error, eso es todo para nosotros. Concluimos que es un algoritmo inútil y resolvemos no volver a confiar en él. Incluso si, en promedio, ese algoritmo hace predicciones mucho mejores que el gerente.
Esta desconfianza que tenemos por los algoritmos puede tener resultados devastadores. Un algoritmo de IA fue diseñado para guiar los trabajos de excavación en Flint, Michigan para localizar las tuberías de plomo que estaban contaminando el agua y reemplazarlas por tuberías de cobre. Como el objetivo era localizar y reemplazar la mayor cantidad posible de tuberías de plomo, el algoritmo fue diseñado para predecir qué casas tienen más probabilidades de tener tuberías de plomo, para que puedan ser desenterradas primero. En 2017, el algoritmo alcanzó una precisión cercana al 80%, lo cual es genial. Pero los ciudadanos de Flint se quejaron de que los trabajos de excavación no eran justos - los trabajadores estaban (así parecía) saltándose casas al azar, dejando a la gente preocupada y confundida - ¿por qué se saltaron mi casa? ¿Significa eso que todavía tengo tuberías de plomo y que son demasiado perezosos para ocuparse de ello? No fue eso, por supuesto. Las casas se saltearon porque los algoritmos habían predicho que no tenían tuberías de plomo, y el riesgo se juzgó como bajo. Pero la gente no lo entendió, se produjo un alboroto, y los algoritmos se abandonaron rápidamente. En 2018, sin el algoritmo, los trabajos tenían ahora una tasa de precisión del 15% en la detección de plomo. La desconfianza en el algoritmo significaba que miles de personas todavía tenían tuberías de plomo que podrían haber sido reemplazadas. Era sólo una continuación de la tragedia de Flint.
¿Por qué no confiamos en los algoritmos?
Hay varios factores de comportamiento en juego. El primero es que simplemente no confiamos en su experiencia, ¡creemos que podemos hacerlo mejor! La ciencia del comportamiento ha documentado por mucho tiempo el efecto del exceso de confianza, también conocido como la madre de todos los sesgos. Generalmente, la gente tiende a sobreestimar sus habilidades y experiencia, y cuando se trata de algoritmos, también sobreestimamos nuestra intuición y nuestro instinto, por lo que pensamos que nos desempeñaremos mejor.
Otra posible explicación tiene que ver con "la caja negra". Los algoritmos analizan los datos y producen un resultado, sin explicarnos completamente cómo llegaron allí. No sabemos lo que sucede allí, "bajo el capó", y es difícil para nosotros dejar ir esta sensación de control de no saber. La falta de transparencia nos hace desconfiar del algoritmo.
Por último, a veces los algoritmos simplemente no son tan útiles con nuestros propios sesgos y fallos. Por ejemplo, Netflix se jacta de que su algoritmo está diseñado para ayudarnos a encontrar un espectáculo o una película para disfrutar "con el mínimo esfuerzo". Bueno, si alguna vez has pasado toda una noche intentando decidir qué ver en Netflix, sabes que incluso este súper sofisticado algoritmo tiene sus defectos. Lo que sucede es que frente a un número aparentemente infinito de opciones, todas relevantes y adaptadas a nuestras preferencias, en realidad nos cuesta más tomar una decisión. Esto se llama sobrecarga de opciones. Incluso podríamos aplazar la elección todos juntos - nos paralizamos, no queremos tomar ninguna decisión, tememos que una opción mejor se esconda más allá de la siguiente esquina, o de la siguiente pantalla, si sólo nos desplazamos un poco más.
¿Y si pudiera infundir la ciencia del comportamiento en el diseño de los algoritmos?
Así que no confiamos en los algoritmos porque pensamos que podemos hacerlo mejor (exceso de confianza), nos preocupamos por lo que hay detrás de su caja negra (transparencia) y nos decepcionamos cuando no nos ayudan con lo que prometen, como manejar la sobrecarga de opciones.
¿Y si pudiéramos incorporar la ciencia del comportamiento cuando diseñamos los algoritmos, para mitigar estos factores? Podemos diseñar algoritmos que prueben que son expertos, que nos informen de cómo toman decisiones, y que sean ajustados para manejar nuestros sesgos. Si esto sucede, podríamos mejorar la confianza de la gente en ellos.
Los algoritmos se están convirtiendo en una parte más importante de nuestra vida diaria, nos guste o no. Y en general, ¡eso es algo bueno! Realmente pueden ser muy útiles. Usemos la ciencia del comportamiento para diseñar algoritmos que la gente quiera usar y en los que pueda confiar. Podría ayudarnos a manejar mejores casos como la búsqueda de pistas de Flint en el futuro. O al menos, no tendremos que pasar otra noche buscando algo que ver en Netflix.
. . .
Texto publicado originalmente en el portal Impactually, bajo el título «What if we used behavioral science to power algorithms?».
. . .
* Nurit Nobel (@nuritnobel) tiene una maestría en psicología social por la London School of Economics y actualmente realiza un doctorado en la Escuela de Economía de Estocolmo.
** Gabino Martínez (@GabinoMartnez11) es economista por la Facultad de Economía de la UNAM. Actualmente es Coordinador General de Investigación en BPP A.C.
Comentarios
Publicar un comentario