Dots and unredable informations flying on screan

El Prejuicio de los Conjuntos de Datos

En 2015, Google tuvo que emitir una disculpa cuando su aplicación de fotos confundió a un usuario negro con un gorila, revelando que los algoritmos no están exentos de sesgo, a pesar de su aparente imparcialidad. Ya en 2009, los usuarios asiáticos informaron que una cámara digital les pedía que no parpadearan cuando tomaban una fotografía con los ojos abiertos. Nikon, una firma japonesa, vendió la cámara o sea el triste caso de Tay, el robot de Twitter de la jerga adolescente de Microsoft que fue eliminado después de producir publicaciones racistas.

Amazon tuvo que descartar su herramienta de reclutamiento de IA, que fue diseñada para contratar candidatos potenciales al calificar los currículums que recibieron durante 10 años. Los puntajes se agregaron de 1 a 5 estrellas. Pero más tarde, Amazon se dio cuenta de que la herramienta no calificaba a los candidatos en función de sus habilidades de desarrollo de software o sus experiencias laborales y méritos anteriores, sino la base de su género. En efecto, el sistema de Amazon se enseñó a sí mismo que los candidatos masculinos eran preferibles.

Rechazó currículums que contenían la palabra «mujeres». Amazon ha tenido hombres que constituyen la mayoría de su fuerza laboral durante décadas, y dado que la mayoría de los currículums provienen de hombres. Las compañías tecnológicas de EE. UU. Aún no han cerrado la brecha de género en los roles técnicos de un ingeniero de aprendizaje automático a un desarrollador de software, donde es probable que veas a más hombres que mujeres hablar mucho sobre la fuerza de trabajo desequilibrada que late latentemente en los algoritmos . Este tipo de sistemas eventualmente son penalizados. Sin embargo, ¿por qué alcanzan ese estado cuando esto se puede prevenir en la etapa inicial?

Tomemos el ejemplo de la investigación realizada en los anuncios de Facebook y su forma sesgada de mostrar algunos anuncios particulares a grupos específicos de personas o razas y no mostrarlos a otro grupo. Al igual que las publicaciones para secretarias, asistentes, maestros fueron dirigidos a un mayor número de mujeres. Por el contrario, los de conserje, cocinero de cocina, taxista estaban dirigidos a las comunidades minoritarias.

El mismo sesgo se ve en aplicaciones de citas en línea como Tinder, Bumble y Hinge. Uno puede terminar viendo los mismos perfiles una y otra vez a pesar de haber deslizado hacia la izquierda, apareciendo el mismo tipo de personas, ya que esa es la opción popular o las excelentes características y características favorecidas por la mayoría de las personas. Un problema similar se observa con Netflix, donde te recomienda los programas más famosos y vistos en cuanto a los que están más fuera de ritmo que quizás hubieras preferido.

Los sistemas de recomendación se basan en lo que selecciona la mayoría de la población. Eso eventualmente se convierte en la mejor opción o más bien la falta de ella para el resto. Monster Match, un juego financiado por Mozilla, fue desarrollado principalmente para estudiar y sacar a la luz cómo los algoritmos de aplicaciones de citas refuerzan el sesgo y sirven a la empresa más que al usuario.

Una investigación que apareció en Journal Science reveló cómo un famoso algoritmo de clasificación utilizado en los Estados Unidos subestimó las necesidades médicas de los pacientes negros. La organización sin fines de lucro de investigación y defensa, Algorithm Watch se compromete a evaluar y arrojar luz sobre los procesos algorítmicos de toma de decisiones que tienen relevancia social, lo que significa que se utilizan para predecir o prescribir la acción humana o para tomar decisiones automáticamente. Sin conocer ni tener datos sobre sus registros anteriores o incluso su origen étnico, programó pacientes con puntajes de riesgo basados ​​en sus costos de atención médica. No es sorprendente cuando los datos recientes provenientes de los Estados Unidos revelaron que la mayoría de los afroamericanos estaban luchando con la asombrosa cifra de muertos.

¿Cómo evitar el sesgo?

Hay muchas formas en que las empresas y las organizaciones deberían trabajar para eliminar este sesgo desde el principio. Los datos asimétricos, llenos de valores atípicos y de ruido, generalmente no son confiables, lo que nos da resultados y predicciones que no son del todo ciertas, lo que dificulta su uso para futuras investigaciones e ideas. Los conjuntos de datos que se utilizan para estudiar diferentes tendencias deben tener la diversidad como elemento impulsor. Cuanto más diversos son los datos, más inclusión de personas de diversos orígenes lleva a los algoritmos a considerar diferentes entradas y salidas: aprendizaje automático, que encuentra patrones en grandes cantidades de datos y los aplica para tomar decisiones. Según los expertos, los equipos que desarrollan inteligencia artificial deben luchar por una mayor diversidad social y profesional, esto será clave para construir un futuro más justo para el campo.

Por ejemplo, los algoritmos que estudian las solicitudes de préstamos, los datos del censo muestran que los afroamericanos y los hispanoamericanos tienen más probabilidades de tener acceso a servicios bancarios generales o privados de servicios bancarios generales que los estadounidenses blancos o asiáticos. Las brechas raciales en los préstamos hipotecarios muestran que es más probable que a los prestatarios negros e hispanos se les denieguen sus solicitudes que a los blancos.

Taryn Southern, director de la película de neurotecnología I Am Human, dijo al portal en línea Big Think que las interfaces cerebro-máquina diseñadas para hacernos «más inteligentes, mejores y más rápidos» reflejan el «sesgo occidental para favorecer la productividad y la eficiencia». ¿Por qué asumir que todos comparten esos valores? «Quizás en otras culturas orientales orientarían el uso de una interfaz para inducir mayores estados de calma o crear más empatía», sugiere Southern.

Otro problema crítico es cuando los tecnólogos que están desarrollando estos algoritmos solo son conscientes del aspecto técnico del mismo con muy poco o ningún conocimiento sobre el trasfondo social y cultural de lo que están desarrollando. Por lo tanto, los tecnólogos deben trabajar con los científicos sociales para corroborar y garantizar que todas las influencias subyacentes se hayan estudiado y tenido en cuenta al codificar la IA.

Los científicos de datos también juegan un papel vital en este proceso, ya que están estudiando y analizando los fragmentos de datos. Definitivamente se debe considerar que para aprovechar los resultados de los datos, la diversidad de su interpretación es vital.

Esperanza de datos sin sesgos

El sesgo algorítmico es hecho por el hombre; Por lo tanto, también puede ser resuelto por nosotros. Dado que la IA puede ayudar a exponer la verdad oculta en conjuntos de datos defectuosos, ayuda a las personas que desarrollan estas tecnologías a comprender mejor los errores, si no más rápido. Observar remolinos éticamente cuestionables en los datos puede ayudarnos a rectificar nuestro proceso y cambiar nuestro enfoque hacia una forma más equilibrada de desarrollar algoritmos.

Dots and unredable informations flying on screan
Explore More
Cómo la IA ayudará a frenar la próxima pandemia
Share via
Copy link
Powered by Social Snap