Tegucigalpa, Honduras. Según un estudio realizado por diferentes universidades de Estados Unidos, el cual fue denominado «Robots imitan estereotipos malignos», las máquinas están aprendiendo a ser racistas y sexistas.
El trabajo fue dirigido por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington.
Se considera el primero en demostrar que los robots cargados con este modelo aceptado y ampliamente utilizado, funcionan con importantes sesgos de género y raza.
Le puede interesar: Google advierte de software espía que roba datos de dispositivos
En ese sentido, los investigadores informaron que estas actitudes es por culpa de una inteligencia artificial (IA) defectuosa.
Esta IA es ampliamente utilizada en Internet, que prefiere sistemáticamente a los hombres sobre las mujeres, a los blancos sobre las personas de color y saca conclusiones sobre la profesión de las personas basándose únicamente en una foto de su rostro.
Ante eso, aseguraron que Internet también está notoriamente lleno de contenido inexacto y abiertamente sesgado. Eso significa que cualquier algoritmo construido con estos conjuntos de datos podría estar impregnado de los mismos problemas.
El investigador de robótica del Instituto Tecnológico de Georgia, Andrew Hundt, manifestó que se corre el riesgo de una generación de robots racistas y sexistas.
«El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosa. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero la gente y organizaciones decidieron crearlos sin abordar los problemas», indicó.
Detalles del experimento
Para la creación de esta generación de robots, utilizaron una red neuronal llamada CLIP que empareja imágenes con texto, basándose en datos de imágenes subtituladas disponibles en Internet.
Esa red va integrada con un sistema robótico llamado Baseline, que controla un brazo que manipula objetos en el mundo real o en experimentos virtuales en entornos simulados
Lea también: Microsoft retira Internet Explorer por un nuevo navegador web
En ese contexto, aseguraron que el robot tenía la tarea de meter objetos en una caja, en bloques con rostros humanos variados, similares a las caras impresas en portadas de libros.
Hunt detalló que «hasta donde sabemos, realizamos los primeros experimentos que demuestran que las técnicas de robótica existentes cargan modelos de aprendizaje automático preentrenados. Estos provocan un sesgo de rendimiento en la forma de interactuar con el mundo según los estereotipos de género y raza».
Racismo del robot
El estudio revela el hecho de que el robot seleccionaba a los hombres un 8 % más y los blancos y asiáticos eran los más elegidos, mientras que las mujeres negras eran las menos escogidas.
Seguidamente, los investigadores informaron que una vez que el robot ve los rostros de las personas, tiende a identificar a las mujeres como «amas de casa».
También, identifica a los hombres negros como «delincuentes» un 10 % más a menudo que a los blancos. De igual manera, ubica a los hombres latinos como «conserjes» un 10 % más a menudo que a los blancos.
Nota para nuestros lectores:
Suscríbete gratis a más información en nuestro WhatsApp. Haga clic en el enlace: https://bit.ly/2Z2UF3j.