X

Mensaje a RT

Nombre * Error message here
Correo electrónico * Error message here
Su comentario *
1 800 Error message here
feedback
Todas las noticias
Imprimir https://es.rt.com/5bgz

Aseguran que robots racistas y sexistas podrían negarnos trabajos, préstamos y seguros

Publicado: 26 ago 2017 07:26 GMT

Expertos en tecnología indican que los algoritmos de la IA ahora imitan la desigualdad de la sociedad discriminando a mujeres y a las minorías étnicas.

Aseguran que robots racistas y sexistas podrían negarnos trabajos, préstamos y seguros
Imagen ilustrativa
Fabian Bimmer / Reuters
Síguenos en Facebook

Los programas de Inteligencia Artificial (IA) diseñados para evaluar a solicitantes de préstamos bancarios o aspirantes universitarios pueden ser inherentemente racistas y sexistas, afirman expertos en tecnología.

Los investigadores creen que los algoritmos de aprendizaje automatizado, lejos de hacer el mundo más equitativo, ahora imitan la desigualdad de la sociedad discriminando a mujeres y a las minorías étnicas.

"Esto está empezando a surgir mucho en áreas como la selección de personas para empleos, seguros, préstamos, todas esas cosas", aseveró Noel Sharkey, codirector de la Fundación para la Robótica Responsable, en el programa Today de la BBC.

Sharkey citó el ejemplo de una investigación de la Universidad de Boston (EE.UU.) en la que un programa de IA fue entrenado para leer noticias en la aplicación Google News. Cuando durante un juego de asociación de palabras se le preguntó "si el hombre es programador de computadora, la mujer es X", el 'software' respondió: "ama de casa".

"Tenemos un problema", insistió Sharkey. "Necesitamos que más mujeres entren en este campo para resolverlo".

En Estados Unidos, el 20 % de los graduados en ingeniería son mujeres, pero representan solo el 11 % de los ingenieros practicantes. En el Reino Unido, solo el 9 % de la mano de obra en ingeniería son mujeres.

Imagen ilustrativa / Fabian Bimmer / Reuters

Conjuntos de datos obsoletos

La experta en datos de salud Maxine Mackintosh, apuntó que los "imperfectos" conjuntos de datos basados ​​en la información histórica desvían las respuestas de la IA. Esto fue confirmado, según la experta en el Hospital de Saint George en Londres, donde las pruebas de las solicitudes de los aspirantes a las escuelas de medicina revelaron que la IA del hospital discriminaba a las mujeres, así como a las minorías étnicas.

"Estos grandes datos son realmente un espejo social que refleja los prejuicios y las desigualdades que tenemos en la sociedad", comentó Mackintosh a la BBC. "Si queremos dar pasos hacia el cambio, entonces no podemos utilizar solo la información histórica".

Las controversias generadas por la IA respecto a la diversidad racial han llamado mucho la atención últimamente. El año pasado, Microsoft se vio obligado a desconectar su bot conversacional de aprendizaje automático en Twitter conocido como Tay, ya que este se convirtió en un simpatizante nazi en tan solo 24 horas.

Etiquetas:

Últimas noticias