Recientemente, un equipo internacional de expertos en humanidades, analizó cómo el juicio y los valores humanos a menudo son subordinados al imperativo de eficiencia de la inteligencia artificial (IA) y por qué los costos pueden ser altos. El equipo explica que si bien la IA tiene un gran potencial para beneficiar a la sociedad, se necesita saber qué puede salir mal con su uso, pues es importante tener en cuenta su lado oscuro.
Cuando la IA falla, lo hace "de manera bastante espectacular", comenta Vern Glaser, profesor de la Escuela de Negocios de la Universidad de Alberta (Canadá). "Si no trata activamente de pensar en las implicaciones de valor, terminará creando malos resultados", subraya.
Los peligros ya se manifiestan
En su estudio, publicado recientemente en MIT Sloan Management Review, los investigadores argumentaron su punto de vista con varios casos reales de resultados desastrosos de la implementación de la IA. Por ejemplo, cuando en el 2016 se introdujo el chatbot Tay en Twitter, se eliminó en las siguientes 24 horas debido a que los troles le enseñaron a desarrollar un lenguaje racista.
Si bien la IA promete brindar enormes beneficios a la sociedad, ahora también estamos comenzando a ver su parte más oscura, manifestaron los analistas. Más recientemente, algunos expertos, como Lawrence Martin, señalan las posibilidades distópicas de la IA, incluidas las armas que pueden disparar sin supervisión humana, los ataques cibernéticos, las falsificaciones y las campañas de desinformación.
¿Comprometer los valores para ganar en eficiencia?
Los expertos sustentaron su análisis en la noción de "técnica" del filósofo francés Jacques Ellul, ofrecida en su libro 'La sociedad tecnológica', de 1954, según la cual cada campo de la actividad humana está determinado por los imperativos de eficiencia y productividad. "Ellul fue muy profético", escribieron. "Su argumento es que cuando pasas por este proceso de técnica, inherentemente estás eliminando valores y creando este mundo mecánico donde tus valores esencialmente se reducen a la eficiencia", señalaron.
Tres principios fundamentales
Para protegerse de la "tiranía de la técnica" de la IA, los expertos sugieren adherirse a tres principios:
- Reconocer que debido a que los algoritmos son matemáticos, se basan en representaciones digitales de fenómenos reales. Un ejemplo de ello, es que las redes sociales miden la amistad por cuántos amigos tiene un usuario o por la cantidad de 'me gusta' que reciben de sus amigos en las publicaciones. "¿Es eso realmente una medida de amistad?", se cuestionan
- Los diseñadores de IA deberían insertar estratégicamente intervenciones humanas en la toma de decisiones algorítmicas y crear sistemas evaluativos que tengan en cuenta múltiples valores
- Por último, la IA que encarna los valores humanos requiere una supervisión vigilante y continua para evitar que surja su feo potencial
Los analistas señalan que la IA es simplemente un reflejo de quiénes somos, en nuestro mejor y peor momento. "Sin una buena y dura mirada en el espejo, este último podría tomar el relevo", indicaron. "Queremos asegurarnos de que entendemos lo que está pasando, para que la IA no nos controle", concluyeron.