Hal-

La inteligencia artificial (también) se equivoca

Casi todos los problemas importantes del ser humano ya se pueden abordar usando herramientas de inteligencia artificial (IA). Mientras lees estas líneas, varios algoritmos están intentando predecir tu próximo movimiento, aprendiendo a conducir o luchando contra el cáncer. Allá donde haya una base de macrodatos, probablemente haya un algoritmo de inteligencia artificial trabajando para aprender lo que pueda de ellos. Porque, efectivamente, estos datos pueden ayudar a prevenir enfermedades, epidemias y catástrofes, permitir que las personas con discapacidades disfruten de una vida mejor, optimizar los recursos escasos e, incluso, trabajar en favor de la inclusión, la seguridad y la justicia.

Pero también ocurre que estas novísimas herramientas no están (aún) lo suficientemente perfeccionadas como para suplantar a los seres humanos en determinadas situaciones. Dispositivos como los sistemas de visión artificial que incorporan los coches sin conductor no dejan de ser mecanismos entrenados para aprender y reconocer patrones fijos. Al no disponer de la capacidad de analizar las circunstancias particulares de una situación, cualquier mínimo cambio en el patrón aprendido puede hacer mandar al traste su tarea. Así, cualquiera de estos vehículos autónomos se parará siempre ante una señal que diga STOP, pero si alguien la hubiera “customizado” con, por ejemplo, una pegatina para que dijera STOP ODIO el coche seguiría circulando y cometería una peligrosa infracción.

Otro ejemplo mucho más cotidiano y que seguro conoces. Todos estamos aburridos de encontrar anuncios de cosas que ya hemos comprado o no nos interesan mientras navegamos por Internet. Seguramente antes hemos realizado alguna búsqueda que ha quedado registrada en una base de datos y un algoritmo de inteligencia artificial ha decidido que quieres seguir recibiendo esa información relacionada. Una vez más, la culpa no es de la máquina, sino de la falta de contexto: “Si buscamos un producto en Internet, esa información es pública y queda grabada, pero cuando lo compramos la transacción es privada; el algoritmo no sabe que lo has comprado, se lo tienes que enseñar. No es un error, te sigue mostrando lo que cree que te interesa y lo seguirá haciendo hasta que pase su tiempo de olvido”, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC en El País.

La gran cuestión que plantea este nuevo escenario es si las máquinas llegarán a adquirir ese libre albedrío que ahora no tienen, si llegarán a entenderse entre ellas y a conspirar contra los humanos como hacía HAL 900 en “2001, una odisea del espacio”, la mítica película de Stanley Kubrick. Hace poco más de un año, en julio de 2017, muchos pensaron que este momento ya había llegado… Facebook tuvo que desconectar dos “chatbots” o robots de conversación porque habían desarrollado un lenguaje secreto para comunicarse sin que lo supieran sus programadores. “Fue un simple error de programación”, explica López de Mántaras. “Ninguna máquina tiene intenciones ni las tendrán nunca. Pueden enseñarse a sí mismas a jugar al Go y derrotar a un campeón, pero no saben que están jugando”.

Para crear algoritmos de inteligencia artificial dignos de confianza tenemos que hacer que sean seguros y precisos. También tenemos que hacer que la IA sea justa. Tenemos la responsabilidad de hacer que sea justa. Eso significa eliminar cualquier sesgo indeseable, porque la inteligencia artificial está intrínsecamente ligada a la mente humana y sus respuestas son un reflejo de nosotros mismos. Como ya dijera hace 42 años uno de los pioneros en el mundo de la computación y la informática, el profesor del MIT Joseph Weizenbaum, “nunca deberíamos dejar que los ordenadores tomasen decisiones importantes, porque nunca tendrán cualidades humanas como la compasión y la sabiduría”.

Comparte esta entrada