El ser humano siempre ha convivido con máquinas, ¿con la Inteligencia Artificial (IA) empezamos a culparlas?
19 de octubre de 1987. Una bajada en el mercado de Hong Kong fue propagándose por todas las capitales financieras hasta llegar a Wall Street, dando lugar una caída del 22,6% en el Dow Jones.
Ese lunes negro fue un desastre financiero cuya parte de culpa reside en el trading automático, algoritmos de arbitraje y reacciones en cadena en una red de máquinas programadas por humanos.
Muchos de los problemas de entonces han sido solventados gracias a mejores infraestructuras tecnológicas, mayor supervisión financiera y mejores algoritmos. En ningún momento se puso en duda la convivencia con las máquinas. Si la culpa era de alguien, era de los humanos que las programaron, la poca robustez en los sistemas y la falta de análisis de posibles consecuencias negativas del uso de estas tecnologías.
Hoy la inteligencia artificial aumenta sus posibilidades a ritmo vertiginoso, y no sólo aumentan los beneficios de su uso, sino también sus peligros. Del mismo modo que gracias a los avances de la IA y de la potencia de las máquinas se pueden obtener mejores resultados, una falta de previsión y supervisión en los diseños puede llevar a obtener errores con mayor velocidad.
10 aplicaciones de la Inteligencia Artificial a las finanzas
Antes de conocer los mecanismos de actuación para conseguir una IA confiable en los diferentes sectores, ¿cómo creés que transformará la IA el sector de las finanzas? En la siguiente imagen podés ver sus posibles usos. Algunos de ellos ya funcionan actualmente con éxito y otros seguirán progresando hacia nuevos horizontes:
Ética para una IA: como conseguir la confianza en las máquinas
Las posibilidades de mejorar gracias a la IA son muchas, pero dada su cada vez mayor importancia en la sociedad, se debe tener en mente la perspectiva ética en los algoritmos y diseños para reducir posibles consecuencias negativas. Pero, ¿es necesaria la dimensión ética en los desarrollos de IA?
Según se muestra en la encuesta del informe del State of IA de 2019, acerca de si las compañías deben tener un comité ético que regule las decisiones que las máquinas puedan realizar, no hay duda de que se puede considerar necesario.
Acá se pueden ver dos ejemplos. En éste, se puede observar cómo en el traductor de Google faltó tener presente la supervisión ética en su IA:
Se puede ver cómo, tras la actualización, salvó la parcialidad de género en sus traducciones.
Sin lugar a dudas, un componente ético en los diseños y algoritmos en la implementación es clave. Para evitar que estos errores sigan ocurriendo en un futuro, es necesario definir los principios éticos que toda inteligencia artificial debe articular con la intención de que hombre y máquina puedan caminar juntos. No se tratará nunca de antropomorfizar la IA, sino de inyectar componentes “éticos”. Una IA centrada en las personas y su progreso, de modo que se puedan prevenir posibles desviaciones indeseables como las anteriores.
Para crear una IA ética y confiable, tendríamos que tener en cuenta estos 6 principios:
La supervisión y los desarrollos de una IA confiable deben tener en mente estos principios en todo momento. La anticipación es un aspecto vital para su buen progreso, y además se deben permitir activar medidas de seguridad que eviten que se quebranten estos principios. Por ejemplo, Google ya tiene implementado un botón que hace que se inactiven todos los algoritmos avanzados.
Este botón o alguna que otra medida quizá hubiera evitado el lunes negro de 1987, pero al igual que entonces, seguiremos apostando por el progreso tecnológico, porque tan mal estará no controlar los mecanismos de la IA como dejar de aprovecharnos de lo que nos ofrece.
Aún no hay comentarios