La Inteligencia Artificial (IA) es una de las tecnologías de moda. Empezamos a tener a nuestro alrededor ya una serie de usos en los que esta tecnología promete simplificarnos la vida:
- Asistentes virtuales como, Siri y Cortana.
- Vehículos Autónomos.
- Diagnósticos Médicos de radiografías y tomografías realizados por IA
- Calificación Crediticia.
- Etc., etc., etc.
Para poder cumplir con estas funciones y producir el comportamiento esperado, los sistemas de IA deben ser entrenados, ya sea por entrenadores humanos, o mediante el uso de conjuntos de datos de entrenamiento.
¿Qué pasa cuando entrenamos mal a la Inteligencia Artificial?
Si las personas o datos con que la entrenamos tienen errores o prejuicios, la IA aprenderá estos errores. En muchas aplicaciones, esto tiene implicaciones tanto éticas como posiblemente legales.
Por ejemplo, si un sistema de IA “aprende” a otorgar créditos en un Banco, basándose en la historia de créditos otorgados por el banco y las características de sus clientes existentes, se corre el riesgo de que la IA siga el mismo tipo de criterios y no se consigan mejorar la calidad de la cartera o la satisfacción de los clientes. Peor aún, si durante algún tiempo los ejecutivos de dicho banco discriminaban en contra de algún grupo en particular, por ejemplo, rechazando de manera arbitraria a los comerciantes y prefiriendo a los profesionistas (suponiendo que tanto el comerciante como el profesionista tuvieran la misma solidez en sus finanzas), la inteligencia artificial aprenderá este prejuicio.
Los sistemas actuales son paramétricos, y teóricamente pueden explicar porque se te rechazo el crédito. Ingresos insuficientes, mal historial, etc.
Con la AI, sin embargo, muchos de los algoritmos funcionan como una “caja negra”, y después de entrenados es difícil conocer cuáles son los criterios que tienen más peso en sus decisiones. Es decir, la AI puede rechazarte u otorgarte el crédito, pero no puede explicar claramente por qué lo hizo y por lo tanto es difícil revisar si lo está haciendo de forma correcta. (Esto muchas veces impide que los bancos utilicen algunos algoritmos ya que la regulación exige poder explicar las decisiones de crédito)
La consecuencia es que el sistema está mal entrenado, puede tomar decisiones equivocadas y no tendríamos manera de darnos cuenta hasta ver las consecuencias, que pueden ir desde personas que no pueden conseguir créditos de ninguna manera, hasta temas realmente graves, como enfermedades mal diagnosticadas, o vehículos autónomos que manejan mal.
Como toda tecnología nueva, es indudable que la IA traerá muchos beneficios a nuestras vidas, pero se debe tener cuidado de no sobreestimar sus capacidades y estar atentos a sus posibles fallos. En el caso de la IA, el mismo nombre de “Inteligencia Artificial” puede hacernos pensar que la tecnología es mucho más “inteligente” de lo que realmente puede hacer.
