Investigadores identifican el Talón de Aquiles del aprendizaje automático y que debe ser tomado en cuenta para no poner en jaque la vida de las personas.
Una pequeña modificación en una imagen puede ocasionar que una máquina inteligente la etiquete de forma errónea. Como resultado, es posible, por ejemplo, que se genere un diagnóstico médico equivocado y poner en jaque la vida de un paciente. Bajo este contexto, investigadores de Google descubrieron una falla en el machine learning que había pasado inadvertida.
De acuerdo con una publicación en Discover Magazine, un grupo de científicos, la mayoría de ellos ingenieros de la empresa de Mountain View, identificaron una nueva debilidad central en el proceso de aprendizaje automático que ocasiona los problemas antes mencionados.
Te puede interesar:¿Llegará está tecnología “distópica” a tu oficina?
En el caso de Covid-19, un modelo de machine learning puede simular el progreso de la pandemia al reconocer los parámetros de la tasa de infección y su duración (Ro y D en inglés, respectivamente) a partir de los datos recolectados.
No obstante, los investigadores de Google aseguran que estas métricas están subespecificadas durante las etapas tempranas de la pandemia. Esto significa que hay demasiados pares por cada valor de Ro y D que describen con precisiones el mismo crecimiento exponencial.
“Cuando se usan para pronosticar la trayectoria de la epidemia, estos parámetros generen predicciones totalmente diferentes”, explican los ingenieros. En consecuencia, los sistemas de aprendizaje automático no escogen de forma adecuada entre estos pares, lo cual además puede depender de decisiones arbitrarias según la configuración del modelo.
Esta clase de situaciones ocurren en diversos contextos. “En general, la solución a un problema es subespecificada si hay muchas soluciones distintas que lo resuelvan de manera equivalente”, explican. Pero estas no permiten realizar las mismas predicciones.
Lo anterior puede suceder en análisis de estudios médicos, diagnósticos clínicos basados en el historial de salud de los pacientes, así como en el procesamiento de lenguaje natural. Pequeños cambios a la hora de entrenar a un modelo de machine learning pueden provocar no solo que se llegue a una solución distinta, sino que también se genere un sesgo que incida en las predicciones.
Con el fin de evitar problemas, los científicos sugieren diseñar pruebas para determinar qué tan bueno es el despeño del sistema inteligente con base en datos del mundo real. Sin embargo, esto requiere de una comprensión de la manera en dicha prueba puede salir mal.
Lee también: Personas se distraen más con los vehículos autónomos
Ante la falla que descubrieron los investigadores de Google en el machine learning, considerada como un Talón de Aquiles, se necesitará prestar más atención, especialmente cuando los modelos de computación estén relacionados al bienestar humano, tal cual sucede con los vehículos autónomos y los análisis médicos, entre otros. Estas sutilezas pueden marcar la diferencia entre la vida y la muerte de las personas.