Investigadores crean modelo de IA capaz de reconocer cuando la información que proporciona no es confiable para tomar una decisión.
23/11/2020 | Por Noticias TNE
No hay duda de que los sistemas de inteligentes como el deep learning contribuyen a mejorar la toma de decisiones en distintas áreas, como por ejemplo la seguridad. Pero ¿cómo saber si la inteligencia artificial se equivoca al procesar grandes cantidades de datos?
Investigadores la Universidad de Harvard y del Instituto de Tecnología de Massachussets (MIT) un método rápido para que una red neural procese los datos no solo para predecir resultados, sino también para determinar el nivel de confianza del sistema con base a la información disponible.
Te puede interesar: Amazon quiere que tu auto esté más conectado a la nube
Como resultado de este experimento, un vehículo autónomo podría ser más precioso para determinar si ‘el camino está totalmente despejado de neblina’ o ‘es probable que lo esté’ y le sugiera al conductor que es mejor detenerse a fin de evitar un accidente que pudiera ser fatal.
“Necesitamos la habilidad para no solo contar con modelos de alto desempeño, sino también para entender cuando no podemos confiar en ellos”, comentó Alexander Amini, doctorando y alumno del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), de acuerdo con el SciTechDaily.
Al conocer el grado de incertidumbre que puede presentar un sistema, es posible saber el nivel de error que puede esperarse. De igual manera, se puede establecer cuáles son los datos que faltan y contribuyen a mejorar el desempeño.
En la actualidad, el deep learning opera de distintas formas: en los motores de búsqueda y en las redes sociales, entre otros ejemplos. Su implementación ha sido exitosa; de hecho, este sistema logra una certeza del 99%; sin embargo, ese 1% faltante puede ser determinando cuando las vidas de las personas estén en juego.
Algo que se ha eludido es la capacidad de estos modelos para saber y comunicar cuando existe la posibilidad de que estén equivocados. Incluso así se les tendrían más confianza y de paso serían más eficientes.
Para poner a prueba la capacidad del modelo, los investigadores entrenaron una red neural para analizar una imagen de color monocular y estimar el valor de profundidad por cada pixel. Por ejemplo, un coche autónomo realizar cálculos similares para estimar la proximidad de un peatón o de otro vehículo, lo cual no es sencillo.
Lee también: Inteligencia artificial no garantiza seguridad contra deepfakes
El sistema resulto estar a la par de otros considerados de vanguardia, pero también obtuvo la habilidad para estimar su propio grado de incertidumbre. En otra prueba, el modelo fue capaz de advertir que respuestas no eran completamente certeras y los usuarios no deberían confiar.
Saber si la inteligencia artificial se equivoca al procesar grandes cantidades de dato será determinante sobre todo en cuestiones de vida o muerte. ¿Te imaginas cuando se trate de aviones autónomos?