IBM BUSCA PREVENIR SESGO EN INTELIGENCIA ARTIFICIAL

IBM BUSCA PREVENIR SESGO EN INTELIGENCIA ARTIFICIAL

La empresa presenta solución para evaluar sistemas de machine learning y evitar que estos sean arbitrarios. Además permite analizar cómo y por qué se toman determinadas decisiones.

19/09/18 | Por Noticias TNE

Inteligencia Artificial

La industria tecnológica enfrenta el desafío de lograr que los sistemas de machine learning no sean tendenciosos a la hora de tomar decisiones y discriminen a personas, ya sea porque son mujeres o pertenecen a grupos minoritarios. En anteriores ocasiones por ejemplo, se determinó que el reconocimiento facial era efectivo, pero únicamente con los individuos de tez blanca.

“A medida que avanza el desarrollo de la inteligencia artificial (IA) y se incrementa su interacción con los seres humanos, se vuelve esencial que confiemos en los resultados que brindan estos sistemas para informar nuestras decisiones”, menciona el sitio de IBM Research. “Además de las políticas y de los esfuerzos de las empresas, la ciencia juega un papel fundamental: desarrollar y aplicar herramientas para asegurar la confiabilidad de la IA”.

Por lo anterior, IBM presentó una nueva herramienta de software que se ejecuta en el servicio de nune de la compañía y permitirá a las organizaciones analizar si sus sistemas de inteligencia artificial son confiables, además de evaluar por qué y cómo toman determinadas decisiones. Esto facilitará una mejor comprensión, simplificará la gestión de la tecnología y promoverá una mayor transparencia en la IA.

“IBM lidera a la industria en el establecimiento de principios de confianza y transparencia para el desarrollo de nuevas tecnologías basadas en IA”, comentó David Kenny, SVP de Soluciones Cognitivas en IBM, según cita Tech Crunch. “Es momento de llevar esos principios a la práctica. Estamos otorgando transparencia y control a los negocios que utilizan la IA y enfrentan riesgos potenciales derivados de toma de decisiones erróneas”.

Entre la oferta de IBM Services se encuentra una herramienta AI Fairness 360 Toolkit, la cual se compone de una variedad de algoritmos, códigos y tutoriales para detectar si los sistemas toman decisiones tendenciosas. Esta solución se corre en la nube de IBM e integra diversas capacidades de distintos sistemas de machine learning tales como Watson, Tensorflow, SparkML, AWS SageMaker y AzureML.

La incertidumbre y la falta de transparencia con los modelos basados en inteligencia artificial impiden a las empresas desplegar la tecnología y ejecutarla en sus  procesos. Esto genera duda sobre cómo las decisiones de una máquina pueden afectar al negocio. “Es un problema real y la confianza es uno de los factores más importantes que previenen la (implementación) de la IA a escala en los entornos de producción”, detalló Ritikia Gunnar, VP de Watson Data and AI, de acuerdo al sitio ZDNet.

 

 

Te puede interesar también:

“Reconocimiento facial es efectivo… sólo si eres hombre blanco”

“Inteligencia Artificial ¿una amenaza para los empleos?”


Noticias-TNE

Autor: Noticias TNE

Equipo de Noticias de la Revista TNE. Estamos dedicados a generar ideas al mundo de los negocios.

Compartir esta publicación en

Compartir por e-mail