13/05/17 | Por Noticias TNE
La herramienta tiene un acierto del 90% al momento de catalogar delincuentes como probables futuros ofensores.
Philip K. Dick lo vio venir en los años 50 y Steven Spielberg lo retrató en 2002 con la película de Minority Report. Como sacado de un cuento de ciencia ficción, ahora sería posible prever si alguien cometerá un crimen antes de que éste ocurra.
El Harm Assessment Risk Tool (HART) empleará datos recopilados por parte de la policía de Durham, Inglaterra, entre 2008 y 2013 para funcionar. Después de estar a prueba desde entonces, se estima que en un periodo máximo de dos a tres meses, ya se use de manera permanente en un rol de ‘asesor’.
La Inteligencia Artificial (IA) ayudará a la policía del área a determinar si es seguro liberar a un sospechoso o si es mejor dejarlo en custodia.
La IA logró una precisión del 98% al momento de catalogar a alguien de ‘bajo riesgo’ y un 88% si lo hizo de ‘alto riesgo’. “Lo que hace el algoritmo es permitir a la policía tomar decisiones basadas en evidencia”, dijo el profesor Lawrence Sherman, director del Centro de Evidencia Policiaca de la Universidad de Cambridge, desarrollador del proyecto.
Al momento de preguntarle si pensaba que este modelo podría dañar vidas si diera una decisión errónea, el profesor comentó: “No sabemos si el sistema actual lo está haciendo.”
En este mismo tono piensa Helen Ryan, cabeza del área de leyes de la Universidad de Winchester, quien considera que dada la información correcta, una máquina puede llegar a ser más precisa que un ser humano.
IA aprende negativamente
Existe la preocupación que este tipo de herramientas trabajen bajo prejuicios. En Estados Unidos se realizó un experimento en 2014 y los datos arrojaron que personas de color fueron asociadas en mayor medida a ser de ‘alto riesgo’, mientras que sospechosos blancos eran colocados como de ‘menor riesgo’, cuando la evidencia física dictaba todo lo contrario.
En un estudio realizado por la revista Science, se reveló que la Inteligencia Artificial está sujeta a estereotipos culturales, ya que utiliza el lenguaje utilizado en internet para estar en constante desarrollo. “Si construimos un sistema inteligente que aprenda lo suficiente de las propiedades del lenguaje para poder reproducirlo, en el proceso adquiere asociaciones culturales, lo cual puede llegar a ser cuestionable”, se lee en el artículo.
Los creadores de HART consideran que han tomado todas las medidas necesarias para impedir que estas cuestiones afecten el rendimiento de su sistema; además su rol será de soporte por lo que la policía aún tendrá la decisión final en todos los casos.