¿CÓMO SE DEFINE LA INTELIGENCIA ARTIFICIAL?

¿CÓMO SE DEFINE LA INTELIGENCIA ARTIFICIAL?

El deep learning es uno de los enfoques más prometedores, ya que utiliza algoritmos basados en redes neuronales que resuelven problemas por su propia cuenta.

19/06/18 | Por Noticias TNE

Inteligencia artificial

La inteligencia artificial (IA) engloba un amplio conjunto de ciencias de la computación para la percepción, lógica y el aprendizaje; el machine learning —programas que se desempeñan mejor con el tiempo y con mayor información— es un ejemplo.

El deep learning es uno de los enfoques más prometedores de este tipo de aprendizaje, ya que utiliza algoritmos basados en las redes neuronales –una manera de conectar entradas y salidas con base en un modelo de la forma en que se cree que funciona el cerebro– que encuentran la mejor manera de resolver los problemas por sí mismos, a diferencia del desarrollador que los escribe. La capacitación es la forma en que estas aplicaciones se “programan”; es decir, se les alimenta con más información y así se van afinando.

¿Qué es la inteligencia artificial?

Pradeep Dubey, investigador de Intel,  describe a la IA como “una simple visión en la que las computadoras se vuelven indistinguibles de los humanos”. También se ha definido sencillamente como “darles sentido a los datos”, lo que refleja en gran medida la forma en que las compañías la utilizan en la actualidad.

En general, la IA es un término genérico para una variedad de algoritmos y enfoques informáticos que permiten a las máquinas percibir, razonar, actuar y adaptarse, como lo hacen los seres humanos o en formas que van más allá de nuestras habilidades.

Entre las capacidades similares, se encuentran las aplicaciones de reconocimiento facial en las fotografías, los robots que pueden transitar por hoteles y plantas de producción, así como los dispositivos capaces de tener conversaciones naturales con una persona.  

Las funciones que van más allá de las humanas podrían incluir la identificación de tormentas potencialmente peligrosas antes de que se formen, predecir fallas en un vehículo o máquina antes de que ocurran o detectar malware.

Un conjunto de personas en Intel, el Grupo de Productos de Inteligencia Artificial, trabaja para ofrecer hardware, software, ciencia e investigación de datos, con el fin de que estas nuevas capacidades cobren vida.

El trabajo en inteligencia artificial data por lo menos de la década de 1950, seguido desde entonces por varios ciclos de auge y caída en cuanto a investigación e inversión, a medida que crecían las esperanzas de nuevos enfoques y aplicaciones (como el programa de juego de damas de Arthur Samuel en aquella época y el robot Shakey de Stanford en 1960), pero que después sufrió una caída debido a que estos métodos no lograron dar resultado, causando “los inviernos de la inteligencia artificial”, cuando el interés público terminó por enfriarse.

Hay cuatro grandes razones por las que hoy estamos en una nueva primavera en cuanto al estudio de esta tecnología: mayor poder de cómputo (la nube pone al alcance de todos computadoras de gran capacidad), más datos (sobre todo con la proliferación de cámaras y detectores), mejores algoritmos (los enfoques han pasado de ser curiosidades académicas a vencer el desempeño humano en tareas como la comprensión de lectura) y amplias inversiones.

El machine learning

El aprendizaje automático es un programa en el que el desempeño mejora con el tiempo mientras se reciban más datos. Es decir, la máquina es más inteligente cuanto más “estudia”, de acuerdo a Dubey. Una definición más formal, utilizada por Intel, sería “la construcción y el estudio de algoritmos que pueden aprender de los datos para hacer predicciones o tomar decisiones”.

Por ejemplo, un oftalmoscopio alimentado por IA construido por el grupo hospitalario Aier Eye y MedImaging Integrated Solutions, aprendió cómo identificar la retinopatía diabética y la degeneración macular relacionada con la edad después de analizar miles de imágenes etiquetadas de ojos sanos y no sanos.  

En otro caso, un importante hospital de oftalmología en China pudo aumentar al 93% la detección de las causas potenciales de la ceguera, que tradicionalmente era del 70 al 80% entre los doctores. Con más tiempo y más datos, podría seguir incrementándose su precisión. 

Las redes neuronales y el deep learning

“En el aprendizaje automático supervisado tradicional, los sistemas necesitan que un experto utilice sus conocimientos para especificar la información en los datos de entrada que mejor darán como resultado un sistema bien capacitado”, escribió un equipo de ingenieros y científicos de datos de inteligencia artificial de Intel en un blog reciente. En el ejemplo de prevención de la ceguera, significaría especificar los colores, las formas y los patrones que separan un ojo sano de uno con problemas.

El aprendizaje profundo es diferente, en lugar de especificar las características de los datos que se piensa conducirán a una mejor precisión de la clasificación, se deja que la máquina encuentre esta información por sí sola. A menudo, puede ver el problema de una manera que incluso un experto no hubiera podido imaginar.

Dentro de todo esto se ubica una red neural artificial, que se basa en la manera en que trabaja el cerebro humano y proporciona las matemáticas que la hacen trabajar. Google ofrece una herramienta en la que es posible “jugar” con una en el sitio Experiments with Google. En esta página se ofrece una definición simplificada de lo que es este término: “Primero, se crea una colección de neuronas de software y se conectan, permitiendo que se envíen mensajes entre sí. Después, se le pide a la red que resuelva un problema, lo que intenta hacer una y otra vez, cada vez fortaleciendo más las conexiones que llevan al éxito y disminuyendo las que llevan al fracaso”.

Los conceptos suenan complejos, pero cuando se trata del código real que se ejecuta es muy simple. “No es magia, son matemáticas”, señaló Dubey. “Multiplicación de matrices, para ser exactos; más simple, imposible”.

Capacitación e inferencia

La capacitación es la parte del aprendizaje automático en el que está construido su algoritmo, configurándolo con datos para que haga lo que la persona quiere que haga. Ésta es la parte difícil. “Es el proceso mediante el cual nuestro sistema encuentra patrones en los datos”, escribió el equipo de IA de Intel. “Durante esta etapa pasamos la información a través de la red neuronal, se corrigen errores después de cada muestra y se repite hasta que se logra el mejor resultado”.

En el caso del examinador ocular de Aier; por ejemplo, la capacitación involucraba la alimentación de imágenes de los ojos etiquetados como sanos o no.

Después de esto llega el proceso conocido la inferencia, que encaja en su definición del diccionario al pie de la letra: “acto o proceso de derivar conclusiones lógicas de premisas que se conocen o asumen que son verdaderas”. Utilizando como analogía un software, capacitar es escribir el programa, mientras que inferencia es usarlo.

Es en dicho paso donde realmente tiene lugar la función que podría ver un consumidor, la cámara de Aier valorando la salud de sus ojos, Bing respondiendo a sus preguntas o un dron que le da vuelta a un obstáculo en forma automática.

Con información de Intel

Te puede interesar también:

“Alcances y riesgos de la inteligencia artificial”

“La inteligencia artificial podría comenzar una guerra”


Noticias-TNE

Autor: Noticias TNE

Equipo de Noticias de la Revista TNE. Estamos dedicados a generar ideas al mundo de los negocios.

Compartir esta publicación en

Compartir por e-mail