La IA requiere emular más al cerebro humano para comprender y adaptarse a un entorno complejo. Solo así podrá resolver más problemas y ayudar a las personas.
La inteligencia artificial (IA) cada vez emula mejora la manera de pensar, escuchar y hablar, entre otras cosas, pero todavía le falta para ser tan flexible como el cerebro humano, por lo que debe ser capaz de integrar los sentidos para desenvolverse en su entorno. Así lo sugiere una publicación en el MIT Technology Review.
Si bien los algoritmos pueden vencer a grandes mentes, como ocurrió AlphaGo de DeepMind (Google) que derrotó a jugadores de ajedrez, no puede aplicar esa estrategia fuera del tablero. En otras palabras, son capaces de identificar patrones, pero no pueden adaptarse a un entorno que cambia constantemente a paso veloz.
Para resolver esta situación, investigadores hipotetizan que la IA pueden aprender como lo hacen los humanos cuando son pequeños.
Te puede interesar: Neurociencia esconde el secreto para proteger a la IA de los ciberataques
En este caso, los niños aprenden asociar palabras con imágenes, sonidos y otros datos sensoriales, lo que les permite describir e interactuar con el mundo que los rodea para así generar un modelo del mundo. De esta manera obtienen conocimiento y experiencias que les dan contexto.
Por su parte, la inteligencia artificial solo está diseñada para hacer una sola cosa a la vez. Por ejemplo, los algoritmos de visión computacional y de reconocimiento de voz solo pueden percibir las cosas, pero no usar lenguaje para describirlas. Mientras que un modelo de lenguaje natural manipula las palabras, estas se encuentran desprovistas de cualquier realidad sensorial.
Resolver esta situación implica crear sistemas multimodales, que cuenten con características sensoriales y lingüísticas. Así, la IA podría adaptarse a situaciones nuevas con mayor facilidad.
Como resultado de este proceso, los algoritmos podrían ayudar a resolver problemas complejos o simplemente mejorar su capacidad de colaboración con los seres humanos.
Actualmente existen modelos de procesamiento de lenguaje como el GPT-3 de OpenIA, con el cual los investigadores ahora comprenden cómo replicar la manipulación del lenguaje para combinarlo con capacidades sensoriales y lograr resultados más prometedores.
Otro ejemplo ocurrió en la Universidad de Carolina del Norte, donde se desarrolló un método que incorpora imágenes en modelos de lenguaje existentes, mejorando así su comprensión lectora.
A largo y mediano plazo se espera que los sistemas multimodales permitan crear robots más avanzados que vayan más allá de realizar tareas simples o rutinarias, además de mejorar la interacción con su entorno. La idea es que a la postre ejecutar actividades más demandantes.
Lee también: Cuando la tecnología prolongue la vida, llegarán los superhumanos
Una inteligencia artificial más flexible no solo significa nuevas aplicaciones, sino mayor seguridad. Piensa en los carros autónomos que podrían conducirse mejor en entornos desconocidos y/o evitar estrellarse en la oscuridad.