La compañía creó un nuevo software que ayudará a los desarrolladores a evitar que los modelos avanzados de lenguaje alucinen respuestas falsas que incluyan datos incorrectos e información tergiversada.
Con el objetivo de impulsar sistemas de inteligencia artificial para la generación de texto más seguros y confiables, Nvidia lanzó ayer NeMo Guardrails, un nuevo software que brinda a los desarrolladores un conjunto de herramientas de código abierto diseñadas específicamente para hacer que las aplicaciones impulsadas por modelos avanzados de lenguaje sean más “precisas, apropiadas, específicas y seguras”, en las palabras del propio CEO de la compañía, Jensen Huang.
Jonathan Cohen, vicepresidente de investigación aplicada de Nvidia, reveló que el fabricante de chips ha estado trabajando en el sistema detrás de Guardrails durante muchos años, sin especificar desde cuándo, sin embargo, fue apenas hace algunos meses que identificaron un área de oportunidad de implementación en los modelos GPT, por lo que decidieron pulir y lanzar al mercado su kit de herramientas para la optimización de estos sistemas.
El nuevo NeMo Guardials de Nvidia pretende acabar con las alucinaciones de la IA generativa
A pesar del avance exponencial que han tenido los modelos avanzados de lenguaje como ChatGPT, Bard y Bing AI, entre otros, se observa que aún tienen alucinaciones con frecuencia. Esto se refiere a los errores de procesamiento que los llevan a crear respuestas aparentemente bien fundamentadas y estructuradas, pero conformadas por información errónea.
Nvidia afirma que su nueva solución tiene la capacidad de reducir las alucinaciones, para lo que agregó medidas de seguridad con el fin de evitar que los generadores de texto aborden temas que no deberían.
NeMo Guardrails funciona como una capa de software entre el usuario y el modelo avanzado de lenguaje o cualquier otra clase de herramienta de IA generativa.
Específicamente, Guardrails puede asegurarse de que los chatbots inteligentes no se desvíen del tema, respondan con información inexacta, usen lenguaje tóxico y obtengan datos de fuentes externas inseguras o poco fiables.
El software de NeMo Guardrails incluye código, archivos, ejemplos y documentos esenciales para blindar con mayor seguridad a las aplicaciones de IA que generan texto. Nvidia afirma que el conjunto de herramientas está diseñado para funcionar con la mayoría de los modelos de lenguaje generativo, permitiendo a los desarrolladores imponer sus límites, barreras o lineamientos con pocas líneas de código.
“Gracias a Guardrails, ahora los desarrolladores también tendrán control sobre lo que está fuera de los límites de su chatbot o aplicación de IA”, declaró Cohen. “Además, tienen la libertad de configurarlo para obtener respuestas tan generales o específicas, de acuerdo al caso de uso”, agregó.
El ejecutivo de la compañía, compartió el ejemplo de un chatbot que recientemente diseñaron para responder cuestiones de recursos humanos al interior de una empresa. En este caso, los desarrolladores agregaron barreras específicas para que el bot impulsado por ChatGPT no pudiera acceder a información relacionada con las finanzas de la empresa, ni a datos privados sobre otros empleados, inhabilitándolo de responder cualquier clase de pregunta al respecto.
Por ahora, NeMo Guardrails es una aplicación de código abierto que se ofrece a través de los servicios de Nvidia y puede ser integrada a diversas aplicaciones comerciales de IA, el único requisito para utilizarlo es tener conocimiento en el lenguaje de programación Colang, ya que es necesario para escribir el código que personaliza los límites de los modelos de IA.
El anuncio de Nvidia refleja su firme convicción de mantener el liderazgo del mercado de chips de inteligencia artificial, ya que, al desarrollar soluciones de software críticas para los modelos avanzados de lenguaje, aprovechan la utilización de semiconductores de IA que ellos mismos fabrican, logrando un negocio redondo en torno a la inteligencia artificial generativa.