La organización sin fines de lucro detrás del entrenamiento de Stable Diffusion está creando una base de datos para enseñar a los modelos de IA a detectar emociones.
Esta semana, LAION, la organización sin fines de lucro dedicada a la creación de bases de datos para el entrenamiento de modelos de IA generativa detrás del funcionamiento del generador de imágenes Stable Diffusion, anunció un ambicioso proyecto llamado Open Empathic con el que pretende brindar a los desarrolladores de todo el mundo herramientas necesarias para dotar a sus sistemas de inteligencia artificial de código abierto con la capacidad de detectar emociones, sentir empatía e inteligencia emocional, sin costo alguno.
El cofundador y actual líder de LAION, Christoph Schuhmann, señaló que a través de su nueva iniciativa buscan crear una inteligencia artificial que vaya mucho más allá de solo comprender palaras.
“Nuestro objetivo es construir un modelo que capte perfectamente los matices de las expresiones, los cambios de tono y más, con el fin de detectar las emociones de las personas y volver las interacciones entre humanos e IA más naturales, auténticas y empáticas”, comentó Schuhmann respecto a su más reciente iniciativa.
¿Cómo pretende LAION dotar a la IA con la capacidad de detectar emociones?
La misión principal de LAION desde su fundación en 2021, es democratizar los recursos para la investigación y el desarrollo de la inteligencia artificial, proporcionando grandes bases de datos de entrenamiento de código abierto.
Debido a lo anterior, para lograr un modelo gratuito capaz de comprender las emociones humanas, la organización está invitando a las personas a etiquetar y compartir clips de audio en una base de datos que podrá usarse abiertamente para crear IA y chatbots empáticos e inteligentes emocionalmente hablando.
Para la fase inicial de Open Empathic, LAION ha creado un sitio web en el que los voluntarios pueden entrar a etiquetar una lista de videos preseleccionados por la organización en los que aparecen personas expresándose como por ejemplo distintos podcasts y videoblogs.
Para cada clip, los voluntarios deben completar una lista de características detalladas que incluya una transcripción del audio, una descripción del contenido audiovisual, el sexo del protagonista, así como las emociones mostradas a lo largo del clip entre otros elementos que ayudan a crear una base de datos con parámetros directamente relacionados con emociones.
Para facilitar este proceso y obtener datos más detallados de cada video, LAION ofrece una serie de menús desplegables en los que los voluntarios pueden seleccionar distintas emociones y escribir en un recuadro a un lado de cada una, el minuto exacto del fragmento del video en el que se muestra dicha emoción.
Una vez que los voluntarios etiquetan el video y lo suben a la base de datos de LAION, pueden repetir el proceso las veces que deseen, no hay un límite para la cantidad de clips que cada voluntario puede registrar. Posteriormente, colaboradores de la organización se encargaran de filtrar los videos que entrarán a la base de datos final, únicamente revisando que las etiquetas correspondan.
LAION confía en la colaboración como medio principal para la innovación
LAION afirma que una vez que esta base de datos de entrenamiento este lista, aproximadamente para mediados del próximo año, según sus cálculos, los desarrolladores de todo el mundo podrán hacer uso de esta a través de su sitio web para dotar a sus sistemas con la capacidad de identificar emociones humanas.
“Al crear un conjunto de datos comunitarios que capture las características emocionales de diversos elementos de la comunicación, podemos potenciar los modelos de IA del mañana para que participen en conversaciones empáticas y emocionalmente inteligentes, todo esto manteniendo el espíritu de apertura y colaboración dentro de la comunidad de código abierto”, puntualizó Schuhmann.
Por su parte, Kari Noriy, investigador en jefe de IA de código abierto para LAION, comentó que mediante esta estrategia la organización sin fines de lucro espera recolectar aproximadamente 10 mil muestras en los próximos meses y confían en poder conseguir entre 500 mil y 1 millón para mediados del año siguiente.
“Tenemos miembros apasionados de la comunidad que impulsados por nuestra misma visión de democratizar los modelos y conjuntos de datos de IA, contribuyen voluntariamente con anotaciones en su tiempo libre y estamos seguros de que lo seguirán haciendo para Open Empatic.”, declaró Noiry.