Email Me: lezama at lacartita.com



Alucinación – el termino para cuando los modelos de inteligencia artificial se equivocan

Aunque es impresionante el hecho de que un chatbot responde a un input, académicos, científicos y expertos en la aplicación de la inteligencia artificial no han definido su postura con respeto al IA en términos psicológicos. La ciencia cognitiva bien fue la inspiración para las llamadas ‘redes neuronales’ que definen la arquitectura de algunos de los modelo de lenguaje colosal (LLM). Pero, aun así, no hay una postura definida que describa si los LLM’s están pensando y mucho menos una buena justificación por ello.

Alucinación

Para muchos comentaristas, el término “alucinaciones” es una glorificación injusta de los LLM. Al igual que el temor sobre una gran superinteligencia que debe ser controlada y auspiciada por gobiernos y mega-empresas antes de ser generalmente disponible. En mi opinion, esto es marketing para que el consumidor asuma que hay mas un ser viviente dentro de los servidores llenos de contenido plagiado.

A fin de cuentas, solo las entidades inteligentes alucinan mientras que los LLM son simples predictores estadísticos. Una serie de preguntas esta estadísticamente mas alineada con otro conjunto de palabras. Lo que llamamos “alucinación” es una manifestación del hecho de que, para los LLM, todo el texto (factual y no factual) se considera igual: los LLM nunca pueden determinar la “verdad” absoluta. Para quienes aplicamos GPT3 a nuestras soluciones, la clave esta en caracterizar una búsqueda con necesidad de información reciente. Un clasificador binario podría observar cual comentario o petición podría ser resuelta con un resumen de una lista de resultados derivadas de un motor de búsqueda.

Bloqueando falsos positivos

En mi opinion, eso es una buena lógica de resultados para una arquitectura de la aplicación del uso del LLM – cuando puede solo y cuando tiene que se augmentado con una búsqueda y recuperación de información. Ya es parte de la metodología para las preguntas relacionadas al clima en los asistentes de Open AI pero obviamente se puede extender dicho estilo de arquitectura.