¿Qué es la ingeniería de apuntes (‘prompt engineering’) – el desarrollo de instrucciones – para modelos colosales?
¿Qué es la Ingeniería de Instrucciones?
Para empezar, es una forma de definir – sin programación en algún lenguaje de programación – las respuestas de un LLM. En el caso de Open AI, dentro de la consola de ‘System’, un operador puede colocar hasta mas de 4000 mil palabras o tokens que afinan las respuestas del input sobre el modelo GPT 3.5. Tambien esta disponible un GPT 3.5 16k que como su nombres hace alusión se le pueden colocar 16 mil tokens individuales al apunte que se somete.
Estas instrucciones permiten que varias peticiones, como normalización de texto, referencias y enfoque de dominio, sean delimitadas antes de ejecutar una petición en conjunto con el modelo colosal. Dentro de estos apuntes puedes colocar una instrucción al igual que ejemplos que la llevan acabo de forma exitosa.
Usando el API – Platform API
Como pueden observar, la plataforma de Open AI pone a tu disposición los parámetros que impactan los resultados de su modelo colosal. Por donde dice model
puedes cambiar y especificar que modelo usar. Algunos claramente no están disponibles, como GPT4-preview.
La Ingeniería de Instrucciones consiste en especificar una instrucción y proporcionar ejemplos. La combinación de ambos se denomina “prompt”. Una vez que hayas ingresado una serie de preguntas y respuestas es valido poner un input que no tenga output. Esto permite que se genere un output al hacer clic en “Submit” para obtener la respuesta. Puedes hacer clic cuantas veces desees para que la IA reformule su respuesta. Sin embargo, siempre asegúrate de verificar la información que la IA proporciona.
Hay un sentido en el que cada interaccion es una ‘instruccion’ que el modelo elije dado sus parametros internos a generar un output que mejor corresponda con ese input.
[interactive_publications]