Para explicar esos términos, Salinas se detuvo en la inteligencia artificial generativa, aquella rama de la IA cuyos modelos basados en redes neuronales tras ser entrenados con ingentes cantidades de datos y reajustados por humanos son capaces de generar nuevo contenido similar al que podría generar un humano a partir de una petición o prompt a estos modelos. Este contenido puede ser texto, audio, vídeo, música… Ahí están los ejemplos de ChatGPT o LlaMA, modelos entrenados con mucho texto, de carácter generalista o para tareas específicas.
Los LLMs funcionan como redes neuronales, una simplificación de las neuronas humanas. Al principio no captaban bien el contexto, estimó el técnico de XITASO, hasta que en 2017 llegó el cambio al llegar la arquitectura Transformer, “capaz de contextualizar y trabajar en paralelo”, consiguiendo así argumentar y traducir en tiempo real.
Salinas se detuvo en el proceso de entrenamiento y sus tres fases. La primera es la de pre-entrenamiento, las más costosa de datos, pues pasa por cargar una enorme cantidad de datos en crudo. En la segunda etapa se ajustan las respuestas, y en la tercera se optimiza el modelo con respuestas más parecidas a las buscadas.
“Los beneficios del uso de la IA Generativa son el brainstorming, la escritura y la programación”, dijo Salinas. El brainstorming sirve para generar ideas, encontrar soluciones a problemas o desglosar conceptos. La escritura se aplica a la realización de proyectos tediosos o traducciones. Y la programación contribuye a la optimización de fragmentos de código, a la traducción entre lenguajes informáticos o a la asistencia profesional.
Salinas también enumeró las características que deben tener los prompts o peticiones. Deben ser concretos y precisos; tiene que incluir obligatoriamente la tarea, esencialmente el contexto y algunos ejemplos y opcionalmente la persona solicitante, el formato de la respuesta y el tono de la respuesta.