Optimización de Modelos de Lenguaje Grande (LLMs) a través del Prompt Engineering

Palabras clave: Few-shot learning, LLMs, modelos generativos, prompt engineering, zero-shot learning

Resumen

Este artículo exploró el impacto del prompt engineering en la optimización del rendimiento de modelos de lenguaje grande (LLMs, por sus siglas en inglés) como GPT y BERT. El prompt engineering fue presentado como un enfoque innovador que consistía en diseñar instrucciones específicas para guiar las respuestas de los modelos, mejorando su precisión y relevancia sin modificar sus parámetros internos. El estudio evaluó metodologías para la construcción de prompts efectivos, comparó diferentes estrategias como el few-shot y el zero-shot learning, y analizó casos prácticos en áreas como la generación de texto, la respuesta a preguntas y el análisis de sentimientos. Los resultados mostraron que un diseño estratégico de prompts podía mejorar significativamente la calidad de las respuestas, reducir errores y ampliar el rango de aplicaciones de los LLMs.

Descargas

La descarga de datos todavía no está disponible.

Citas

T. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. Ziegler, J. Wu, C. Winter, ... D. Amodei, "Language Models are Few-Shot Learners," arXiv, 2020. Available: https://arxiv.org/abs/2005.14165.

J. Devlin, M. W. Chang, K. Lee, and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," arXiv, 2018. Available: https://arxiv.org/abs/1810.04805.

A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser, and I. Polosukhin, "Attention Is All You Need," arXiv, 2017. Available: https://arxiv.org/abs/1706.03762.

T. Wolf, L. Debut, V. Sanh, J. Chaumond, C. Delangue, A. Moi, P. Cistac, T. Rault, R. Louf, M. Funtowicz, and J. Brew, "Transformers: State-of-the-Art Natural Language Processing," arXiv, 2020. Available: https://arxiv.org/abs/1910.03771.

C. Raffel, N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Y. Zhou, W. Li, and P. J. Liu, "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer," Journal of Machine Learning Research, vol. 21, pp. 1–67, 2020. Available: https://arxiv.org/abs/1910.10683.

J. Wei, X. Wang, D. Schuurmans, M. Bosma, B. Ichter, F. Xia, E. H. Chi, Q. V. Le, and D. Zhou, "Chain of Thought Prompting Elicits Reasoning in Large Language Models," arXiv, 2022. Available: https://arxiv.org/abs/2201.11903.

OpenAI, "GPT-4 Technical Report," OpenAI, 2023. Available: https://openai.com/research/gpt-4.

Recibido: 2024-08-10
Aceptado: 2024-09-16
Publicado: 2025-09-30
Cómo citar
[1]
C. B. Paz Fernández, S. H. Diaz Sifuentes, y M. Torres Villanueva, «Optimización de Modelos de Lenguaje Grande (LLMs) a través del Prompt Engineering», Innov. softw., vol. 6, n.º 2, pp. 6-11, sep. 2025.
Sección
Artículos cortos

Artículos más leídos del mismo autor/a

1 2 > >>