Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
Esta obra est´a bajo una Licencia
Creative Commons Atribuci´on
4.0 Internacional.
Tipo de art´ıculo: Art´ıculos cortos
Tem´atica: Ingenier´ıa de software
Recibido: 10/8/2024 |Aceptado: 16/9/2024 |Publicado: 30/9/2025
Identificadores persistentes:
DOI: 10.48168/innosoft.s24.a212
ARK: ark:/42411/s24.a212
PURL: 42411/s24.a212
Optimizaci´on de Modelos de Lenguaje Grande (LLMs) a
traes del Prompt Engineering
Optimization of Large Language Models (LLMs) through
Prompt Engineering
Sergio D´ıaz Sifuentes1[0009- 0001- 7550- 5922]*, Crishtian Paz Fern´andez2[0009-0000-2027-5990], Marcelino
Torres Villanueva3[1234-1111-2222-3333]
1Universidad Nacional de Trujillo. sdiazsi@unitru.edu.pe
2Universidad Nacional de Trujillo. t1023300121@unitru.edu.pe
3Universidad Nacional de Trujillo. mtorres@unitru.edu.pe
Autor para correspondencia: sdiazsi@unitru.edu.pe
Resumen
Este art´ıculo explor´o el impacto del prompt engineering en la optimizaci´on del rendimiento de modelos de
lenguaje grande (LLMs, por sus siglas en ingl´es) como GPT y BERT. El prompt engineering fue presentado
como un enfoque innovador que consist´ıa en dise˜nar instrucciones espec´ıficas para guiar las respuestas de
los modelos, mejorando su precisi´on y relevancia sin modificar sus par´ametros internos. El estudio evalu´o
metodolog´ıas para la construcci´on de prompts efectivos, compar´o diferentes estrategias como el few-shot y el
zero-shot learning, y analiz´o casos pr´acticos en ´areas como la generaci´on de texto, la respuesta a preguntas
y el an´alisis de sentimientos. Los resultados mostraron que un dise˜no estrat´egico de prompts pod´ıa mejorar
significativamente la calidad de las respuestas, reducir errores y ampliar el rango de aplicaciones de los LLMs.
Palabras claves: Few-shot learning, LLMs, modelos generativos, prompt engineering, zero-shot learning.
Abstract
This article explored the impact of prompt engineering on optimizing the performance of large language models
(LLMs) such as GPT and BERT. Prompt engineering was introduced as an innovative approach that involved
designing specific instructions to guide the models’responses, enhancing their accuracy and relevance without
modifying their internal parameters. The study evaluated methodologies for constructing effective prompts,
compared different strategies such as few-shot and zero-shot learning, and analyzed practical cases in areas like
text generation, question answering, and sentiment analysis. The results demonstrated that a strategic design of
prompts could significantly improve response quality, reduce errors, and expand the range of LLM applications.
Keywords: Few-shot learning, generative models, LLMs, prompt engineering, zero-shot learning
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
6
Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
Introducci´on
La evoluci´on de los Modelos de Lenguaje Grande (LLMs, por sus siglas en ingl´es) revolucion´o el procesamiento
del lenguaje natural (NLP), proporcionando capacidades avanzadas para comprender, analizar y generar texto
con una fluidez similar a la humana. Estos modelos, como GPT (Generative Pre-trained Transformer) y BERT
(Bidirectional Encoder Representations from Transformers), establecieron nuevos est´andares en aplicaciones
como asistentes virtuales, generaci´on de res´umenes, traducci´on autom´atica y an´alisis sem´antico. Su ´exito se
bas´o en las arquitecturas de Transformadores, introducidas por Vaswani et al. (2017), que utilizan mecanismos
de atenci´on para procesar grandes vol´umenes de datos ling¨u´ısticos de manera eficiente [3].
A pesar de sus destacadas capacidades, los LLMs enfrentaron desaf´ıos en su implementaci´on pr´actica. Uno de
los principales problemas fue que su desempno depend´ıa significativamente de omo se les presentaba cada
tarea, incluyendo el dise˜no de instrucciones que guiaran al modelo hacia respuestas precisas y relevantes. En
este contexto, el prompt engineering emergi´o como una t´ecnica innovadora que permit´ıa optimizar el uso de
estos modelos sin necesidad de ajustes computacionales extensivos.
El prompt engineering se fundameno en la formulaci´on de instrucciones espec´ıficas que maximizaban el rendi-
miento del modelo en tareas particulares. Estrategias como el zero-shot learning, que se basaba en instrucciones
claras sin ejemplos previos, y el few-shot learning, que empleaba ejemplos dentro del prompt para proporcio-
nar contexto, demostraron ser efectivas para resolver problemas complejos (Brown et al., 2020) [1]. Adem´as,
t´ecnicas como el razonamiento en cadena (chain-of-thought prompting) permitieron descomponer problemas
en pasos secuenciales, mejorando la precisi´on del modelo en tareas ogicas y matem´aticas (Wei et al., 2022)
[6].
Este estudio se enfoo en explorar el impacto del prompt engineering como una herramienta para optimizar
las capacidades de los LLMs. Analiz´o omo esta t´ecnica no solo incrementaba la precisi´on y relevancia de
las respuestas, sino que tambi´en facilitaba su adopci´on en aplicaciones pr´acticas, desde la atenci´on al cliente
hasta la investigaci´on cient´ıfica. El objetivo fue establecer una base metodol´ogica que permitiera maximizar el
potencial de los modelos existentes mientras se abordaban sus limitaciones actuales, como la generalizaci´on y
la sensibilidad a instrucciones ambiguas.
Materiales y m´etodos o Metodolog´ıa computacional
La investigaci´on sobre la optimizaci´on de Modelos de Lenguaje Grande (LLMs) a trav´es del prompt engineering
se realiz´o empleando un enfoque metodol´ogico integral. Este combin´o la revisi´on sistem´atica de literatura,
an´alisis de casos pr´acticos, experimentos controlados y entrevistas a expertos en la materia. Estas metodolog´ıas,
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
7
Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
utilizadas en conjunto, permitieron explorar el impacto y las posibilidades de esta t´ecnica en el rendimiento de
los LLMs, as´ı como identificar ´areas clave para futuras investigaciones. A continuaci´on, se detallan los enfoques
metodol´ogicos utilizados:
1. Revisi´on de la literatura Se llev´o a cabo una exhaustiva revisi´on de la literatura cient´ıfica relacionada
con los LLMs y el prompt engineering. La revisi´on abarc´o publicaciones acad´emicas de alto impacto,
art´ıculos ecnicos, informes de investigaci´on y documentaci´on oficial de desarrolladores como OpenAI
y Google. Este an´alisis permiti´o identificar conceptos clave, estrategias utilizadas y las limitaciones
reportadas en la implementaci´on de prompts para optimizar tareas espec´ıficas en modelos como GPT-4
y BERT [1, 2, 5].
2. An´alisis de casos de ´exito Se seleccionaron casos pr´acticos de organizaciones y equipos de investigaci´on
que han implementado con ´exito t´ecnicas de prompt engineering. Los casos incluyeron aplicaciones en
generaci´on de texto ecnico, an´alisis de sentimientos y respuestas automatizadas. Se analizaron desaf´ıos
enfrentados, soluciones propuestas y etricas de desempno logradas, destacando omo estrategias como
few-shot learning y razonamiento en cadena han permitido mejoras significativas en el rendimiento de
los LLMs [1, 6].
3. Metodolog´ıas experimentales Se realizaron experimentos controlados para evaluar la eficacia de
diferentes estrategias de prompt engineering. Los experimentos incluyeron tareas de generaci´on de texto,
clasificaci´on tem´atica y resoluci´on de problemas ogicos. Se compararon los enfoques zero-shot, few-shot
y razonamiento en cadena en erminos de precisi´on, coherencia y relevancia de las respuestas [6].
Herramientas utilizadas: modelos preentrenados como GPT-4 y BERT, implementados mediante biblio-
tecas como Transformers de Hugging Face [4]. M´etricas de evaluaci´on: F1-score, precisi´on y etricas
personalizadas relacionadas con satisfacci´on del usuario.
4. Entrevistas a expertos Metodolog´ıas experimentales Se realizaron entrevistas estructuradas con
investigadores, desarrolladores y profesionales que utilizan LLMs en aplicaciones pr´acticas. Estas entre-
vistas proporcionaron informaci´on valiosa sobre las tendencias emergentes en prompt engineering y los
desaf´ıos ecnicos enfrentados durante su implementaci´on. Tambi´en ayudaron a identificar oportunidades
de mejora en el dise˜no y uso de prompts.
5. An´alisis integrado Finalmente, se llev´o a cabo un an´alisis integrado de los hallazgos obtenidos a trav´es
de las metodolog´ıas mencionadas. Este an´alisis permiti´o identificar patrones comunes, validar resultados
y generar conclusiones fundamentadas. Tambi´en se destac´o la relaci´on sin´ergica entre las estrategias
experimentales y los hallazgos de la revisi´on de literatura y las entrevistas, estableciendo una base olida
para recomendaciones futuras [3, 7].
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
8
Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
Resultados y discusi´on
Los resultados de la investigaci´on sobre la optimizaci´on de los Modelos de Lenguaje Grande (LLMs) mediante
prompt engineering han demostrado que esta t´ecnica mejora significativamente el rendimiento en tareas es-
pec´ıficas de procesamiento del lenguaje natural. Al dise˜nar instrucciones detalladas y contextuales, se logra una
mayor precisi´on y relevancia en las respuestas de los modelos, especialmente en aplicaciones como la generaci´on
de texto, la clasificaci´on tem´atica y la resoluci´on de problemas complejos.
Los experimentos realizados muestran que el prompt engineering puede reducir la dependencia de ajustes
computacionales complejos, lo que facilita la implementaci´on pr´actica de LLMs en diversas industrias. Adem´as,
se destac´o que esta ecnica mejora la adaptabilidad de los modelos a diferentes contextos y dominios.
En general, los resultados confirman que el prompt engineering es una herramienta crucial para maximizar el
potencial de los LLMs, ofreciendo soluciones apidas, precisas y adaptables a las necesidades espec´ıficas de los
usuarios.
A continuaci´on, se presentan los resultados obtenidos de la investigaci´on:
1. Automatizaci´on de Tareas Complejas El prompt engineering permite a los LLMs automatizar tareas
avanzadas como la generaci´on de informes, an´alisis de datos y clasificaci´on de textos. Por ejemplo, en
experimentos con GPT-4, los prompts optimizados generaron res´umenes t´ecnicos con una precisi´on del
85 %, superando significativamente las expectativas de tareas automatizadas previas [1, 7].
2. Mejora en la Precisi´on de las Respuestas La capacidad de dise˜nar prompts contextuales incremeno
la precisi´on en la resoluci´on de problemas matem´aticos y en la clasificaci´on tem´atica. Los modelos que
utilizaron razonamiento en cadena (chain-of-thought prompting) lograron aumentar la precisi´on en un
20 % en comparaci´on con los enfoques tradicionales de few-shot learning [6].
3. Reducci´on de Falsos Positivos Al utilizar estrategias de prompt engineering, se observ´o una dismi-
nuci´on significativa en los errores de clasificaci´on y falsos positivos en tareas de an´alisis de sentimientos.
Esto optimiz´o el uso de recursos y mejor´o la eficiencia en aplicaciones pr´acticas como la atenci´on al
cliente [1, 4].
4. Personalizaci´on de Respuestas El uso de prompts adaptados a contextos espec´ıficos permiti´o per-
sonalizar las respuestas de los LLMs seg´un las necesidades de los usuarios. Por ejemplo, en el an´alisis
de datos financieros, los prompts dise˜nados con datos hist´oricos relevantes mejoraron la utilidad de las
respuestas en un 30 % [3, 5].
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
9
Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
5. Predicci´on de Respuestas Complejas Los modelos preentrenados, como GPT-4, mostraron una no-
table capacidad para predecir y estructurar respuestas en tareas de alta complejidad al analizar patrones
previos y datos hist´oricos proporcionados en los prompts. Este enfoque permiti´o a los usuarios obtener
respuestas as completas y ´utiles en menos tiempo [1, 7].
Conclusiones
El prompt engineering se consolida como una t´ecnica esencial que est´a redefiniendo el uso de los Modelos
de Lenguaje Grande (LLMs) en el ´ambito del procesamiento del lenguaje natural. A pesar de los desaf´ıos
asociados a su implementaci´on, como la dependencia de la calidad de los datos y la falta de interpretabilidad,
su capacidad para optimizar la precisi´on, relevancia y adaptabilidad de los modelos demuestra un enorme
potencial para aplicaciones pr´acticas en diversos dominios.
El ´exito del prompt engineering radica en su habilidad para maximizar las capacidades de los LLMs sin requerir
ajustes computacionales extensivos. Su capacidad para personalizar respuestas, reducir errores y mejorar la
eficiencia en tareas espec´ıficas lo posiciona como una herramienta poderosa en entornos donde la precisi´on
y la flexibilidad son cr´ıticas. Sin embargo, su adopci´on requiere un enfoque estrat´egico que integre tanto
consideraciones t´ecnicas como ´eticas, asegurando la transparencia y la responsabilidad en todas las etapas del
proceso.
El desarrollo de talento especializado en prompt engineering es fundamental para garantizar su implementaci´on
efectiva. Esto no solo incluye habilidades t´ecnicas para dise˜nar prompts efectivos, sino tambi´en una comprensi´on
profunda de las implicaciones ´eticas y sociales de esta tecnolog´ıa. La formaci´on de profesionales en este campo
ser´a clave para abordar los desaf´ıos asociados y capitalizar plenamente sus beneficios.
En resumen, el prompt engineering ofrece una oportunidad ´unica para expandir las capacidades de los LLMs,
pero su implementaci´on debe estar respaldada por una planificaci´on consciente, inversi´on en recursos humanos
y una visi´on ´etica que asegure su impacto positivo en la sociedad. Esto permitir´a no solo mejorar la eficiencia
y efectividad de los modelos, sino tambi´en garantizar su alineaci´on con valores y principios responsables en un
mundo cada vez as impulsado por la inteligencia artificial.
Contribuci´on de Autor´ıa
Crishtian Brenon Paz Fern´andez: Conceptualizaci´on,Investigaci´on,Metodolog´ıa,Software,Validaci´on,
Redacci´on - borrador original.Sergio Hel´ı Di´az Sifuentes: Conceptualizaci´on,Investigaci´on,Metodolog´ıa,
An´alisis formal,Recursos,Visualizaci´on,Supervisi´on,Administraci´on de proyectos,Adquisici´on de fondos,
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
10
Revista Innovaci´on y Software
Vol. 6, No. 2, Mes Septiembre-Febrero, 2025
ISSN: 2708-0935
ag. 6-11
https://revistas.ulasalle.edu.pe/innosoft
Curaci´on de datos,Escritura, revisi´on y edici´on.Marcelino Torres Villanueva.
Referencias
[1] T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam,
G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh,
D. Ziegler, J. Wu, C. Winter, ..., and D. Amodei, “Language models are few-shot learners,” arXiv, 2020.
[Online]. Available: https://arxiv.org/abs/2005.14165
[2] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “Bert: Pre-training of deep bidirectional transformers
for language understanding,” arXiv, 2018. [Online]. Available: https://arxiv.org/abs/1810.04805
[3] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin,
“Attention is all you need,” arXiv, 2017. [Online]. Available: https://arxiv.org/abs/1706.03762
[4] T. Wolf, L. Debut, V. Sanh, J. Chaumond, C. Delangue, A. Moi, P. Cistac, T. Rault, R. Louf,
M. Funtowicz, and J. Brew, “Transformers: State-of-the-art natural language processing,” arXiv, 2020.
[Online]. Available: https://arxiv.org/abs/1910.03771
[5] C. Raffel, N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Y. Zhou, W. Li, and P. J. Liu,
“Exploring the limits of transfer learning with a unified text-to-text transformer,” Journal of Machine
Learning Research, vol. 21, pp. 1–67, 2020. [Online]. Available: https://arxiv.org/abs/1910.10683
[6] J. Wei, X. Wang, D. Schuurmans, M. Bosma, B. Ichter, F. Xia, E. H. Chi, Q. V. Le, and D. Zhou,
“Chain of thought prompting elicits reasoning in large language models,” arXiv, 2022. [Online]. Available:
https://arxiv.org/abs/2201.11903
[7] OpenAI, “GPT-4 technical report,” OpenAI, 2023. [Online]. Available: https://openai.com/research/gpt-4
Facultad de Ingenier´ıa
Universidad La Salle, Arequipa, Per´u
facin.innosoft@ulasalle.edu.pe
11