La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje  
automático y sus aplicaciones  
Artificial Intelligence in Computer Science: A Focus on Machine Learning and Its  
Applications  
Gelsy Alfonso Rodríguez1 (gelsy@unica.cu) (https://orcid.org/0000-0003-0498-9752)  
0571-7513)  
Resumen  
La inteligencia artificial es un campo amplio que se refiere al uso de tecnologías para  
crear máquinas y computadoras que pueden imitar funciones cognitivas asociadas con  
la inteligencia humana, como la capacidad de ver, entender el lenguaje hablado o  
escrito y responder a él, analizar datos, hacer recomendaciones y mucho más, ha  
revolucionado la informática en las últimas décadas, permitiendo a las máquinas  
aprender y mejorar su rendimiento en tareas específicas. La utilización de diferentes  
métodos del nivel teórico y empírico para el análisis de la información reveló la  
necesidad de su desarrollo sistemático en el proceso formativo, en tanto el estudiante y  
docentes fomentan una cultura de trabajo basada en el conocimiento y uso del soporte  
tecnológico que apoye los procesos de búsqueda, revisión, procesamiento y  
socialización de la información en formato digital. El objetivo de este artículo es reflejar  
el concepto de aprendizaje automático y sus aplicaciones en la informática. Se  
presentan ejemplos de cómo la inteligencia artificial se utiliza en áreas como el  
reconocimiento de patrones, la clasificación de datos y la toma de decisiones. Además,  
se discuten los desafíos y oportunidades que plantea esta en la informática y se  
presentan conclusiones sobre su impacto en el futuro, fomentando una cultura de  
trabajo basada en su conocimiento y uso, que assegura el beneficio de su potencial  
para todos los actores del proceso de enseñanza-aprendizaje.  
Palabras clave: Inteligencia Artificial, aprendizaje automático, informática, tecnologías.  
Abstract  
Artificial intelligence is a broad field that refers to the use of technologies to create  
machines and computers that can mimic cognitive functions associated with human  
intelligence, such as the ability to see, understand spoken or written language and  
1 Máster en Ciencias de la Educación. Licenciada en Educación, Especialidad Lengua Inglesa. Profesor Auxiliar.  
Filial Universitaria Municipal Baraguá. Ciego de Ávila. Cuba.  
2 Máster en Ciencias de la Educación Superior. Licenciada en Educación Especialidad Informática. Profesor Auxiliar.  
Universidad de Cuito Cuanavale. Angola.  
3 Mestre em Ciências da Educação: Administração Educacional. Licenciado em Ensino de Matemática. Professor  
Auxiliar. Universidade de Cuito Cuanavale. Angola.  
Página 40  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
respond to it, analyze data, make recommendations, and much more. It has  
revolutionized computing in recent decades, allowing machines to learn and improve  
their performance in specific tasks. The use of different theoretical and empirical  
methods for information analysis revealed the need for its systematic development in the  
educational process, as students and teachers foster a work culture based on  
knowledge and the use of technological support that aids in the processes of searching,  
reviewing, processing, and sharing information in digital format. The objective of this  
article is to reflect on the concept of machine learning and its applications in computer  
science. Examples are presented of how artificial intelligence is used in areas such as  
pattern recognition, data classification, and decision-making. In addition, the challenges  
and opportunities it poses in computer science are discussed, and conclusions are  
presented on its impact in the future, promoting a work culture based on its knowledge  
and use, which ensures the benefit of its potential for all actors in the teaching-learning  
process.  
Key words: Artificial intelligence, machine learning, computer science, technologies.  
Introducción  
La inteligencia artificial (IA) es un campo de la informática que se enfoca en el  
desarrollo de sistemas capaces de realizar tareas que normalmente requieren  
inteligencia humana, como el aprendizaje, la resolución de problemas y la toma de  
decisiones. En las últimas décadas, la IA ha avanzado significativamente, gracias al  
desarrollo de algoritmos y técnicas de aprendizaje automático. Estos avances han  
permitido a las máquinas aprender de los datos y mejorar su rendimiento en tareas  
específicas.  
“La Inteligencia Artificial, pese a la polémica que suscita, está pisando fuerte y tiene la  
capacidad de introducir cambios fundamentales en casi todas las industrias” (Ryan,  
2020). Las ciudades pueden volverse más inteligentes, será habitual que escaneen tu  
rostro por motivos de seguridad e incluso de ocio, y hasta la asistencia médica  
cambiará por completo. Pero, ¿y los pequeños y medianos empresarios? ¿Crees que  
esto no afectará a su ámbito de trabajo? (Villaseca y González, 2023) menciona que “la  
Inteligencia Artificial se define como el desarrollo tecnológico que dota a las máquinas  
de la capacidad para aprender de su entorno y sin ayuda externa, ampliando de esa  
forma sus servicios” (p.12).  
De acuerdo con lo planteado por Rao y Verweij (2017) plantean una interesante  
definición y clasificación, define que la IA es un término colectivo para los sistemas  
informáticos que pueden detectar su entorno, pensar, aprender y actuar en respuesta a  
lo que perciben y sus objetivos; y los clasifica en: inteligencia automatizada que es la  
automatización de tareas manuales / cognitivas y rutinarias / no rutinarias; la inteligencia  
asistida que consiste en ayudar a las personas a realizar tareas más rápido y mejor; la  
inteligencia aumentada que ayuda a las personas a tomar mejores decisiones y la  
inteligencia autónoma que consta de la automatización de los procesos de toma de  
decisiones sin intervención humana.  
Página 41  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
Mientras la informática proporciona las bases (hardware, algoritmos, software), la IA  
aplica estas herramientas para simular capacidades humanas como el aprendizaje, el  
razonamiento y la toma de decisiones. Ambas están intrínsecamente conectadas; la  
informática posibilita la IA, y la IA impulsa la innovación en el campo de la informática.  
IA pode ser compreendida como um sistema de tecnologia capaz de aportar inteligência  
nas atividades desempenhadas em áreas cada vez mais vastas, analisando e  
decifrando dados externos, para, a partir dos conhecimentos adquiridos, alcançar metas  
e ações específicas (Di Vaio, 2020).  
El objetivo del artículo consiste en reflejar el concepto de aprendizaje automático y sus  
aplicaciones en la informática.  
Desarrollo  
Fundamentos del Aprendizaje Automático  
El aprendizaje automático está presente en la vida cotidiana con sus diversas  
aplicaciones; desde la recomendación de una serie de televisión hasta la predicción del  
tiempo de viaje de transporte. El aprendizaje automático corresponde a una rama de la  
inteligencia artificial que permite la extracción de patrones significativos a partir de un  
conjunto de datos. La inteligencia artificial es un término general para referirse a los  
sistemas informáticos que imitan la inteligencia humana.  
El aprendizaje automático es un subconjunto de inteligencia artificial que le permite a  
una máquina o un sistema aprender y mejorar de forma automática a partir de la  
experiencia. En lugar de una programación explícita, dicho aprendizaje usa algoritmos  
para analizar grandes cantidades de datos, aprender de las estadísticas y tomar  
decisiones fundamentadas. Asimismo, implica permitir que las computadoras aprendan  
sin que alguien tenga que programarlas. De esta manera, la máquina realiza el  
aprendizaje, recopila sus propios datos pertinentes en lugar de que otra persona tenga  
que hacerlo.  
El aprendizaje automático desempeña un papel central en el desarrollo de  
la inteligencia artificial (IA), el aprendizaje profundo y las redes neuronales, todo lo cual  
involucra las capacidades de reconocimiento de patrones del aprendizaje automático.  
Según Díaz-Ramírez (2021), la Inteligencia Artificial, Aprendizaje Automático y el  
Aprendizaje Profundo están en una etapa de constante crecimiento, serán seguramente  
los ejes principales para el desarrollo de la ciencia de la computación y la humanidad  
donde estarán fundidas, no sólo hardware y software, sino también varias tecnologías,  
tales como nanotecnología, computación cuántica, automatización, entre otras. Así, la  
creación de nuevo conocimiento en torno a la Inteligencia Artificial ya sea de máquinas  
inteligentes, nuevos algoritmos, aprendizaje automático, aprendizaje profundo, entre  
otras, serán herramientas para acelerar la transición hacia una economía circular,  
donde se pueda diseñar productos y modelos de negocios circulares.  
Enfoque de aprendizaje automático  
Página 42  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
Es importante destacar también lo planteado por Aracena et al (2022), en torno a que el  
aprendizaje automático está presente en la vida cotidiana con sus diversas aplicaciones;  
desde la recomendación de una serie de televisión hasta la predicción del tiempo de  
viaje de transporte. Dicho aprendizaje es un subcampo de la IA que se enfoca en el  
desarrollo de algoritmos y modelos que permiten a las máquinas aprender de los datos  
y mejorar su rendimiento en tareas específicas. Pueden ser supervisados o de refuerzo,  
dependiendo del tipo de datos y la tarea que se desee realizar, refiriendo que dos  
importantes enfoques de aprendizaje que ayudan a comprender los tipos de  
aplicaciones existentes son el aprendizaje supervisado y no supervisado:  
Aprendizaje supervisado: se utiliza para entrenar modelos que puedan predecir  
resultados basados en datos etiquetados. Por ejemplo, si se quiere predecir si un  
cliente comprará un producto o no, se puede entrenar un modelo con datos de  
clientes que han comprado o no el producto.  
Aprendizaje no supervisado: se utiliza para identificar patrones y estructuras en  
datos no etiquetados. Por ejemplo, si se quiere identificar grupos de clientes con  
comportamientos similares, se puede utilizar un algoritmo de clustering.  
Aprendizaje por refuerzo: se utiliza para entrenar modelos que puedan tomar  
decisiones basadas en recompensas o castigos. Por ejemplo, si se quiere  
entrenar a un robot para que navegue por un laberinto, se puede utilizar un  
algoritmo de aprendizaje por refuerzo que le proporcione recompensas por  
avanzar y castigos por chocar con obstáculos.  
Aplicaciones de la Inteligencia Artificial  
La IA se utiliza en diversas áreas de la informática, como:  
Reconocimiento de patrones: la IA se utiliza para reconocer patrones en datos,  
como imágenes, audio y texto. Por ejemplo, los sistemas de reconocimiento  
facial utilizan IA para identificar a las personas en imágenes y videos.  
Clasificación de datos: la IA se utiliza para clasificar datos en categorías, como  
spam/no spam en correos electrónicos. Los sistemas de clasificación de texto  
utilizan IA para determinar si un texto es positivo, negativo o neutral.  
Toma de decisiones: la IA se utiliza para tomar decisiones basadas en datos,  
como la aprobación de créditos. Los sistemas de evaluación de crédito utilizan IA  
para determinar la solvencia crediticia de un cliente.  
Según Goyal et al (2020, como se citó en Erazo-Luzuriaga et al, 2023) la optimización  
de programas informáticos es un campo en constante evolución, y la inteligencia  
artificial (IA) ha emergido como una herramienta valiosa para lograr mejores resultados,  
como una herramienta valiosa para lograr mejores resultados. La IA se refiere al  
desarrollo de algoritmos y sistemas que pueden realizar tareas que normalmente  
requerirían inteligencia humana, como el aprendizaje automático y la toma de  
decisiones. La IA se define como el desarrollo de algoritmos y sistemas capaces de  
Página 43  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
realizar tareas que normalmente requerirían inteligencia humana, como el aprendizaje  
automático y la toma de decisiones. Esta definición permite una mejor comprensión de  
cómo la IA puede ser aplicada a la optimización de programas informáticos.  
Bakshi & Agrawal (2019), plantean que, a pesar de los avances en el campo de la IA,  
todavía existen problemas y desafíos que deben abordarse para mejorar la eficiencia y  
efectividad de los programas informáticos. Uno de los mayores desafíos es la  
complejidad de los programas informáticos modernos, que pueden ser enormes y  
contener millones de líneas de código. Esta complejidad puede conducir a problemas  
de rendimiento y consumo de recursos, lo que a su vez puede afectar la experiencia del  
usuario y la eficacia del programa.  
Es importante destacar lo planteado por Figueroa et al (2023) con respecto a la  
asimilación y dominio de estas tecnologías en relación con la gestión de información,  
deben contribuir a la transformación del sujeto en su formación con un adecuado  
avance de los procesos en que se asimilen, que aseguren la base para enfrentar el  
proceso de gestión de la información y el conocimiento al ejercer la profesión en la  
organización empresa, institución o entidad donde se desempeña. Ello es premisa para  
su actuación profesional.  
Desafíos y oportunidades de la IA en la informática  
La IA plantea varios desafíos y oportunidades en la informática, como:  
Privacidad y seguridad: la IA requiere la recopilación y análisis de grandes  
cantidades de datos, lo que plantea preocupaciones sobre la privacidad y  
seguridad.  
Transparencia y explicabilidad: la IA puede ser difícil de entender y explicar, lo  
que plantea desafíos para la transparencia y la responsabilidad.  
Impacto en el empleo: la IA puede automatizar tareas y empleos, lo que plantea  
desafíos para la sociedad y la economía.  
Oportunidades  
1. Automatización de tareas: La IA puede automatizar tareas repetitivas y tediosas,  
liberando a los desarrolladores para enfocarse en tareas más complejas y  
creativas.  
2. Análisis de datos: La IA puede analizar grandes cantidades de datos para  
identificar patrones, tendencias y anomalías, lo que puede ayudar a las  
empresas a tomar decisiones informadas.  
3. Mejora de la seguridad: La IA puede detectar y prevenir amenazas de seguridad,  
como malware y ataques cibernéticos, protegiendo la información y los sistemas  
de las empresas.  
Página 44  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
4. Desarrollo de aplicaciones inteligentes: La IA puede permitir el desarrollo de  
aplicaciones más inteligentes y personalizadas, que puedan aprender y  
adaptarse a las necesidades de los usuarios.  
5. Optimización de procesos: La IA puede optimizar procesos y sistemas,  
mejorando la eficiencia y reduciendo costos.  
6. Asistentes virtuales: La IA puede permitir la creación de asistentes virtuales que  
puedan interactuar con los usuarios y proporcionarles información y ayuda.  
7. Análisis predictivo: La IA puede analizar datos históricos y predecir resultados  
futuros, lo que puede ayudar a las empresas a anticiparse a problemas y  
oportunidades.  
8. Mejora de la experiencia del usuario: La IA puede permitir la creación de  
experiencias de usuario más personalizadas y atractivas, lo que puede mejorar la  
satisfacción y la lealtad de los clientes.  
Conclusiones  
La inteligencia artificial (IA) se está aplicando cada vez más a la optimización de  
programas informáticos, y esto está dando lugar a importantes mejoras en el  
rendimiento y la eficiencia de los mismos. Al utilizar técnicas de aprendizaje automático  
y otros métodos de IA, se pueden identificar patrones y optimizar procesos de manera  
que no podrían hacerse de forma manual. Uno de los principales beneficios de la IA  
aplicada a la optimización de programas informáticos es que permite a los  
desarrolladores y programadores enfocarse en tareas más complejas y creativas.  
La IA ha revolucionado la informática, permitiendo a las máquinas aprender y mejorar  
su rendimiento en tareas específicas. El aprendizaje automático es un subcampo clave  
de la IA que se enfoca en el desarrollo de algoritmos y técnicas que permiten a las  
máquinas aprender de los datos. La IA se utiliza en diversas áreas de la informática,  
como el reconocimiento de patrones, la clasificación de datos y la toma de decisiones. A  
medida que la IA sigue avanzando, es importante abordar los desafíos y oportunidades  
que plantea y garantizar que se utilice de manera responsable y ética.  
Referencias bibliográficas  
Aracena, C., Villena, F., Arias, F. & Dunstan, J. (2022). Aplicaciones de aprendizaje  
Bakshi, S. & Agrawal, S. (2019). Evolution of software engineering through machine  
learning and artificial intelligence. In 2019 IEEE 5th International Conference for  
Convergence  
in  
Technology  
(I2CT),  
1-4.  
Página 45  
La Inteligencia Artificial en la Informática: un enfoque en el aprendizaje automático y sus aplicaciones  
Gelsy Alfonso Rodríguez  
Anyeli Figueroa García  
Armando Sangueve Sachitota  
Volumen: 17  
Número: Especial 3  
Año: 2025  
Recepción: 17/10/2025  
Aprobado: 30/11/2025  
Artículo de revisión  
Comisión Europea. (2023). Estrategia europea en materia de inteligencia artificial.  
Di Vaio (2020). Assunta et al Artificial Intelligence and Business Models in the  
Sustainable Development Goals Perspective:  
Review. Journal of Business Research,  
A
Systematic Literature  
121, 283-314.  
Díaz-Ramírez, J. (2021). Aprendizaje Automático y Aprendizaje Profundo. Revista  
chilena  
de  
ingeniería,  
29(2),  
182-183.  
Erazo-Luzuriaga, A. F., Ramos-Secaira, F. M., Galarza-Sánchez, P. C. & Boné-Andrade,  
M. F. (2023). La inteligencia artificial aplicada a la optimización de programas  
informáticos. Journal of Economic and Social Science Research, 3(1).  
Figueroa, A., Alfonso, G. & Cruz, Y. (2023). El proceso de formación profesional del  
docente  
en  
la  
carrera  
de  
Educación.  
Opuntia  
Brava,  
15(2).  
Rao, A. S. & Verweij, G. (2017). PWC. Sizing the prize. ¿What’s the real value of AI for  
your business and how can you capitalise?  
Ryan, C. (2020). Civilizados hasta la muerte. Capitán Swing Libros.  
Turing, A. (1950). Computting Machinery and intelligence. Mind 49: 433-460  
Villaseca, D. & González, S. (2023). De Silicon Valley a tu negocio: Innovación, data e  
inteligencia artificial. Alpha Editorial.  
Conflicto de intereses: No existe conflicto de intereses entre los autores.  
Contribución de los autores: Gelsy Alfonso Rodríguez 60%, Anyeli Figueroa García 20% y Armando Sangueve  
Sachitota 20%.  
Página 46