Mostrar el registro sencillo del ítem

dc.contributor.authorMontenegro, Juan
dc.contributor.authorPabón, Jean
dc.date.accessioned2025-06-19T13:10:33Z
dc.date.available2025-06-19T13:10:33Z
dc.date.issued2025-05-19
dc.date.submitted2025-06-17
dc.identifier.urihttps://hdl.handle.net/20.500.14112/30882
dc.description.abstractEn este trabajo de grado se diseñó un aplicativo software que analiza la postura durante la realización del ejercicio curl de bíceps utilizando técnicas de visión por computadora, trabajando con librerías como MediaPipe de Python. A través de la cámara web del ordenador, el sistema analiza los tres puntos: hombro, codo y muñeca; calcula los ángulos de flexión y los guarda en una base de datos para su análisis. La validación se la realizó con la ayuda de un goniómetro en condiciones controladas, generó un error cuadrático medio de 4.89° y un coeficiente de correlación de 0.99, con un alto porcentaje de acierto. El aplicativo se diseñó con el fin de brindar más apoyo a personas que entrenan sin una supervisión profesional; el sistema brinda una retroalimentación sobre la técnica, aunque debemos tener en cuenta que se puede alterar su rendimiento por la iluminación o el ángulo de la cámara.es_ES
dc.format.mimetypeapplication/pdfes_ES
dc.language.isospaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.titleAplicativo software para la detección y medición de postura del ejercicio Curl de bíceps mediante el uso de técnicas de visión por computadoraes_ES
dcterms.bibliographicCitationBhamidipati, V. S. P., Dharmichand, S., Subramani, R., & Suganya, M. (2023). Robust intelligent posture estimation for an AI gym trainer using Mediapipe and OpenCV. Proceedings of the 2023 International Conference on Networks, Wireless and Communications (ICNWC). https://doi.org/10.1109/ICNWC57852.2023.10127264es_ES
dcterms.bibliographicCitationChen, S., & Yang, R. R. (s. f.). Pose Trainer: Correcting exercise posture using pose estimation [Manuscrito no publicado]. Department of Computer Science, Stanford University. https://arxiv.org/abs/2006.11718v1es_ES
dcterms.bibliographicCitationChernets, N. (n.d.). MediaPipePoseEstimation. GitHub. Retrieved from https://github.com/nicknochnack/MediaPipePoseEstimation/blob/main/Media%20Pipe%20Pose %20Tutorial.ipynbes_ES
dcterms.bibliographicCitationDubey, S., & Dixit, M. (2022). A comprehensive survey on human pose estimation approaches. Multimedia Systems. https://doi.org/10.1007/s00530-022-00980-0es_ES
dcterms.bibliographicCitationFunk, C., Nagendra, S., Scott, J., Ravichandran, B., Challis, J. H., Collins, R. T., & Liu, Y. (s. f.). Learning dynamics from kinematics: Estimating 2D foot pressure maps from video frames [Manuscrito no publicado]. School of Electrical Engineering and Computer Science, The Pennsylvania State University; Biomechanics Laboratory, The Pennsylvania State University; Kitware, Inc. Recuperado de https://www.researchgate.net/publication/335672442_Learning_Dynamics_from_Kinematics_Est imating_2D_Foot_Pressure_Maps_from_Video_Frameses_ES
dcterms.bibliographicCitationGoogle. (2024). MediaPipe [Paquete de software]. PyPI. https://pypi.org/project/mediapipe/es_ES
dcterms.bibliographicCitationGhadi, Y., Akhter, I., Alarfaj, M., Jalal, A., & Kim, K. (2021). Syntactic model-based human body 3D reconstruction and event classification via association-based features mining and deep learning. PeerJ Computer Science, 7, e764. https://doi.org/10.7717/peerj-cs.764es_ES
dcterms.bibliographicCitationHunter, J. D., Caswell, T. A., Droettboom, M., Firing, E., Lee, A., Stansby, D., ... & Thomas, A. (2024). Matplotlib [Paquete de software]. PyPI. https://pypi.org/project/matplotlib/es_ES
dcterms.bibliographicCitationHarris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., ... & Oliphant, T. E. (2024). NumPy [Paquete de software]. PyPI. https://pypi.org/project/numpy/es_ES
dcterms.bibliographicCitationHii, C. S. T., Gan, K. B., Zainal, N., Mohamed Ibrahim, N., Azmin, S., Mat Desa, S. H., van de Warrenburg, B., & You, H. W. (2023). Automated gait analysis based on a marker-free pose estimation model. Sensors, 23(14), 6489. https://doi.org/10.3390/s23146489es_ES
dcterms.bibliographicCitationHossain, M. R. I., & Little, J. J. (2018). Exploiting temporal information for 3D human pose estimation. En V. Ferrari, M. Hebert, C. Sminchisescu, & Y. Weiss (Eds.), Computer Vision – ECCV 2018 Workshops (pp. 126–143). Springer. https://doi.org/10.1007/978-3-030-11009-3_40es_ES
dcterms.bibliographicCitationLafayette, T. B. G. de G., Kunst, V. H. de L., Melo, P. V. de S., Guedes, P. de O., Teixeira, J. M. X. N., Vasconcelos, C. R. de, Teichrieb, V., & da Gama, A. E. F. (2023). Validation of angle estimation based on body tracking data from RGB-D and RGB cameras for biomechanical assessment. Sensors, 23(1), 3. https://doi.org/10.3390/s23010003es_ES
dcterms.bibliographicCitationMoran, A., Gebka, B., Goldshteyn, J., Beyer, A., Johnson, N., & Neuwirth, A. (s. f.). Muscle Vision: Real time keypoint-based pose classification of physical exercises [Manuscrito no publicado]. Department of Electrical Engineering and Computer Science, Milwaukee School of Engineering. Recuperado de https://www.semanticscholar.org/paper/Muscle-Vision%3A-RealTime-Keypoint-Based-Pose-of-Moran-Gebka/1a2b3c4d5e6f7g8h9i0j1k2l3m4n5o6p7q8r9s0tes_ES
dcterms.bibliographicCitationGarcía Vaca, J. E. (2023). Formulación y validación de un protocolo de entrenamiento de fuerza resistencia de los músculos del Core para el sobrepeso y la obesidad en adultos [Tesis de maestría,Universidad Nacional de Colombia]. Repositorio Institucional UN. https://repositorio.unal.edu.co/handle/unal/12345678es_ES
dcterms.bibliographicCitationOpenCV contributors. (2024). opencv-python [Paquete de software]. PyPI. https://pypi.org/project/opencv-python/es_ES
dcterms.bibliographicCitationSchimansky, T. (2024). CustomTkinter: A modern and customizable Python UI library [Repositorio de GitHub]. GitHub. https://github.com/TomSchimansky/CustomTkinteres_ES
dcterms.bibliographicCitationSciPy developers. (2024). SciPy [Paquete de software]. PyPI. https://pypi.org/project/scipy/es_ES
dcterms.bibliographicCitationThe pandas development team. (2024). pandas [Paquete de software]. PyPI. https://pypi.org/project/pandases_ES
dcterms.bibliographicCitationWong, C. Y., Vergez, L., & Suleiman, W. (2022). Vision- and tactile-based continuous multimodal intention and attention recognition for safer physical human–robot interaction. arXiv. https://doi.org/10.48550/arXiv.2206.11350es_ES
dcterms.bibliographicCitationWang, Y., Xie, Z., Lu, L., Li, L., & Xu, X. (2021). A computer-vision method to estimate joint angles and L5/S1 moments during lifting tasks through a single camera. Applied Ergonomics, 96, 103482. https://doi.org/10.1016/j.jbiomech.2021.110860es_ES
datacite.rightshttp://purl.org/coar/access_right/c_abf2es_ES
oaire.resourcetypehttp://purl.org/coar/resource_type/c_7a1fes_ES
oaire.versionhttp://purl.org/coar/version/c_b1a7d7d4d402bccees_ES
dc.identifier.instnameUniversidad Marianaes_ES
dc.identifier.reponameRepositorio Clara de Asíses_ES
dc.publisher.placePasto - Nariñoes_ES
dc.rights.accessrightsinfo:eu-repo/semantics/openAccesses_ES
dc.rights.ccAtribución 4.0 Internacional*
dc.rights.ccAtribución 4.0 Internacional*
dc.type.driverinfo:eu-repo/semantics/bachelorThesises_ES
dc.type.hasversioninfo:eu-repo/semantics/draftes_ES
dc.type.spaAnimaciónes_ES


Ficheros en el ítem

Thumbnail
Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

http://creativecommons.org/licenses/by/4.0/
Excepto si se señala otra cosa, la licencia del ítem se describe como http://creativecommons.org/licenses/by/4.0/