Mostrar el registro sencillo del ítem
Aplicativo software para la detección y medición de postura del ejercicio Curl de bíceps mediante el uso de técnicas de visión por computadora
dc.contributor.author | Montenegro, Juan | |
dc.contributor.author | Pabón, Jean | |
dc.date.accessioned | 2025-06-19T13:10:33Z | |
dc.date.available | 2025-06-19T13:10:33Z | |
dc.date.issued | 2025-05-19 | |
dc.date.submitted | 2025-06-17 | |
dc.identifier.uri | https://hdl.handle.net/20.500.14112/30882 | |
dc.description.abstract | En este trabajo de grado se diseñó un aplicativo software que analiza la postura durante la realización del ejercicio curl de bíceps utilizando técnicas de visión por computadora, trabajando con librerías como MediaPipe de Python. A través de la cámara web del ordenador, el sistema analiza los tres puntos: hombro, codo y muñeca; calcula los ángulos de flexión y los guarda en una base de datos para su análisis. La validación se la realizó con la ayuda de un goniómetro en condiciones controladas, generó un error cuadrático medio de 4.89° y un coeficiente de correlación de 0.99, con un alto porcentaje de acierto. El aplicativo se diseñó con el fin de brindar más apoyo a personas que entrenan sin una supervisión profesional; el sistema brinda una retroalimentación sobre la técnica, aunque debemos tener en cuenta que se puede alterar su rendimiento por la iluminación o el ángulo de la cámara. | es_ES |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | spa | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by/4.0/ | * |
dc.title | Aplicativo software para la detección y medición de postura del ejercicio Curl de bíceps mediante el uso de técnicas de visión por computadora | es_ES |
dcterms.bibliographicCitation | Bhamidipati, V. S. P., Dharmichand, S., Subramani, R., & Suganya, M. (2023). Robust intelligent posture estimation for an AI gym trainer using Mediapipe and OpenCV. Proceedings of the 2023 International Conference on Networks, Wireless and Communications (ICNWC). https://doi.org/10.1109/ICNWC57852.2023.10127264 | es_ES |
dcterms.bibliographicCitation | Chen, S., & Yang, R. R. (s. f.). Pose Trainer: Correcting exercise posture using pose estimation [Manuscrito no publicado]. Department of Computer Science, Stanford University. https://arxiv.org/abs/2006.11718v1 | es_ES |
dcterms.bibliographicCitation | Chernets, N. (n.d.). MediaPipePoseEstimation. GitHub. Retrieved from https://github.com/nicknochnack/MediaPipePoseEstimation/blob/main/Media%20Pipe%20Pose %20Tutorial.ipynb | es_ES |
dcterms.bibliographicCitation | Dubey, S., & Dixit, M. (2022). A comprehensive survey on human pose estimation approaches. Multimedia Systems. https://doi.org/10.1007/s00530-022-00980-0 | es_ES |
dcterms.bibliographicCitation | Funk, C., Nagendra, S., Scott, J., Ravichandran, B., Challis, J. H., Collins, R. T., & Liu, Y. (s. f.). Learning dynamics from kinematics: Estimating 2D foot pressure maps from video frames [Manuscrito no publicado]. School of Electrical Engineering and Computer Science, The Pennsylvania State University; Biomechanics Laboratory, The Pennsylvania State University; Kitware, Inc. Recuperado de https://www.researchgate.net/publication/335672442_Learning_Dynamics_from_Kinematics_Est imating_2D_Foot_Pressure_Maps_from_Video_Frames | es_ES |
dcterms.bibliographicCitation | Google. (2024). MediaPipe [Paquete de software]. PyPI. https://pypi.org/project/mediapipe/ | es_ES |
dcterms.bibliographicCitation | Ghadi, Y., Akhter, I., Alarfaj, M., Jalal, A., & Kim, K. (2021). Syntactic model-based human body 3D reconstruction and event classification via association-based features mining and deep learning. PeerJ Computer Science, 7, e764. https://doi.org/10.7717/peerj-cs.764 | es_ES |
dcterms.bibliographicCitation | Hunter, J. D., Caswell, T. A., Droettboom, M., Firing, E., Lee, A., Stansby, D., ... & Thomas, A. (2024). Matplotlib [Paquete de software]. PyPI. https://pypi.org/project/matplotlib/ | es_ES |
dcterms.bibliographicCitation | Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., ... & Oliphant, T. E. (2024). NumPy [Paquete de software]. PyPI. https://pypi.org/project/numpy/ | es_ES |
dcterms.bibliographicCitation | Hii, C. S. T., Gan, K. B., Zainal, N., Mohamed Ibrahim, N., Azmin, S., Mat Desa, S. H., van de Warrenburg, B., & You, H. W. (2023). Automated gait analysis based on a marker-free pose estimation model. Sensors, 23(14), 6489. https://doi.org/10.3390/s23146489 | es_ES |
dcterms.bibliographicCitation | Hossain, M. R. I., & Little, J. J. (2018). Exploiting temporal information for 3D human pose estimation. En V. Ferrari, M. Hebert, C. Sminchisescu, & Y. Weiss (Eds.), Computer Vision – ECCV 2018 Workshops (pp. 126–143). Springer. https://doi.org/10.1007/978-3-030-11009-3_40 | es_ES |
dcterms.bibliographicCitation | Lafayette, T. B. G. de G., Kunst, V. H. de L., Melo, P. V. de S., Guedes, P. de O., Teixeira, J. M. X. N., Vasconcelos, C. R. de, Teichrieb, V., & da Gama, A. E. F. (2023). Validation of angle estimation based on body tracking data from RGB-D and RGB cameras for biomechanical assessment. Sensors, 23(1), 3. https://doi.org/10.3390/s23010003 | es_ES |
dcterms.bibliographicCitation | Moran, A., Gebka, B., Goldshteyn, J., Beyer, A., Johnson, N., & Neuwirth, A. (s. f.). Muscle Vision: Real time keypoint-based pose classification of physical exercises [Manuscrito no publicado]. Department of Electrical Engineering and Computer Science, Milwaukee School of Engineering. Recuperado de https://www.semanticscholar.org/paper/Muscle-Vision%3A-RealTime-Keypoint-Based-Pose-of-Moran-Gebka/1a2b3c4d5e6f7g8h9i0j1k2l3m4n5o6p7q8r9s0t | es_ES |
dcterms.bibliographicCitation | García Vaca, J. E. (2023). Formulación y validación de un protocolo de entrenamiento de fuerza resistencia de los músculos del Core para el sobrepeso y la obesidad en adultos [Tesis de maestría,Universidad Nacional de Colombia]. Repositorio Institucional UN. https://repositorio.unal.edu.co/handle/unal/12345678 | es_ES |
dcterms.bibliographicCitation | OpenCV contributors. (2024). opencv-python [Paquete de software]. PyPI. https://pypi.org/project/opencv-python/ | es_ES |
dcterms.bibliographicCitation | Schimansky, T. (2024). CustomTkinter: A modern and customizable Python UI library [Repositorio de GitHub]. GitHub. https://github.com/TomSchimansky/CustomTkinter | es_ES |
dcterms.bibliographicCitation | SciPy developers. (2024). SciPy [Paquete de software]. PyPI. https://pypi.org/project/scipy/ | es_ES |
dcterms.bibliographicCitation | The pandas development team. (2024). pandas [Paquete de software]. PyPI. https://pypi.org/project/pandas | es_ES |
dcterms.bibliographicCitation | Wong, C. Y., Vergez, L., & Suleiman, W. (2022). Vision- and tactile-based continuous multimodal intention and attention recognition for safer physical human–robot interaction. arXiv. https://doi.org/10.48550/arXiv.2206.11350 | es_ES |
dcterms.bibliographicCitation | Wang, Y., Xie, Z., Lu, L., Li, L., & Xu, X. (2021). A computer-vision method to estimate joint angles and L5/S1 moments during lifting tasks through a single camera. Applied Ergonomics, 96, 103482. https://doi.org/10.1016/j.jbiomech.2021.110860 | es_ES |
datacite.rights | http://purl.org/coar/access_right/c_abf2 | es_ES |
oaire.resourcetype | http://purl.org/coar/resource_type/c_7a1f | es_ES |
oaire.version | http://purl.org/coar/version/c_b1a7d7d4d402bcce | es_ES |
dc.identifier.instname | Universidad Mariana | es_ES |
dc.identifier.reponame | Repositorio Clara de Asís | es_ES |
dc.publisher.place | Pasto - Nariño | es_ES |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | es_ES |
dc.rights.cc | Atribución 4.0 Internacional | * |
dc.rights.cc | Atribución 4.0 Internacional | * |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | es_ES |
dc.type.hasversion | info:eu-repo/semantics/draft | es_ES |
dc.type.spa | Animación | es_ES |