Desarrollo de una aplicación móvil interactiva para la prevención de la degradación auditiva

Caballero-Hernández, H.1* Muñoz-Jiménez, V.1 Ramos-Corchado, M. A.1
1 Facultad de Ingeniería, Universidad Autónoma del Estado de México, 50110, Toluca, Estado de México, México. Correo: hcaballeroh240@profesor.uaemex.mx; vmunozj@uaemex.mx; maramosc@uaemex.mx

Recibido: 10-mar-2025

Aceptado: 25-abr-2025

Disponible en línea: 30-ago-2025

*Correspondencia: hcaballeroh240@profesor.uaemex.mx


Actualmente, la población que está sometida a fuentes sonoras de gran intensidad, son propensas a deteriorar su capacidad auditiva irreversiblemente. Este problema de salud pública se ha intensificado debido al uso prolongado de dispositivos de audio personales, como auriculares, y a la vida en entornos urbanos ruidosos, afectando ya no solo a adultos mayores, sino también a poblaciones jóvenes. Este artículo presenta el desarrollo de una aplicación móvil interactiva diseñada para la prevención de la degradación auditiva mediante la adquisición y procesamiento de niveles de presión sonora en tiempo real. La herramienta se basa en tres partes principales: el análisis acústico de espacios para determinar niveles promedio y picos de ruido, la ejecución de pruebas de audición preventivas mediante tonos que oscilan entre los 250 Hz y 8000 Hz para determinar si existe algún problema de audición, y un módulo de transcripción de voz a texto para apoyar a personas con dificultades de comprensión. El sistema utiliza algoritmos basados en reglas para clasificar la exposición sonora en categorías de riesgo, basándose en umbrales de audición normal y diversos grados de hipoacusia. Las ventajas de esta aplicación móvil residen en la detección temprana de riesgos en entornos cotidianos, como oficinas o dormitorios, y la educación del usuario sobre límites tolerables.

Currently, people constantly exposed to high-intensity noise sources are prone to severe and irreversible hearing loss. This public health problem has intensified due to the prolonged use of personal audio devices, such as headphones, and living in noisy urban environments, affecting not only older adults but also younger populations. This article presents the development of an interactive mobile application designed to prevent hearing loss by getting and processing sound pressure levels in real time. The tool is based on three main components: acoustic analysis of spaces to find average and peak noise levels, preventive hearing tests using tones ranging from 250 Hz to 8000 Hz to decide if any hearing problems exist, and a speech-to-text transcription module to support people with comprehension difficulties. The system uses rule-based algorithms to classify noise exposure into risk categories, based on normal hearing thresholds and varying degrees of hearing loss. The advantages of this mobile application lie in the early detection of risks in everyday environments, such as offices or bedrooms, and in educating the user about tolerable limits.

¿Por qué es importante este tema?

El sentido de la audición para los seres humanos es uno de los más importantes, debido a que nos permite ubicarnos y desenvolvernos en diversos entornos para desarrollarnos en diversas actividades. Para poder percibir sonidos, en el ser humano este proceso se inicia cuando la aurícula captura las ondas sonoras y las dirige por el meato acústico externo hasta la membrana timpánica, la cual vibra y activa la cadena de huesecillos formada por el martillo, el incus y el estribo. Estas vibraciones mecánicas son amplificadas y empujadas hacia la cóclea, un órgano lleno de líquido donde se convierten en impulsos eléctricos que viajan a través del nervio coclear hasta el cerebro para ser interpretados como sonidos. Simultáneamente, los canales semicirculares supervisan el equilibrio y la trompa de Eustaquio regula la presión interna para que todo el sistema funcione correctamente [1]. En la Figura 1 se presenta un esquema del sistema auditivo humano, mientras que en la Tabla 1 se describen con mayor detalle las partes que componen este sistema.

Figura 1. Partes del sistema auditivo humano [2].
Descripción de las partes del sistema auditivo de un ser humano [3].
Partes del sistema auditivo Descripción
Aurícula (Pabellón auricular) La parte visible de la oreja que capta las ondas sonoras y las dirige hacia el canal auditivo.
Meato acústico externo Conducto que transporta el sonido desde el exterior hasta el tímpano.
Membrana timpánica (Tímpano) Membrana delgada que vibra cuando las ondas sonoras chocan con ella, marcando el inicio del oído medio.
Martillo (Malleus) El primero de los tres huesecillos; está conectado al tímpano y transmite las vibraciones al incus.
Incus (Yunque) Huesecillo intermedio que actúa como puente para transmitir las vibraciones hacia el estribo.
Estribo (Stapes) El hueso más pequeño del cuerpo; presiona contra la ventana oval para transmitir el sonido al oído interno.
Cóclea Estructura en forma de caracol que transforma las vibraciones mecánicas en impulsos nerviosos eléctricos.
Nervio coclear Transporta las señales eléctricas generadas en la cóclea directamente al cerebro para ser procesadas.
Canales semicirculares Estructuras encargadas de mantener el equilibrio y detectar la posición de la cabeza en el espacio.
Canal auditorio (trompa de Eustaquio) Conducto que comunica el oído medio con la faringe para equilibrar la presión del aire.

Cuando una persona tiene problemas de audición por la exposición a niveles altos de ruido o enfermedades empieza un proceso degradación auditiva. Aunque es una tendencia que afecta de manera más notable a adultos mayores de 50 años, el uso constante de audífonos y la vida en entornos urbanos ruidosos ha puesto en riesgo a poblaciones más jóvenes [4], [5], [6]. Cuando una persona empieza a sufrir perdida de la audición se le denomina hipoacusia, de la cual existen diversos niveles, como se muestra en la Tabla 2.

Niveles de capacidad auditiva según la percepción de decibelios (dB) [7].
Tipo de hipoacusia Capacidad auditiva
Audición normal Percibe sonidos por arriba de los 20 dB
Hipoacusia leve Percibe entre 26 y 40 dB; dificultad para entender el habla
Hipoacusia moderada Percibe entre 41 y 60 dB; requiere aparatos auditivos
Hipoacusia grave Percibe entre 61 y 80 dB; requiere prótesis o implantes
Hipoacusia profunda Rango superior a 81 dB

Generalmente, el desarrollo de la hipoacusia se debe al uso de dispositivos como audífonos por periodo prolongado y de manera constante, exposición a fuentes de ruido constante y enfermedades o medicamentos que afectan el sistema auditivo [8], [9], siendo unos de los desafíos actuales para ayudar a la población que sufre problemas de audición.

¿Qué sabíamos antes?

Tradicionalmente, la evaluación de la salud auditiva dependía de equipos comerciales costosos y procedimientos presenciales en centros especializados. Sin embargo, las soluciones actuales han evolucionado hacia la integración de tecnologías móviles y el análisis de factores individuales, como la edad y la memoria de trabajo, para entender la variabilidad en la respuesta de los usuarios al procesamiento de señales en audífonos. Los métodos convencionales de diagnóstico, como la otoscopía neumática manual o el cribado auditivo neonatal (NHS, por sus siglas en inglés) basado exclusivamente en infraestructura hospitalaria, presentaban barreras de acceso para poblaciones remotas. Aunque efectivos, estos enfoques carecían de la capacidad de monitoreo constante y automático que exigen los entornos urbanos ruidosos actuales. El avance tecnológico actual ha permitido una transición hacia el uso de sensores inteligentes y algoritmos avanzados que procesan datos en tiempo real. La implementación de Redes Neuronales Convolucionales (CNN) para analizar imágenes médicas y el uso de Redes Inalámbricas de Sensores Acústicos (WASNs) para el reconocimiento de eventos sonoros marcan un hito en la monitorización ambiental y clínica. Considerando lo anterior, existen diversos estudios que validan este cambio de paradigma como se presenta a continuación:

Diagnóstico asistido por IA: Byun et al. [10] lograron predecir la pérdida auditiva conductiva con una precisión del 94.1% mediante aprendizaje profundo aplicado a video otoscopía.

Reconocimiento acústico: Luo et al. [11] propusieron sistemas integrales para la monitorización de ruido urbano y eventos específicos como gritos o cláxones. Mientras que Souza et al. [12] investigaron cómo las características individuales (edad, memoria de trabajo y grado de pérdida auditiva) influyen en la respuesta de los usuarios al procesamiento de la señal en audífonos en entornos cotidianos.

Sistemas en tiempo real: Diehl [13] presentó un sistema de eliminación de ruido por deep learning que se ejecuta directamente en dispositivos móviles.

Descentralización (mHealth): Madzivhandila et al. [14] demostraron que dispositivos basados en smartphones para emisiones otoacústicas (hearOAE) tienen un rendimiento comparable a los equipos comerciales, validando su potencial para servicios de salud descentralizados.

Tomando en cuenta los avances actuales sobre la medición de la audición y la creciente crisis de salud en este contexto, se ha planteado la siguiente pregunta: ¿De qué manera puede la tecnología móvil actual servir como una herramienta accesible de cribado y análisis sonoro en diversos espacios para prevenir daños irreversibles en el sistema auditivo? Este artículo ofrece un panorama sobre el desarrollo de una aplicación interactiva que no solo adquiere niveles de presión sonora en tiempo real para educar al usuario sobre los umbrales tolerables, sino que también permite realizar pruebas de audición preventivas y utilizar funciones de voz a texto para mejorar la comunicación. Al integrar funciones de monitoreo ambiental y diagnóstico temprano, la propuesta busca descentralizar los servicios de salud auditiva y proporcionar un soporte vital para mejorar la calidad de vida de poblaciones vulnerables que sufren de diversos grados de hipoacusia.

¿Cómo funciona la nueva propuesta?

El sistema se basa en la creación de una herramienta capaz de realizar un análisis acústico de espacios mediante el procesamiento de señales capturadas directamente por los sensores del dispositivo móvil. La aplicación transforma la presión sonora del entorno en datos (decibelios) para evaluar la salud auditiva del usuario. Para la construcción de la propuesta se ha seguido la siguiente metodología presentada en la Figura 2.

Figura 2. Metodología para la construcción de la herramienta de análisis sonoro.

1) Análisis de espacios. En esta fase inicial se identificaron y caracterizaron los entornos cotidianos donde los usuarios pasan la mayor parte del tiempo (como dormitorios, oficinas y exteriores). Se determinaron los umbrales de ruido aceptables para cada escenario, estableciendo la línea base para que la aplicación pueda diferenciar entre un ambiente saludable y uno perjudicial.

2) Generación de la lógica de la aplicación. Se estructuró el sistema de reglas que permite procesar los datos capturados por el micrófono. En esta etapa se programaron los criterios de evaluación que comparan los decibelios en tiempo real con los estándares de salud auditiva y los diferentes grados de hipoacusia.

3) Codificación de la aplicación: Consiste en el desarrollo técnico y la implementación del software. Se integraron los tres módulos principales: el medidor de ruido (procesamiento de señales), la prueba de audición (reproducción de frecuencias de 250 Hz a 8000 Hz) y la herramienta de voz a texto (VaT) para accesibilidad. La arquitectura básica de la aplicación móvil se puede observar en la Figura 3.

Figura 3. Diagrama de la estructura lógica de la herramienta de análisis sonoro.

4) Pruebas de funcionamiento con usuarios: Se realizaron pruebas de campo para validar la precisión de la herramienta. En esta etapa se midieron niveles reales (en oficinas, dormitorios y exteriores) y se recolectó retroalimentación sobre la usabilidad de la interfaz y la claridad de las notificaciones preventivas.

5) Análisis de implementación de mejoras. Tras las pruebas, se analizaron los errores detectados y las sugerencias de los usuarios. Se ajustaron parámetros como la frecuencia de las notificaciones (configurables por el usuario) y se optimizó la respuesta del sistema ante picos de ruido elevados para garantizar alertas inmediatas y precisas.

6) Presentación final. Es la etapa de consolidación del proyecto, donde se verifica que la aplicación cumple con el objetivo de descentralizar el cribado auditivo. Se documentan los resultados finales, demostrando cómo la tecnología móvil puede actuar como un mecanismo preventivo eficaz para mejorar la calidad de vida y la salud auditiva.

Una vez que se ha codificado la aplicación para dispositivos móviles con sistema operativo Android 13 y puesto en ejecución, se han obtenido las funciones codificadas de la siguiente forma como se presentan en la Figura 4. La Figura 4 ilustra las funciones integradas en la App de Salud Auditiva, comenzando con el inicio de la App (inciso a), donde se despliega la interfaz principal que centraliza el acceso a los tres pilares fundamentales del sistema: el Test de Audición, el Medidor de Ruido y la función de Voz a Texto. Al navegar hacia la función de medición de ruido (inciso b), el usuario accede a una interfaz de adquisición de datos diseñada para capturar los niveles de presión sonora a través del micrófono, permitiendo además la selección de una ubicación específica para visualizar los decibelios en tiempo real. Por otro lado, la función voz a texto (VaT, inciso c) se presenta como una herramienta de accesibilidad esencial que transcribe conversaciones de manera inmediata, sirviendo de apoyo directo para personas que presentan dificultades de comprensión o discapacidad auditiva. Finalmente, el sistema incluye una sección dedicada a la configuración de notificaciones (inciso d), la cual permite personalizar la frecuencia de los recordatorios preventivos según las necesidades del usuario, facilitando así el seguimiento constante de la salud auditiva.

Figura 4. Funciones integradas a la App de Salud Auditiva.

A diferencia de los métodos tradicionales, esta herramienta ofrece:

Diagnóstico temprano. Permite detectar la pérdida de percepción en rangos críticos antes de que la hipoacusia se agrave.

Retroalimentación educativa. Alerta sobre riesgos inmediatos, como niveles pico de 90.27 dB en áreas de descanso, permitiendo acciones correctivas al instante.

Inclusión. La función de VaT actúa como un soporte de accesibilidad, permitiendo visualizar conversaciones en tiempo real para quienes ya presentan dificultades de comprensión.

Casos prácticos y aplicaciones

La aplicación desarrollada se ha probado en un dispositivo Xiaomi POCO M3 Pro 5G con sistema operativo Android 13, para analizar su desempeño en un entorno real y verificar el funcionamiento de las tres funciones básicas de la herramienta. Durante las pruebas de la aplicación sobre la medición de ruido se evaluaron diversos escenarios cotidianos con resultados específicos, como se muestra en la Figura 5:

Figura 5. Ejecución de las pruebas de análisis sonoro en distintos entornos.

Dormitorio (inciso a): Se registró un nivel promedio de 39.37 dB. Aunque se clasificó como tolerable, el sistema emitió una advertencia sobre el riesgo potencial para la calidad del sueño ante niveles pico de hasta 90.27 dB registrados en el mismo espacio.

Oficina (inciso b): Se detectó un nivel moderado de 45.14 dB con picos de 86.00 dB, concluyendo que es un ambiente apto para el trabajo prolongado.

Exterior (Calle, inciso c): Se midió un promedio de 56.05 dB, identificándolo como un entorno tranquilo para una ubicación urbana.

Los resultados del sistema para función de tonos se detallan en la Figura 6, la cual ilustra la ejecución secuencial del mecanismo de Test de Audición diseñado para evaluar la capacidad de percepción del usuario en rangos de frecuencia críticos. El proceso inicia con la Reproducción de tonos (inciso a), etapa en la que la aplicación emite una secuencia controlada de frecuencias que comienza en los 250 Hz y progresa paulatinamente. Durante este flujo, el usuario interactúa con la interfaz confirmando si percibe el sonido mediante los botones “Lo escuché” o “No lo escuché”. Al alcanzar la finalización de reproducción de tonos (inciso b), el software concluye la emisión tras haber recorrido el espectro sonoro hasta los 8000 Hz. La presentación de resultados (inciso c) despliega un análisis de audición detallado y genera un perfil de salud auditiva preliminar. En esta captura se observa una conclusión positiva que califica la audición como “muy saludable” e integra recomendaciones preventivas automáticas para que el usuario continúe protegiendo su sistema auditivo de exposiciones prolongadas a ruidos fuertes. Finalmente, la función VaT (inciso d) es probada para personas con dificultades de comprensión, permitiendo la visualización de conversaciones en tiempo real.

Figura 6. Ejecución de la función de tonos y de la función VaT.

¿Qué significa esto para ti?

La implementación de esta tecnología móvil representa un cambio significativo en la gestión del bienestar individual y colectivo. En el ámbito del impacto en la vida personal, la herramienta permite que cualquier usuario monitoree su entorno sonoro cotidiano y detecte de forma temprana si está perdiendo la capacidad de percibir sonidos en rangos críticos antes de que una hipoacusia se vuelva grave. Esto es altamente importante, debido a que la degradación auditiva es una tendencia creciente por el uso constante de auriculares y la vida en ciudades ruidosas, afectando no solo a adultos mayores de 50 años, sino también a poblaciones jóvenes.

En cuanto a las transformaciones sociales esperadas, esta tecnología tiene el potencial de descentralizar los servicios de cribado auditivo, eliminando la necesidad de infraestructura hospitalaria compleja para evaluaciones preliminares. Esto mejora directamente la calidad de vida en poblaciones vulnerables y fomenta una cultura de prevención y educación ambiental sobre los umbrales de ruido tolerables.

Asimismo, surgen oportunidades profesionales emergentes en el desarrollo de herramientas de apoyo a la discapacidad, como la función de VaT, que facilita la inclusión de personas con dificultades de comprensión al permitirles visualizar conversaciones en tiempo real. Finalmente, el despliegue de estas soluciones conlleva consideraciones éticas y desafíos importantes, principalmente enfocados en garantizar la precisión de los diagnósticos digitales y la responsabilidad de alertar sobre riesgos potenciales en espacios de descanso donde niveles pico de ruido (como 90.27 dB) pueden afectar la salud a largo plazo.

El futuro que nos espera

El futuro de la salud auditiva digital se encuentra en una etapa de transformación profunda, donde la investigación actual busca trascender los sistemas basados en reglas simples para dar paso a modelos avanzados de CNN capaces de identificar automáticamente diversas fuentes de ruido y eventos acústicos específicos. A corto plazo, se prevé la implementación de protocolos de audiometría clínica directamente en los dispositivos móviles, lo que permitirá ofrecer diagnósticos de alta precisión sin depender de una infraestructura hospitalaria compleja o centralizada.

Esta evolución facilitará una convergencia tecnológica sin precedentes, integrando el procesamiento de señales en tiempo real con herramientas de inteligencia artificial para la eliminación de ruido y la video otoscopía neumática automatizada. A largo plazo, la visión se centra en democratizar el acceso a la salud mediante tecnologías mHealth que mejoren la calidad de vida de poblaciones vulnerables a través de servicios de cribado auditivo totalmente descentralizados. No obstante, aún persisten obstáculos pendientes por superar, principalmente relacionados con la estandarización de los sensores de los smartphones frente a equipos de grado médico y la necesidad de validar estos sistemas en entornos cotidianos altamente variables para garantizar resultados clínicos confiables.

[1]
J. E. Hall and A. C. Guyton, Tratado de fisiología médica, 14th ed. España: Elsevier, 2021.
[2]
Stanford Medicine Children’s Health, “Otitis media (infección del oído medio).” Accessed: Jan. 03, 2026. [Online]. Available: https://www.stanfordchildrens.org/es/topic/default?id=otitis-media-infecci243n-del-o237do-medio-90-P05164
[3]
E. R. Kandel, J. D. Koester, S. H. Mack, and S. A. Siegelbaum, Principios de neurociencia, 6th ed. Madrid, España: McGraw-Hill, 2021, pp. 590–615.
[4]
L. C. Obregón, “Evidencias para la prevención de la pérdida auditiva inducida por ruido laboral,” Reporte, Repositorio Académico - UPCH, 2024.
[5]
A. Gomes de Macedo-Bacurau et al., “Deficiencia auditiva en población mayor de 55 años y su relación con las enfermedades crónicas y la salud percibida,” Revista de Salud Pública, vol. 97, no. 3, 2023.
[6]
World Health Organization, “World report on hearing,” WHO, Geneva, Switzerland, 2021. Accessed: Aug. 30, 2025. [Online]. Available: https://www.who.int/publications/i/item/9789240020481
[7]
L. E. Humes, “The world health organization’s hearing-impairment grading system: An evaluation for unaided communication in age-related hearing loss,” Int. J. Audiol., vol. 58, no. 1, pp. 12–20, 2019, doi: 10.1080/14992027.2018.1518598.
[8]
J. A. Sierra et al., “Salud auditiva y exposición a ruido ambiental en población de 18 a 64 años de bogotá, colombia, entre el 2014 y el 2018,” Revista de Salud Pública, vol. 44, no. 2, 2024.
[9]
K. S. Lastre Meza et al., “Análisis de correlación entre la audición y la flexibilidad cognitiva en una población adulta mayor de sincelejo, colombia,” Revista de la Facultad de Medicina, vol. 25, no. 47, 2022.
[10]
H. Byun et al., “Automatic prediction of conductive hearing loss from video pneumatic otoscopy using deep learning,” Ear Hear., vol. 43, no. 5, pp. 1563–1573, 2022, doi: 10.1097/AUD.0000000000001217.
[11]
L. Luo, H. Qin, X. Song, M. Wang, H. Qiu, and Z. Zhou, “Wireless sensor networks for noise measurement and acoustic event recognitions in urban environments,” Sensors, vol. 20, no. 7, p. 2093, 2020, doi: 10.3390/s20072093.
[12]
P. Souza, K. Arehart, T. Schoof, M. Anderson, D. Strori, and L. Balmert, “Understanding variability in individual response to hearing aid signal processing: Role of cognitive and auditory factors,” Ear Hear., vol. 40, no. 6, pp. 1280–1292, 2019, doi: 10.1097/AUD.0000000000000717.
[13]
P. U. Diehl et al., “Deep learning noise reduction system running in real time on a mobile phone and streamed to a hearing aid,” Front. Med. Eng., vol. 1, 2023, doi: 10.3389/fmede.2023.1281904.
[14]
A. G. Madzivhandila, T. le Roux, and L. B. de Jager, “Neonatal hearing screening using a smartphone-based otoacoustic emission device: A comparative study,” Int. J. Pediatr. Otorhinolaryngol., vol. 177, p. 111862, 2024, doi: 10.1016/j.ijporl.2024.11186.