Miami, FL, jueves 28 de marzo de 2024.
Los investigadores explican que enfermedades cerebrovasculares y neurodegenerativas como el accidente cerebrovascular, el Parkinson, el Alzheimer, la parálisis cerebral o la esclerosis lateral amiotrófica (ELA) pueden detectarse y controlarse utilizando patrones no semánticos del habla, como la articulación y la fonación.
Cuando usted va a una cita médica, lo más natural es que le diga a su doctor qué es lo que le está doliendo. Con base en ese relato, el doctor seguramente, y después de una revisión, le va a ordenar exámenes o recetar medicamentos. Pero, ¿se ha puesto a pensar que otros sonidos que hace su cuerpo pueden decir mucho más de su salud que lo que usted cree? Los médicos ya de por sí escuchan, por ejemplo, la tos, para diagnosticar la tos ferina o la respiración para detectar eventos cardiovasculares agudos. ¿Y si a esa capacidad le sumamos lo que puede hacer la inteligencia artificial? Una nueva investigación publicada hace poco (y que aún no ha sido revisada por pares) propone que hay dispositivos tecnológicos como celulares que captan una serie de sonidos que podrían ser usados por los trabajadores de la salud y por la IA para la detección temprana de algunas enfermedades.
Los investigadores explican que enfermedades cerebrovasculares y neurodegenerativas como el accidente cerebrovascular, el Parkinson, el Alzheimer, la parálisis cerebral o la esclerosis lateral amiotrófica (ELA) pueden detectarse y controlarse utilizando patrones no semánticos del habla, como la articulación, la resonancia y la fonación. Es lo que en el artículo los expertos llaman “acústica sanitaria” o audiómica.
Para demostrar esa capacidad, los científicos presentan HeAR: Health Acoustic Representations, un sistema autosupervisado basado en aprendizaje generativo entrenado en un gran conjunto de datos de clips de audio de dos segundos de duración para aprender representaciones de baja dimensión que pueden transferir bien a través de tareas acústicas de salud. Ese sistema abarca 13 tareas de detección de eventos acústicos de salud, 14 tareas de inferencia de tos y 6 tareas de inferencia de espirometría (una prueba médica utilizada para evaluar la función pulmonar de una persona). HeAR es un sistema que hace varias cosas importantes. Primero, limpia y arregla los datos de audio, como detectar sonidos relacionados con la salud. Segundo, entrena un modelo especial para convertir ese audio en un formato que se pueda usar en otras tareas.
Para entrenar el modelo, los investigadores usaron un conjunto de datos llamado YT-NS, que tiene clips de audio de dos segundos de duración tomados de tres mil millones de videos de YouTube que son públicos. Esto dio alrededor de 174,000 horas de audio en total. Luego, evaluaron el desempeño de la app en dos temas: detectar eventos de sonido relacionados con la salud y detectar tos en el audio.
Los científicos lograron demostrar la capacidad del sistema en, por ejemplo, la clasificación de la tuberculosis a partir de los ruidos de la tos. En una escala donde 0,5 significa que un modelo no es mejor que una predicción al azar, y 1 significa que el modelo hace predicciones precisas todo el tiempo, HeAR logró una puntuación de 0,645 y 0,710 para la detección de covid-19. “Existe un inmenso potencial no solo para el diagnóstico, sino también para la detección” le dijo a Nature, Yael Bensoussan, laringóloga de la Universidad del Sur de Florida. Y agregó: “No podemos repetir exploraciones o biopsias todas las semanas. Por eso la voz se convierte en un biomarcador realmente importante para el seguimiento de enfermedades”.
Fuente: EL ESPECTADOR