El mundo de la Inteligencia Artificial en los audífonos se está expandiendo

Gracias a los continuos avances en tecnología, los audífonos continúan desarrollándose y cambiando, brindando a los usuarios mejores experiencias auditivas. Y uno de los factores que impulsa ese crecimiento es atribuible a la Inteligencia Artificial.

¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial (IA) está cada vez más presente en nuestro día a día transformando nuestro mundo. Utilizando términos simples, hace referencia a sistemas o máquinas que simulan las capacidades de los seres humanos, entre otras, el razonamiento, el aprendizaje, la deducción y las predicciones, para ofrecer soluciones inteligentes a problemas complejos de forma autónoma. 

Las áreas de aplicación de la IA son muchas, entre otras: educación, medicina, servicios financieros, atención al cliente, control de calidad y entretenimiento. 

¿A qué se denomina Red Neuronal Profunda?

La inteligencia artificial es un mundo en constante evolución que periódicamente sorprende con impactantes novedades. En la actualidad, el protocolo más sofisticado y avanzado que existe es el que se conoce como Red Neuronal Profunda (RNP), que permite la resolución de problemas inspirado en la estructura y comportamiento neuronal, y en las conexiones cerebrales. Su objetivo es responder a los estímulos de la misma manera que lo haría un cerebro humano, buscando la combinación de parámetros que mejor se ajusten a un problema determinado, sin necesidad de ser programado explícitamente para hacerlo.

En el mundo de la biología hay muchos ejemplos de Redes Neuronales Profundas. El Dr. en Audiología Douglas L. Beck, Vicepresidente de Ciencias Académicas de Oticon Inc., explica que en las Redes Neuronales Profundas dentro de un cerebro humano vivo no hay instrucciones prescritas o preimpresas. El cerebro humano recibe gran cantidad de datos entrantes (experiencia sensorial) y, con el tiempo, se produce el aprendizaje. Por ejemplo: un bebé accede a información sensorial de sus cinco sentidos durante aproximadamente un año y, sin instrucciones específicas, su cerebro se da cuenta y se involucra en los protocolos para comenzar a hablar. El éxito lo logra finalmente a través de sucesivas aproximaciones, correcciones, ediciones, comprobaciones y verificaciones cruzadas.

La aplicabilidad de las Redes Neuronales Profundas es muy extensa y tiene numerosos usos provechosos para nuestro día a día, siendo capaces de llevar a cabo diversas tareas que alguna vez fueron exclusivamente humanas, entre otras: el diseño de fármacos, el reconocimiento automático de imágenes o de voces utilizado por Google, la traducción de idiomas y el “motor de recomendación” de Netflix cuando sugiere una película o serie. También el abordaje de problemas científicos y de ingeniería, como los de robótica avanzada y los de fabricación y navegación espacial.

La inteligencia artificial hace avanzar a los audífonos

Si bien la IA en los audífonos se viene utilizando desde tiempo atrás y ha mejorado notoriamente la calidad de vida de infinidad de personas con deficiencia auditiva neurosensorial, aún hay otros individuos que informan dificultad para entender el habla en un entorno con múltiples hablantes o ruido de fondo significativo. 

En los últimos años la IA en los audífonos avanzó aún más con la incorporación de una Red Neuronal Profunda, que permite comenzar a imitar cómo el cerebro percibiría el sonido si la audición no estuviera afectada. De modo que hoy en día los dispositivos auditivos pueden escuchar el entorno y responder en consecuencia, adaptándose tanto a las necesidades auditivas de cada persona, como a los variados entornos de ruido de fondo en los que podría estar. 

Desafortunadamente, y debido a su alto costo, este tipo de IA solo está disponible en audífonos de gama alta. Es de esperar que en un futuro no muy lejano llegue a ser estándar en todos los dispositivos auditivos.

Una familia de audífonos con Red Neuronal Profunda Integrada 

La familia de audífonos Oticon More™ utiliza las capacidades inteligentes de una Red Neuronal Profunda (RNP) en su chip Polaris. Esta red neuronal fue entrenada con más de 12 millones de escenas sonoras de la vida real a efectos de diferenciar el habla de otros sonidos en diferentes ambientes; pero también para distinguir unos sonidos de otros con el fin de que el audífono pueda ofrecer en cada situación el mejor contraste entre habla y ruido, sin sacrificar la información contenida en todo el espacio sonoro. Su objetivo es ofrecer al cerebro acceso a toda la escena sonora para que pueda concentrarse en aquello que sea de su interés, que no siempre es el habla o está situado frente al usuario de audífonos.

Pero ¿cómo se introdujeron los 12 millones de escenas sonoras en los audífonos More? Con un micrófono esférico de 360º se grabaron todos los sonidos de esas situaciones del mundo real, y se usaron para entrenar a la RNP.

Una investigación reciente utilizó electroencefalogramas de 64 canales para comprobar la actividad de la corteza cerebral al participar de una reunión con múltiples interlocutores y en un ambiente ruidoso. El estudio incluyó a 31 usuarios de audífonos experimentados (edad media 65 años) con pérdida auditiva neurosensorial de leve a moderada. La prueba demostró que en una conversación con múltiples interlocutores y en ambiente ruidoso generado por otras conversaciones, la RNP hizo que la escena sonora completa fuese un 40% más clara en su representación cerebral, y al compararlo con otro modelo avanzado del mismo fabricante, mejoró en un 30%. La consecuencia práctica y lo que el usuario percibe, es que tanto el interlocutor al que presta atención, como el habla de las otras personas que participan en la conversación, tienen una mayor representación cerebral y, por ende, es más asequible el intercambio comunicativo en presencia de ruido y la participación en reuniones sociales. Más específicamente, quedó demostrado que las Redes Neuronales Profundas brindan procesamiento de sonido en tiempo real, mayor calidad de sonido, comprensión más clara del habla en ruido y mejora de la atención selectiva. Los usuarios tienen más acceso a la escena sonora completa, lo que les permite concentrarse mejor en los sonidos que eligen en primer plano, sin perder el acceso a los sonidos de fondo significativos.

La clave para los avances en el rendimiento de los audífonos proviene del desarrollo de algoritmos y softwares. Las Redes Neuronales Profundas están transformando la industria de los audífonos y proporcionando beneficios excepcionales en la automatización del habla y reducción de ruido, ofreciendo personalización basada en el entorno del usuario. 

Fuentes

Abishek Umashankar, Anusha MN and Pachaiappan CJournal of Hearing Science. Applications of Artificial Intelligence in Hearing Aids and Auditory Implants: a short review”. J Hear Sci 2021;11(3):20–23 

Beck DL, McLeod D. Talking to Patients about Deep Neural Networks in Hearing Aids.  Hear. prof.  2021; p48-57+59

Beck DL. Hearing, listening and deep neural networks in hearing aids. J Otolaryngol ENT Res. 2021;13(1):5?8. DOI: 10.15406/joentr.2021.13.00481 

Bramsløw L, Beck DL. Deep neural networks in hearing devices. Hearing Review. 2021;28(1):28-30.

Burry M. Hearing aids with artificial intelligence. Healthy Hearing – January 25, 2021

Oticon. Audífonos e inteligencia artificial. Revista GacetaAUDIO .31 enero 2022

Oticon. Oticon More. Revista GacetaAUDIO. 31 enero 2022