Desde la sede de los históricos Nordisk Film, en Copenhague, Mathias Johansson transmite una mezcla de entusiasmo y serenidad tras la puesta de largo de los nuevos dispositivos. Vicepresidente del Laboratorio de Procesamiento de Señal e Inteligencia Aplicada de Harman, lidera un equipo que combina inteligencia artificial, acústica y tecnologías embebidas para rediseñar la forma en que escuchamos. Y es que en un momento en que la IA redefine industrias enteras, Johansson explica cómo también está transformando el mundo del audio, haciéndolo más intuitivo, personalizado y profundamente humano.

P.— ¿Cómo está cambiando la inteligencia artificial la forma en que Harman diseña sus productos de audio?

R.— Está cambiándolo todo de manera profunda. En Harman estamos viviendo una auténtica revolución basada en IA. Acabamos de concluir una nueva estrategia tecnológica en la que la inteligencia artificial es una parte integral de cada proceso. Nos permite entender muchísimo más: el contexto, el contenido y el entorno en el que un usuario escucha música. Gracias a ello, el sistema puede configurar automáticamente el sonido sin que la persona tenga que preocuparse por ajustes o parámetros técnicos. Pero también influye en el diseño físico de los altavoces. Con IA podemos explorar nuevos materiales, simular cómo se comportan y generar ideas antes de construir un prototipo real. La tecnología se convierte así en una herramienta creativa, no solo de automatización.

Al final, lo más importante es lo que ocurre para el usuario. Hasta ahora, cuando alguien compraba un altavoz , debía aprender a manejar menús, ecualizadores o aplicaciones. Eso está a punto de cambiar. Con la llegada de los modelos de lenguaje, la interacción será mucho más natural. Bastará con decirle al sistema “no escucho bien las voces” o “quiero más brillo en el sonido”, y este sabrá cómo corregirlo. Hemos incorporado el conocimiento de nuestros ingenieros de audio en esos modelos para que tomen decisiones técnicas complejas sin que el usuario tenga que saber de acústica. Es una gran transformación, y ya está en marcha.

P.— ¿Podría darnos un ejemplo concreto de cómo estos sistemas inteligentes mejoran la experiencia de escuchar música o ver una película?

R.— En realidad ya está ocurriendo. Un buen ejemplo es AI Sound Boost , una tecnología presente en varios productos de Harman. Lo que hace es monitorizar dinámicamente cómo se mueve el altavoz y cómo reacciona el aire en torno a él. A partir de esos datos, la IA puede adaptar el sonido en tiempo real, consiguiendo más graves de los que serían posibles con un altavoz de su tamaño. Analiza cuánta energía de graves puede soportar el dispositivo y qué nivel de intensidad tiene la canción o el contenido, para equilibrarlo todo de forma automática. Es algo que sucede sin que el usuario lo perciba, pero el resultado es un sonido más potente, nítido y coherente.

El siguiente paso será que el propio sistema gestione la configuración completa. En lugar de guiarte por una app o un manual, bastará con decirle “configura mi sistema”. El dispositivo podrá responderte: “He detectado otro altavoz JBL en la cocina, ¿quieres crear un sistema multiroom?” y lo hará todo por ti. Esa naturalidad es lo que buscamos: que la tecnología se sienta más humana, más intuitiva. La interfaz desaparecerá, y lo que quedará será una conversación fluida entre la persona y el sonido.

P.— ¿Qué papel conserva el elemento humano en un desarrollo tan automatizado como este?

R.— Un papel esencial. De hecho, nuestra investigación se apoya en la escucha humana más que nunca. En Harman contamos con uno de los mayores conjuntos de datos de escucha del mundo. Tenemos equipos de oyentes entrenados que evalúan distintos sistemas de audio, puntuando atributos como la espacialidad, el equilibrio del espectro o la claridad. En paralelo, medimos esos mismos sistemas con micrófonos y analizamos los resultados. A partir de ahí, correlacionamos la percepción humana con los datos técnicos y entrenamos modelos de IA capaces de predecir cómo valorará una persona el sonido de un determinado dispositivo. Es un puente entre la emoción y la ingeniería.

Pero hay algo que las mediciones no pueden captar, la manera en que percibimos el sonido. Por eso trabajamos con lo que llamamos modelado perceptual , que intenta replicar cómo funcionan nuestros oídos y nuestro cerebro al interpretar una escena sonora. Entender esa parte es crucial, porque al final no importa solo que un altavoz tenga buenas cifras en laboratorio, sino que el oyente sienta que suena bien. Por eso seguimos realizando miles de pruebas de escucha en laboratorios de todo el mundo, con personas de distintas edades, culturas y preferencias. Queremos saber si la percepción varía entre regiones o si ciertas características son universales. Es un proceso en constante evolución.

P.— En este punto, ¿cree que la IA puede llegar a sustituir la sensibilidad humana en el audio?

R.— No lo creo. La IA puede aprender del oído humano, pero no reemplazarlo. Lo que hace es amplificar nuestra capacidad para entender el sonido y adaptarlo a cada contexto. Si algo hemos aprendido, es que la emoción no se puede codificar del todo. Puedes medir la presión sonora o el rango de frecuencias, pero no cómo una canción te hace sentir. Por eso la tecnología debe estar al servicio de esa emoción, no al revés. Y creo que estamos en el mejor momento para lograrlo, la IA en sonido nos da herramientas poderosísimas, pero sigue necesitando el toque humano para saber hacia dónde ir.

P.— ¿Cómo imagina la relación entre los oyentes y la tecnología de audio en los próximos años?

R.— Lo más emocionante es que todo está ocurriendo muy rápido. En los últimos meses hemos visto avances impresionantes, y lo que viene será aún más inteligente y contextual. Los sistemas sabrán quién eres, dónde estás y cómo prefieres escuchar, ajustando el sonido a cada situación sin que tengas que pensarlo. Tal vez dentro de poco los altavoces hablen contigo para mejorar tu experiencia, y lo harán con naturalidad.

Estamos entrando en una etapa en la que la inteligencia artificial no sustituye al oído humano, sino que lo entiende mejor que nunca. La revolución de la IA en sonido no trata solo de máquinas más potentes, sino de hacer que cada nota, cada palabra y cada silencio se sientan más cercanos, más reales. Es un futuro en el que la tecnología aprende a escuchar como nosotros.