MURCIA (EFE). La creación de bases de datos de sonidos de entornos industriales, como el portuario, supondrá "el oro y el petróleo del siglo XXI" porque permite entrenar algoritmos de inteligencia artificial que puedan, entre otras cosas, prevenir averías en la maquinaria.
Ese es el objetivo del proyecto Soroll-IA del Instituto Tecnológico de Informática (ITI), que forma parte de la Red de Institutos Tecnológicos de la Comunitat Valenciana (Redit) y que se enmarca en las investigaciones sobre 'machine listening' o aplicación de la inteligencia artificial a las señales de audio.
En el marco del proyecto se han instalado nodos de grabación instalados en el Puerto de València que recogen el sonido ambiente, un material que supone una mezcla sonora que se almacena en una plataforma digital y con la que, posteriormente, el ITI entrena a una inteligencia artificial para que pueda identificar los diferentes sonidos que se superponen en la mezcla.
Como explica en una entrevista con EFE el investigador principal del proyecto Soroll-IA, Pedro Zuccarello, la iniciativa, que cuenta con financiación Ivace-Feder, pretende dar respuesta en primer lugar a la escasez de bases de datos de sonido genérico, que es el que no incluye música ni voz.
“En el campo de la inteligencia artificial, lo primero que avanzó, y muy rápidamente, fueron los algoritmos que trabajan con imágenes, y eso es porque ya había grandes bases de datos preexistentes y etiquetadas de imágenes”, explica.
Esas bases de datos previas, en el caso de los sonidos, no están tan desarrolladas: “Todo el mundo sube fotos de su gato a las redes sociales y las llama ‘mi gato jugando con una pelota’, pero nadie sube un sonido y lo llama ‘así suena la puerta de mi coche cuando no funciona bien”.
Soroll-IA es “el primer paso” y ya trabaja en el puerto valenciano, que han escogido por ser “un entorno industrial pero también abierto”, algo “desafiante e interesante” porque permite que el entrenamiento de la IA sea de mejor calidad y le enseña a filtrar lo importante de lo accesorio.
En el entorno portuario, “el algoritmo recibe señales de lo que lo que se busca, es decir, sonidos industriales -maquinaria, ferrocarril, tránsito de camiones o de coches, buques, barcos- y además de otras cosas no buscadas -fauna, sobre todo aves, o agua-.
Esos sonidos son captados por nodos de grabación que funcionan con energía solar y transferidos a una plataforma de almacenamiento, donde pasan por algoritmos de preclasificación, desarrollados por universidades, equipos de investigación o empresas como Google y Facebook, que permiten hacer asequible un trabajo para el que “se necesitan muchas horas-hombre”.
El objetivo, asegura Zuccarello, en el sector industrial es mejorar las tareas de mantenimiento predictivo, es decir, no las que permiten solucionar una avería sino anticiparse a ella.
En el sonido puede haber pistas para esa anticipación: “Podemos analizar la deriva del sonido de una máquina, porque cuando trabaja bien hace un sonido y cuando está a punto de fallar hace otro diferente”.
Frente a las inteligencias artificiales más conocidas por el público general, las generativas, que crean imágenes o sonidos a partir de una petición del usuario, los algoritmos de Soroll-IA son “más de análisis que de generación” y tendrán especial importancia para las empresas con inversiones elevadas en maquinaria.
En el futuro, la idea es ir ampliando el material del que se nutre la inteligencia artificial de sonidos con otros sectores más allá del portuario.
Las potenciales aplicaciones no se limitan al mantenimiento predictivo, sino que la IA también puede ser útil para la identificación de fuentes de sonido en la industria.
“Cuando se habla de contaminación acústica normalmente se mide el nivel de presión sonora, pero eso no da información sobre la fuente del sonido”, indica Zuccarello. Pone como ejemplo el caso de una industria concreta muy contaminante acústicamente en la que pensaban que una carretera colindante era la fuente del ruido, pero cuando se analizaron las grabaciones "se vio que procedía de un perro que ladraba justo al lado del micrófono”.
Además, Soroll-IA puede ser útil para la identificación de escenas acústicas, una función importante, por ejemplo, en los coches autónomos en los que, al no haber conductor, “el audio puede llegar donde la visión no”. Por ejemplo, "si pasas junto a un parque infantil que no puedes ver, puedes saber que está ahí mediante el sonido y de este modo el coche puede adaptar la velocidad”.
El reconocimiento de sonidos por inteligencia artificial, asegura el investigador, ha despertado el interés de varias empresas, sobre todo del sector de los asistentes de voz y hogares conectados, puesto que su uso en tecnología como la que utiliza Alexa puede “reconocer sonidos de lo que está pasando y, por ejemplo, alertar de un bebé que llora” a los dueños de la casa.
No solo eso, sino que se usa ya en alarmas de seguridad para el hogar, que no solo incluyen en la instalación una cámara, sino también un micrófono para detectar intrusiones, por ejemplo, a raíz de sonidos como “un cristal que se rompe o un perro que ladra”.
También en el campo sanitario sus aplicaciones son diversas, y Zuccarello destaca el caso de los asistentes tecnológicos para personas sordas, dispositivos con inteligencia artificial que reconocen “el sonido del timbre o de un mensaje o llamada telefónica” y emiten una notificación que la persona puede leer en lugar de escuchar.
Hasta el campo de las biofábricas de insectos llegan las aplicaciones de este tipo de tecnología, según Zuccarello, que concluye que “todo lo que hace ruido puede usar estas IAs, y hasta los insectos hacen ruido”.
Puede observarse con cierto hastío la cantidad de eventos, jornadas, congresos y seminarios de todo tipo sobre inteligencia artificial (IA) a los que podríamos asistir, si no tuviéramos que lidiar con la todavía presencial y fatigosa vida real