c’est ce que permettront bientôt les nouveaux écouteurs alimentés par l’IA

c’est ce que permettront bientôt les nouveaux écouteurs alimentés par l’IA
c’est ce que permettront bientôt les nouveaux écouteurs alimentés par l’IA

Atlantico : Quelles sont les spécificités de ces nouveaux écouteurs alimentés par l’IA ? Sont-ils dignes des films d’espionnage ?

Gilles Dounès : C’est une petite équipe de jeunes chercheurs, d’origine étrangère, de la Washington State University de Seattle qui ont réussi à développer un appareil couplé à un casque auditif supra-oral, basé sur l’intelligence artificielle, et qui permet d’isoler une conversation particulière dans un environnement bruyant.

Dans ce dispositif, deux microphones sont embarqués dans le casque, et lorsque le porteur regarde vers telle ou telle personne qui parle, l’algorithme d’intelligence artificielle isole en quelque sorte l’empreinte vocale de la personne ainsi « ciblée », au bout de quatre à cinq secondes. À partir de là, vous n’avez plus besoin de regarder la personne que vous souhaitez écouter et vous pouvez poursuivre la conversation côte à côte. Il existe cependant une marge d’erreur de 16° dans le choix de la source pertinente.

Il s’agit plus d’un démonstrateur, qui a d’ailleurs fait l’objet d’une communication, que d’un gadget sorti des laboratoires de Q, prêt à accompagner James Bond sur le terrain. L’appareil a été présenté le 14 mai à Honolulu, lors de la conférence ACM CHI sur les facteurs humains dans les systèmes informatiques. Le code source a également été mis à disposition de la communauté scientifique à cette occasion : il n’est pas impossible que l’on voie apparaître d’autres projets basés sur ce même concept… A moins que ce soit un service spécial de l’Etat ou une entreprise privée du secteur MILIPOL qui décide de prendre la relève…

« Target Speech Hearing » a été testé sur 21 personnes, et son efficacité augmente au fur et à mesure de son utilisation, une fois que le « target Speech Hearing » a été testé sur 21 personnes. » choisis et calibrés.

Il est déjà tout à fait possible d’obtenir ce type de résultats avec un microphone de type « canon », éventuellement avec une parabole, mais cela implique de suivre volontairement et en permanence la « cible » au fur et à mesure de sa progression. déplacements possibles. Là, c’est l’intelligence artificielle qui se « fixe » sur sa cible, en isolant les fréquences pertinentes du bruit environnant, embarquée « localement » sur un simple appareil électronique,

Il s’agit probablement d’une intelligence artificielle dite « étroite », entraînée à isoler un certain nombre d’éléments pertinents dans un ensemble « flou », de la même manière que des chercheurs chinois avaient réussi à entraîner une intelligence artificielle à détecter un cancer du poumon à un moment donné. très précoce sur les images d’imagerie médicale, il y a plusieurs années. Ici, l’intelligence artificielle, ou plutôt l’algorithme, est entraîné à simplement isoler ce qui lui paraît à la fois différent, et éventuellement cohérent.

Cette innovation pourrait-elle révolutionner les écouteurs et casques de demain ? Par exemple, la dernière édition des AirPods Pro d’Apple vous permet-elle d’ajuster automatiquement les niveaux sonores pour les utilisateurs en détectant le moment où ils sont en conversation ?

Le concept est extrêmement intéressant, et devrait probablement donner des idées à d’autres, d’autant que le système d’intelligence artificielle utilisé est suffisamment léger pour pouvoir fonctionner localement, dans un appareil électronique. Le prochain défi sera de développer une puce spécifique, de la miniaturiser suffisamment pour qu’elle rentre dans des écouteurs suffisamment discrets car intra-auriculaires. Deux solutions s’offrent à la petite équipe qui a également monté une start-up : soit tenter un lancement sur le marché un jour ou l’autre, lorsque le concept sera plus mature, soit se faire racheter par un poids lourd du secteur (ou qui aspire pour en devenir un). Il est probable que les 5 chercheurs aient déjà reçu des émissaires envoyés par Cupertino… mais pas que !

Le projet « Target Speech Hearing » fonctionne également de manière inverse, et donc complémentaire, aux AirPods actuels, qui isolent l’utilisateur à l’intérieur d’une bulle de réduction active du bruit. Mais c’est le même principe : contrôler l’environnement de l’utilisateur, afin d’améliorer son expérience.

Soit on présente plus d’informations, comme dans les lunettes de réalité augmentée par exemple.

Soit nous isolons l’information pertinente et la présentons de manière agrandie, en l’isolant en quelque sorte du contexte.

Dans le cas présent, on peut parler de réalité augmentée même s’il y a un bon isolement du reste de l’environnement : on peut parler de zoom auditif.

Dans le cas des AirPods, nous avons une sorte de « coupe-circuit » qui, de manière proactive, va en quelque sorte « couper » l’arrivée du son violent avant qu’il n’entre dans le circuit, et qui s’appuie sur la puce H1 ou H2, spécialement développée par Apple pour cela. Le système conçu par la Paul G. Allen School of Computer Science & Engineering est beaucoup plus artisanal, il s’agit d’un projet de recherche mené par une poignée de doctorants, mais, comme Apple, l’équipe travaille à miniaturiser son appareil, en passant à le format des écouteurs intra-auriculaires et avec le marché des aides auditives en perspective.

L’IA, grâce à une telle technologie de sélection sonore, pourrait-elle modifier la perception auditive de toute personne portant des écouteurs, en fonction de ses préférences ? Cela pourrait-il même contribuer à améliorer les aides auditives ?

C’est cette double perspective, de la réalité augmentée de l’aide auditive, qui est très intéressante dans cette avancée de la recherche. Par ailleurs, l’équipe a d’abord travaillé sur les chants d’oiseaux. Mais c’est au niveau des aides auditives que les perspectives semblent potentiellement les plus intéressantes, avec cette capacité des systèmes à se concentrer sur au moins un interlocuteur.

On retrouve en effet cette perte de discrimination de l’émetteur principal en environnement bruyant, aussi bien dans la perte progressive de l’acuité auditive liée à l’âge par exemple, ou à une infection. Mais c’est également le cas de la perte totale ou partielle de l’acuité auditive d’une oreille. Cette réduction de la sensation acoustique stéréo est également gênante, en obligeant, lors d’une conversation, à placer systématiquement l’interlocuteur du côté de sa « bonne » oreille. Ce type de progrès, surtout s’il est intégré aux écouteurs intra-auriculaires, peut représenter un progrès significatif et une autonomie bienvenue pour une partie croissante de la population.

 
For Latest Updates Follow us on Google News
 

PREV De nouvelles bactéries transmises par les tiques découvertes en Guyane
NEXT ChatGPT-5 effectuera certaines tâches au niveau d’un doctorant, selon OpenAI