|
|
|
|
LEADER |
07088clm a2200685 4500 |
001 |
PPN254360238 |
003 |
http://www.sudoc.fr/254360238 |
005 |
20240917060000.0 |
029 |
|
|
|a FR
|b 2020ECDN0042
|
033 |
|
|
|a http://www.theses.fr/2020ECDN0042
|
035 |
|
|
|a (OCoLC)1243061147
|
035 |
|
|
|a STAR151535
|
100 |
|
|
|a 20210324d2020 k y0frey0103 ba
|
101 |
0 |
|
|a eng
|d fre
|d eng
|2 639-2
|
102 |
|
|
|a FR
|
105 |
|
|
|a ||||ma 00|yy
|
135 |
|
|
|a dr|||||||||||
|
181 |
|
|
|6 z01
|c txt
|2 rdacontent
|
181 |
|
1 |
|6 z01
|a i#
|b xxxe##
|
182 |
|
|
|6 z01
|c c
|2 rdamedia
|
182 |
|
1 |
|6 z01
|a b
|
183 |
|
1 |
|6 z01
|a ceb
|2 RDAfrCarrier
|
200 |
1 |
|
|a Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond
|f Félix Gontier
|g sous la direction de Jean-François Petiot et de Mathieu Lagrange et de Catherine Lavandier
|
214 |
|
1 |
|d 2020
|
230 |
|
|
|a Données textuelles
|
304 |
|
|
|a Titre provenant de l'écran-titre
|
314 |
|
|
|a Ecole(s) Doctorale(s) : École doctorale Sciences pour l'ingénieur (Nantes)
|
314 |
|
|
|a Partenaire(s) de recherche : Laboratoire des Sciences du Numérique de Nantes (Laboratoire)
|
314 |
|
|
|a Autre(s) contribution(s) : Catherine Marquis-Favre (Président du jury) ; Jean-François Petiot, Mathieu Lagrange, Catherine Lavandier, Catherine Marquis-Favre, Dick Botteldooren, Gaël Richard, Romain Serizel (Membre(s) du jury) ; Dick Botteldooren, Gaël Richard (Rapporteur(s))
|
328 |
|
0 |
|b Thèse de doctorat
|c Acoustique
|e Ecole centrale de Nantes
|d 2020
|
330 |
|
|
|a L'avènement de l'Internet des Objets (IoT) a permis le développement de réseaux de capteurs acoustiques à grande échelle, dans le but d'évaluer en continu les environnements sonores urbains. Dans l'approche de paysages sonores, les attributs perceptifs de qualité sonore sont liés à l'activité de sources, quantités d'importance pour mieux estimer la perception humaine des environnements sonores. Utilisées avec succès dans l'analyse de scènes sonores, les approches d'apprentissage profond sont particulièrement adaptées pour prédire ces quantités. Cependant, les annotations nécessaires au processus d'entraînement de modèles profonds ne peuvent pas être directement obtenues, en partie à cause des limitations dans l information enregistrée par les capteurs nécessaires pour assurer le respect de la vie privée. Pour répondre à ce problème, une méthode pour l'annotation automatique de l'activité des sources d'intérêt sur des scènes sonores simulées est proposée. Sur des données simulées, les modèles d'apprentissage profond développés atteignent des performances état de l'art pour l'estimation d'attributs perceptifs liés aux sources, ainsi que de l'agrément sonore. Des techniques d'apprentissage par transfert semisupervisé sont alors étudiées pour favoriser l'adaptabilité des modèles appris, en exploitant l'information contenue dans les grandes quantités de données enregistrées par les capteurs. Les évaluations sur des enregistrements réalisés in situ et annotés montrent qu'apprendre des représentations latentes des signaux audio compense en partie les défauts de validité écologique des scènes sonores simulées. Dans une seconde partie, l'utilisation de méthodes d'apprentissage profond est considérée pour la resynthèse de signaux temporels à partir de mesures capteur, sous contrainte de respect de la vie privée. Deux approches convolutionnelles sont développées et évaluées par rapport à des méthodes état de l'art pour la synthèse de parole.
|
330 |
|
|
|a The advent of the Internet of Things (IoT) has enabled the development of largescale acoustic sensor networks to continuously monitor sound environments in urban areas. In the soundscape approach, perceptual quality attributes are associated with the activity of sound sources, quantities of importance to better account for the human perception of its acoustic environment. With recent success in acoustic scene analysis, deep learning approaches are uniquely suited to predict these quantities. Though, annotations necessary to the training process of supervised deep learning models are not easily obtainable, partly due to the fact that the information content of sensor measurements is limited by privacy constraints. To address this issue, a method is proposed for the automatic annotation of perceived source activity in large datasets of simulated acoustic scenes. On simulated data, trained deep learning models achieve state-of-the-art performances in the estimation of sourcespecific perceptual attributes and sound pleasantness. Semi-supervised transfer learning techniques are further studied to improve the adaptability of trained models by exploiting knowledge from the large amounts of unlabelled sensor data. Evaluations on annotated in situ recordings show that learning latent audio representations of sensor measurements compensates for the limited ecological validity of simulated sound scenes. In a second part, the use of deep learning methods for the synthesis of time domain signals from privacy-aware sensor measurements is investigated. Two spectral convolutional approaches are developed and evaluated against state-of-the-art methods designed for speech synthesis.
|
337 |
|
|
|a Configuration requise : un logiciel capable de lire un fichier au format : PDF
|
541 |
| |
|
|a Analysis and synthesis of urban sound scenes using deep learning techniques
|z eng
|
606 |
|
|
|3 PPN027221687
|a Villes
|x Bruit
|2 rameau
|
606 |
|
|
|3 PPN223540633
|a Apprentissage profond
|2 rameau
|
606 |
|
|
|3 PPN027222004
|a Capteurs (technologie)
|2 rameau
|
608 |
|
|
|3 PPN027253139
|a Thèses et écrits académiques
|2 rameau
|
610 |
0 |
|
|a Paysages sonores
|
610 |
0 |
|
|a Réseaux de capteurs acoustiques
|
610 |
0 |
|
|a Perception de sources sonores
|
610 |
0 |
|
|a Synthèse sonore
|
686 |
|
|
|a 620
|2 TEF
|
700 |
|
1 |
|3 PPN254241344
|a Gontier
|b Félix
|f 1995-....
|4 070
|
701 |
|
1 |
|3 PPN066932815
|a Petiot
|b Jean-François
|f 19..-....
|c enseignant mécanique
|4 727
|4 555
|
701 |
|
1 |
|3 PPN083993339
|a Lagrange
|b Mathieu
|f 1978-....
|4 727
|4 555
|
701 |
|
1 |
|3 PPN139467238
|a Lavandier
|b Catherine
|f 19..-....
|4 727
|4 555
|
701 |
|
1 |
|3 PPN117490105
|a Marquis-Favre
|b Catherine
|f 19..-....
|c spécialiste en acoustique (INSA)
|4 956
|4 555
|
701 |
|
1 |
|3 PPN223539279
|a Botteldooren
|b Dick
|4 958
|4 555
|
701 |
|
1 |
|3 PPN094977208
|a Richard
|b Gaël
|f 19..-....
|c Professeur
|4 958
|4 555
|
711 |
0 |
2 |
|3 PPN03063525X
|a Centrale Nantes
|c 1991-....
|4 295
|
711 |
0 |
2 |
|3 PPN20476842X
|a Sciences de l'ingénierie et des systèmes
|c Nantes Université
|4 996
|
711 |
0 |
2 |
|3 PPN203637585
|a Laboratoire des Sciences du Numérique de Nantes
|4 981
|
801 |
|
3 |
|a FR
|b Abes
|c 20230323
|g AFNOR
|
856 |
4 |
|
|q PDF
|s 25972948
|u http://www.theses.fr/2020ECDN0042/document
|z Accès au texte intégral
|
856 |
4 |
|
|u http://www.theses.fr/2020ECDN0042/abes
|
856 |
4 |
|
|u https://tel.archives-ouvertes.fr/tel-03179093
|
930 |
|
|
|5 441092306:78135420X
|b 441092306
|j g
|
991 |
|
|
|5 441092306:78135420X
|a exemplaire créé automatiquement par STAR
|
998 |
|
|
|a 892270
|