arrow drop search cross

Grand colloque de l'Académie 5 "Speech Variation"

Workshop Series in Cognitive Science


17/01/2020   :   09h00 ▸ 18/01/2020   :   14h00
MSHS, Nice
Publication : 17/01/2020
Partager cet article :

Co-financé par l'Axe 1 (SCiences Cognitives & Computation) de la MSHS et l'Académie 5, ce colloque intitulé "Speech Variation : Impact on perception and comprehension" est organisé par Fanny Meunier, Directrice du laboratoire BCL.

Le programme sera visible très prochainement. 

Dans le monde réel, nous entendons un discours qui s'écarte souvent de la prononciation standard. C'est la première difficulté de la parole: chaque production est unique. Les dictionnaires donnent les formes canoniques des mots, mais dans la parole connectée, la prononciation de ces mots varie beaucoup (les prononciations avec moins de segments ou de syllabes, par exemple, sont fréquentes dans de nombreuses langues). En français, par exemple, de nombreux mots ont une prise schwa par exemple / médecin / qui n’est pas produite (par exemple, / méd’cin /). La prononciation de nombreux mots dépend également souvent de contraintes contextuelles. Par exemple, en français, comme dans de nombreuses langues, les sons finaux peuvent être produits différemment selon les propriétés phonologiques du mot suivant; Par exemple, sac / sak / «sac» est en train d'être réalisé comme [sag] dans le sac de graines «sac de graines» à cause de l'assimilation vocale. De plus, la variabilité des productions de la parole comprend également des facteurs concernant le locuteur, tels que son dialecte, son sexe, sa langue maternelle, son âge, sa stature physique mais également le taux de parole, le style de parole et l'état émotionnel. L'acquisition du langage et les interactions sociales, pour réussir, nécessitent la capacité de compenser cette variabilité importante. Il est particulièrement impressionnant que malgré la longue chaîne de processus impliqués, le traitement de la parole atteigne fréquemment son objectif: le message est compris. La robustesse de la perception de la parole et du traitement du langage face à la variabilité acoustique est un casse-tête central pour l'étude de la perception et de la modélisation de la parole. Cependant, très peu a été fait pour évaluer l'impact de cette variabilité sur la compréhension.

Comment une telle variabilité de la production de la parole module-t-elle la perception et encore plus la compréhension?

L'atelier propose d'aborder cette question du point de vue des sciences cognitives.

Au cours du siècle dernier, l'étude du langage a été menée sous l'influence de propositions théoriques très fortes comme le structuralisme (porté par Jakobson et Saussure par exemple) et la modularité de l'esprit (porté par Fodor). Ces cadres ont encouragé l'étude du traitement du langage indépendamment des autres domaines cognitifs ou capacités sensorielles. Récemment cependant, une approche plus intégrée de la langue est apparue. En tant que fonction cognitive hautement intégrée, la compréhension de la parole repose en effet sur une chaîne d'étapes de traitement interconnectées qui commence par un codage auditif, utilise des informations lexicales et sémantiques stockées en mémoire et culmine avec la compréhension du message. En fin de compte, le succès de toute la procédure dépend du succès de chaque étape, potentiellement à l'aide de mécanismes de compensation entre les différentes étapes.

Au cours de cet atelier, nous aimerions réunir des chercheurs pour aborder ce problème en explorant différentes distorsions de la parole sous différentes perspectives. Notre objectif est de promouvoir l'interaction et la collaboration future sur ce sujet très fructueux en sciences cognitives ouvrant les portes à d'autres domaines tels que la modélisation et l'ingénierie où il pose de réels défis.

 

Contact : Fanny Meunier – fanny.meunier@unice.fr

Invités

  • Martin Cooke, Language and Speech Laboratory, University of the Basque Country, ES.http://www.laslab.org/martin/
  • Katie Drager, Department of Linguistics, University of Hawai, Mānoa. https://www.researchgate.net/profile/Katie_Drager
  • Sophie Dufour, CNRS, Laboratoire, Parole et Langage P, Aix en Provence. http://www.lpl-aix.fr/contact/sophie-dufour
  • Bronwen Evans, Speech, Hearing & Phonetic Sciences, UCL, London, UK.https://www.ucl.ac.uk/pals/people/bronwen-evans
  • Michel Hoen, Oticon Medical, Vallauris.https://www.researchgate.net/profile/Michel_Hoen
  • Sven Mattys, Department of Psychology, University of York, UK.https://www.york.ac.uk/psychology/staff/academicstaff/svenmattys
  • James McQueen, Radboud University Nijmegen, NL.https://www.mpi.nl/people/mcqueen-james
  • Julien Meyer, CNRS, Gipsa Lab, Grenoble.http://www.gipsa-lab.grenoble-inp.fr/page_pro.php?vid=2481
  • Arthur Samuel, Cognitive Science, Psychology, Stony Brook University, USA & Basque Center on Cognition, ES.https://www.stonybrook.edu/commcms/psychology/faculty/faculty_profiles/asamuel
  • Odette Scharenborg, Multimedia Computing Group, Delft University of Technology, NL.https://www.tudelft.nl/ewi/over-de-faculteit/afdelingen/intelligent-systems/multimedia-computing/people/odette-scharenborg/

 

Appel et inscription

Nous acceptons les soumissions pour les présentations d'affiches (max. Une page de texte et une page de support tels que graphiques, exemples, références), à envoyer à fanny.meunier@unice.fr.

Aucun frais n'est facturé pour la participation, mais l'inscription est requise pour assurer une bonne organisation. Merci d'envoyer un mail à fanny.meunier@unice.fr pour vous inscrire.

L'atelier débutera à 9h00 le 17 janvier et se terminera à 11h30 le 18.