Mise à l'épreuve des théories de la productivité linguistique

 

Timothy O'Donnell

Université McGill

 

Domaine : langues et langage

Programme soutien à la recherche pour la relève professorale

Concours 2018-2019

Le potentiel créatif du langage naturel est sans doute sa propriété la plus connue. En effet, le langage nous permet d'exprimer un nombre illimité de pensées, d'émotions et d'expériences. L'un des fondements de ce potentiel créatif réside dans la capacité des locuteurs à créer de nouveaux mots en combinant des radicaux et des affixes existants (p. ex. le néologisme « truthiness » en anglais). Le phénomène qui consiste pour les locuteurs à pouvoir former de nouvelles expressions à partir d'un ensemble d'unités mises en mémoire et réutilisables s'appelle en linguistique la « productivité ».

Cependant, quelle que soit langue donnée, il existe beaucoup plus de racines, de préfixes et de suffixes potentiellement productifs que ceux qui sont réellement utilisés dans la langue parlée ou écrite – chacun d'eux générant de nombreuses possibilités logiques, mais fallacieuses, de former de nouvelles expressions. Par exemple, l'anglais comprend des suffixes hautement productifs et facilement généralisées (p. ex. -ness; « Lady-Gagaesqueness, » « pine-scentedness ») et des suffixes réutilisables dans des mots précis seulement et non généralisables (p. ex. -th; « truth, » « width, » « warmth »). Comment les locuteurs peuvent-ils déterminer que « truthiness » est un mot possible, mais pas « coolth »? Quelles unités sont généralisables? Quels sont les éléments fondamentaux gardés dans la mémoire?

Dans le cadre de travaux précédents, j'ai établi un cadre théorique conçu pour traiter ces questions (O'Donnell, 2009; O'Donnell, 2011; O'Donnell, 2015). L'approche repose sur l'idée que cette question peut être résolue en optimisant un échange probabiliste entre la pression de mettre en mémoire un plus petit nombre d'unités primitives plus réutilisables et la pression de constituer chaque expression linguistique de la manière la moins hasardeuse possible. Une autre vision de la productivité nous est fournie par le « principe de tolérance » de Charles Yang (Yang, 2005; Yang, 2010; Yang, 2016). Le principe de tolérance stipule qu'une unité sera productive lorsque sa productivité minimise en moyenne le temps requis pour traiter les formes contenant l'unité.

Jusqu'à aujourd'hui, mon cadre et le modèle de Yang ont principalement été appliqués pour expliquer différents phénomènes; par conséquent, les forces et les faiblesses relatives des deux théories demeurent inconnues. Le présent projet vise à éclaircir cette question en examinant de plus près les implications théoriques de ces deux modèles et en testant les prédictions avec de nouveaux ensembles de données. Je me concentrerai sur trois classes précises de phénomènes empiriques, pour lesquelles il a été allégué que les théories donnent des prédictions différentes. Ces classes sont les suivantes : i) les « généralisations multiples » qui consistent pour les locuteurs à produire parfois des formes multiples pour la même signification; ii) les « généralisations minoritaires » lorsque des formes peu fréquentes se généralisent productivement; iii) les « généralisations manquantes » lorsque certaines formes censées exister dans une langue semblent impossibles.