Coordonnées

Faculté de droit, Avenue du doyen Louis Trotabas, 06050 Nice

Tél
+33 4 93 65 37 98
Fax
+33 4 93 65 37 98
Mail
Julie.CHARPENET@univ-cotedazur.fr

Discipline(s)

Droit, économie et gestion > Droit privé et sciences criminelles

Discipline(s) enseignée(s)

Enseignements : 
Droit du numérique
: IA et droit, droit de la protection des données, introduction aux enjeux juridiques des Deep Tech (de la blockchain à l'IA), justice et algorithmes 
Droit des affaires : Droit économique, droit bancaire, droit des sociétés, fusions et acquisitions de société 
Droit civil : Droit des contrats, droit de la responsabilité extracontractuelle, introduction au droit privé

Activités pédagogiques complémentaires : 
- Coordination de la clinique du droit du numérique FabLex 
- Organisation et encadrement d'étudiants lors d'hackathons 
- Organisation d'écoles d'été du projet Deep Law for Tech (DL4T) 
- Coordination d'équipes de Travaux dirigés 
- Jury de mémoires 

Thèmes de recherche

Recherches personnelles : Mes recherches portent essentiellement sur la façon dont les pouvoirs privés numériques et leurs technologies sous-jacentes renouvellent l'exercice des droits fondamentaux. En miroir, il s'agit également de comprendre et d'interroger les pouvoirs à l'oeuvre dans leur régulation. 

Recherches collectives et interdisciplinaires : Membre du Groupement de Recherche en Economie, Droit, et Gestion (GREDEG), membre du projet Deep Law for Tech (DL4T) et membre de l'Institut Interdisciplinaire d'Intelligence artificielle (3IA Côte d'Azur) 

Recherches internationales : Membres de plusieurs projets de recherches internationaux sur les enjeux juridiques de l'IA et du quantique (AJC, G3, FEDEN) 

Activités / CV

Informations complémentaires

Titre de la thèse: La modération des contenus en ligne. Essai sur une régulation de la conversation mondiale. 
Directrice de thèse : Marina TELLER
Date de soutenance : 13 décembre 2022 

Résumé - Dans un mouvement d’accélération du droit, les textes visant la régulation des contenus illicites ont récemment proliféré aux fins de préserver la société de ses maux. Ces instruments renforcent les obligations des entreprises de réseaux sociaux en les intégrant dans l’arsenal juridique de la lutte contre la diffusion de contenus à caractère terroriste, haineux ou pédopornographique. Néanmoins, ces dispositifs ont été adoptés de façon éparse et, souvent, divergente, voire contradictoire. Dans le même temps, les entreprises de réseaux sociaux s’arrogent contractuellement des prérogatives visant à définir ce qui peut être dit, su, vu ou lu et ce, par-delà les seuls contenus strictement illicites. En dépit des préoccupations, sinon des inquiétudes, que les pratiques de modération suscitent au regard de la limitation indue de la liberté d’expression de milliards d’utilisateurs, la modération des contenus per se semblait échapper à la vigilance des législateurs. L’appréhension juridique de la modération des contenus en ligne a, pourtant, le potentiel de la cohérence. Elle apparait, en effet, comme l’outil fonctionnel de la régulation des contenus en ligne aux mains d’entreprises commerciales. Le législateur européen s’est finalement saisi de l’activité de modération pour elle-même. Ce faisant, il opère un passage d’une règlementation de la modération des contenus illicites à une règlementation per se de la modération des contenus qu’il convient d’envisager en miroir d’une appréhension pratique des fonctions de la modération.

Abstract - In a movement of acceleration of the law, the texts aiming at the regulation of illicit contents have recently proliferated in order to preserve society from its ills. These instruments reinforce the obligations of social network companies by integrating them into the legal arsenal of the fight against the dissemination of terrorist, hateful or child pornographic content. Nevertheless, these measures have been adopted in a scattered and often divergent, even contradictory, manner. At the same time, social network companies have contractually arrogated to themselves prerogatives aimed at defining what can be said, known, seen or read, and this, beyond strictly illicit content. Despite the concerns, if not the worries, that moderation practices raise with regard to the undue limitation of the freedom of expression of billions of users, the moderation of content per se seemed to escape the vigilance of legislators. The legal apprehension of online content moderation has, however, the potential of coherence. It appears, in fact, as the functional tool of online content regulation in the hands of commercial companies. The European legislator has finally seized the activity of moderation for its own sake. In doing so, it has moved from regulating the moderation of illegal content to regulating the moderation of content per se, which should be considered in the context of a practical understanding of the functions of moderation.

Financements : 
1er financement : contrat doctoral (GREDEG) 
2d financement : contrat doctoral (3IA Côte d'Azur)