EFELIA Côte d'Azur
Précédemment dans VOILA!
- Saison 1
-
Par : Paola Tubaro, CNRS et ENSAETitre : "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela"
Résumé : le travail joue un rôle majeur, bien que largement méconnu, dans le développement de l'intelligence artificielle (IA). Les algorithmes d'apprentissage automatique reposent sur des processus à forte intensité de données qui font appel à des humains pour exécuter des tâches répétitives et difficiles à automatiser, et pourtant essentielles, telles que l'étiquetage d'images, le tri d'éléments dans des listes et la transcription de fichiers audio. Des réseaux de sous-traitants recrutent des "travailleurs de la donnée" pour exécuter ces tâches, souvent dans des pays à faible revenu où les marchés du travail stagnent et l'économie informelle domine. Nous regarderons de plus près les conditions de travail et les profils des travailleurs et travailleuses de la donnée au Brésil, au Venezuela, à Madagascar et, comme exemple d'un pays plus riche, en France.
Les chaînes d'approvisionnement mondialisées qui relient ces travailleurs et travailleuses aux principaux sites de production de l'IA prolongent les dépendances économiques de l'époque coloniale et renforcent les inégalités héritées du passé.Bio : Paola Tubaro est Directrice de Recherche au CNRS et professeure à l’ENSAE. Economiste de formation tournée sociologue, elle mène des recherches interdisciplinaires au croisement des sciences sociales, de l’analyse des réseaux et de l'informatique. Elle étudie actuellement la place du travail humain dans les réseaux mondiaux de production de l'intelligence artificielle, les inégalités sociales dans le travail sur les plateformes numériques, et les mécanismes sociaux de production et diffusion de la désinformation en ligne. Elle a aussi publié dans les domaines des méthodes et de l'éthique des données et de la recherche.
Déroulé : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et travail, et sera animée Léonie Blaszyk-Niedergang, doctorante en droit à UniCA, et Gérald Gaglio, professeur de sociologie à UniCA. La présentation de Pr. Tubaro et la table ronde qui suivra seront en français ; les diapositives seront en anglais.
Replay de la conférence "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela" disponible sur notre chaîne YouTube.
> 18 avril 2024, 16h-18h : IA et éthiquePar : Giada Pistilli, Éthicienne principale, Hugging Face
Titre : "Explorer les dimensions éthiques des grands modèles de langage à travers les langues"
Résumé : cet exposé présente l'étude des implications éthiques des grands modèles linguistiques (LLM) dans plusieurs langues, fondée sur les concepts philosophiques de l'éthique et de l'éthique appliquée. En utilisant une analyse comparative de LLM ouverts et fermés avec des invites sur des questions sensibles traduites dans plusieurs langues, l'étude utilise des méthodes qualitatives comme l'analyse thématique et l'analyse de contenu pour examiner les résultats des LLM pour des considérations éthiques, en particulier en regardant les cas où les modèles refusent de répondre ou déclenchent des filtres de contenu. En outre, les principaux domaines d'enquête comprennent la variabilité des réponses des LLM à des questions éthiques identiques dans différentes langues, l'effet de la formulation des questions sur les réponses et l'uniformité des refus des LLM de répondre à des questions à forte valeur ajoutée dans des contextes linguistiques et thématiques variés.
Bio : Giada Pistilli est une chercheuse en philosophie spécialisée dans l'éthique appliquée à l'IA conversationnelle. Ses recherches portent principalement sur les cadres éthiques, la théorie des valeurs, l'éthique appliquée et descriptive. Après avoir obtenu un master en éthique et philosophie politique à l'Université de la Sorbonne, elle a poursuivi ses recherches doctorales dans la même faculté. Giada est également l'éthicienne principale de Hugging Face, où elle mène des recherches philosophiques et interdisciplinaires sur l'éthique de l'IA et la modération de contenu.Panel : La table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et éthique. Elle sera animée Frédéric Precioso, professeur d'informatique et IA à UniCA, et Jean-Sébastien Vayre, maître de conférence en sociologie à UniCA. La présentation de Giada Pistilli sera en anglais, la table ronde qui suivra sera en français.
Replay de la conférence "Explorer les dimensions éthiques des grands modèles linguistiques à travers les langues" disponible sur notre chaîne YouTube.
> 23 mai 2024, 16h-18h : IA et biais
Lieu : Inria Sophia Antipolis (Amphi Kahn Morgenstern)Par : Sachil Singh, York University
Titre : "La datafication des soins de santé : Un œil sur la surveillance raciale et les biais algorithmiques involontaires"
Résumé : Les algorithmes sont de plus en plus utilisés dans les soins de santé pour améliorer l'efficacité des hôpitaux, réduire les coûts et mieux informer sur les diagnostics et les plans de traitement des patients. Lorsqu'ils sont mis en œuvre, les utilisateurs finaux peuvent avoir l'impression que les algorithmes sont abstraits, autonomes et détachés de leurs concepteurs. Au contraire, je présente les résultats préliminaires d'entretiens en cours avec des scientifiques des données afin de remettre en question la perception des algorithmes comme des technologies objectives, neutres et impartiales. Je partage également les préoccupations relatives à la surveillance des patients, en particulier en ce qui concerne la collecte de données raciales censées améliorer les algorithmes de soins de santé. Si l'on ajoute à cela les propres préjugés raciaux des professionnels de la santé, l'impact cumulé peut aggraver les inégalités raciales déjà existantes, même au-delà des soins de santé.
Bio : Sachil Singh est professeur adjoint de culture physique et de technologies de la santé dans les sociétés informatisées. Situé à la Faculté de santé de l'Université York à Toronto, ses principaux domaines de recherche sont la sociologie médicale, la surveillance, les biais algorithmiques et la race. Sociologue de formation, le Dr Singh étudie actuellement les biais involontaires des scientifiques des données dans leur création d'algorithmes de soins de santé. Il est également co-rédacteur en chef de la revue interdisciplinaire Big Data & Society, la mieux classée. Son profil de professeur est disponible ici.
Panel : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et systèmes socio-techniques. Elle sera animée Anne Vuillemin, Professeure en sciences et techniques des activités physiques et sportives (STAPS) à UniCA, et Valentina Tirloni, Maître de conférence (HDR) en Sciences de la Communication à Université Côte d'Azur. La présentation de Sachil Singh sera en anglais, la table ronde qui suivra sera en anglais et français.
Replay de la conférence "La datafication des soins de santé : un œil sur la surveillance raciale et les biais algorithmiques involontaires" disponible sur notre chaîne YouTube.
> 6 juin 2024, 16h-18h : IA et technologies du langage pour l'éducationCette session se présente sous la forme d'un cinéforum, où nous encourageons toutes les personnes dans l’assistance à s'engager dans des échanges et des réflexions communes. Nous commencerons par regarder la présentation enregistrée de la professeure Emily M. Bender, sur le thème "Meaning making with artificial interlocutors and risks of language technology". La professeure Bender est co-autrice de contributions majeures (telles que [1]) identifiant les risques possibles associés aux grands modèles de langage (type ChatGPT) et les mesures possibles pour atténuer ces risques. Nous discuterons ensuite ensemble de la vidéo, en prenant vos questions et commentaires et en apportant des éclaircissements et des explications complémentaires de la part d'expertes et experts en grands modèles de langues. Nous vous proposerons un cadre d'échanges autour des applications des modèles de langage à l'enseignement à l’université, afin d’amorcer une réflexion sur la meilleure façon d'envisager les velléités actuelles pour incorporer des outils d'IA dans l'enseignement.
[1] E. M. Bender, T. Gebru, A. McMillan-Major, and S. Shmitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?," in Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada: ACM, Mar. 2021, pp. 610–623. doi: 10.1145/3442188.3445922.
Regardez la présentation de la professeure Emily M. Bender, sur le thème "Meaning making with artificial interlocutors and risks of language technology".