Saisons précédentes

Précédemment dans VOILA!

Saison 2

Jeudi 3 octobre 2024, de 16h00 à 18h00 : IA, Data Science et justice sociale, Pr Ben Green  

Conférence "Algorithmic Realism: Data Science Practices to Promote Social Justice" ("Réalisme algorithmique : pratiques de Data Science pour promouvoir la justice sociale")
Par Ben Green


Les inscriptions sont closes.



Résumé

Les Data Scientists ont été confrontés à un fossé entre leur désir d'améliorer la société et les effets néfastes de leurs créations. Alors que les algorithmes semblaient autrefois être des outils précieux pour faire progresser la justice sociale, ils apparaissent aujourd'hui comme des outils dangereux qui exacerbent l'inégalité et l'oppression.

Dans cet exposé, Ben Green soutient que pour améliorer la société grâce aux algorithmes, il faut transformer la Data Science, qui est une méthodologie formelle axée sur les modèles mathématiques, en une méthodologie pratique permettant de résoudre les problèmes sociaux du monde réel. L'approche actuelle de la Data Science - qu'il appelle « formalisme algorithmique » - se concentre sur les attributs mathématiques formels des algorithmes. Par conséquent, même lorsque les Data Scientists respectent les normes disciplinaires de rigueur, leurs tentatives d'amélioration de la société renforcent souvent l'injustice.

En réponse à ces limitations, Ben Green présente le « réalisme algorithmique », une méthodologie de Data Science qui conçoit et évalue les algorithmes en se concentrant sur les impacts dans le monde réel. Le réalisme algorithmique élargit la filière de la Data Science, en fournissant des stratégies concrètes sur la manière dont les scientifiques des données peuvent promouvoir la justice sociale. Cette nouvelle méthodologie suggère également des orientations plus bénéfiques pour la société dans les domaines en plein essor de l'éthique de la science des données, de l'équité algorithmique et de la science des données centrée sur l'Homme.

Bio

Ben Green est professeur adjoint à l'école d'information à la University of Michigan School of Information et professeur adjoint (par courtoisie) à la Gerald R. Ford School of Public Policy. Il est titulaire d'un doctorat en mathématiques appliquées de l'université de Harvard, avec un domaine secondaire en science, technologie et société.

Ben Green étudie l'éthique des algorithmes gouvernementaux, en mettant l'accent sur l'équité algorithmique, les interactions humain-algorithme et la réglementation de l'IA.

Grâce à ses recherches, Ben Green vise à soutenir les pratiques de conception et de gouvernance qui préviennent les préjudices algorithmiques et font progresser la justice sociale.

Son premier livre, The Smart Enough City : Putting Technology in Its Place to Reclaim Our Urban Future, a été publié en 2019 par MIT Press. Il travaille sur un deuxième livre, Algorithmic Realism : Data Science Practices to Promote Social Justice. Ben Green est également associé à la Berkman Klein Center for Internet & Society de Harvard et chercheur au Center for Democracy & Technology.

Déroulement

L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA, Data Science et justice sociale, et sera animée par la Pr Lucile Sassatelli, professeure à Université Côte d'Azur, et Rémy Sun, chercheur à Inria.
La présentation du Pr. Green et la table ronde seront en anglais, avec possibilité de sous-titrage en français.


Jeudi 7 novembre 2024, de 16h00 à 18h00 : IA et risque (non) existentiel, Pr Jack Stilgoe (événement repoussé)

Conférence "The organized irresponsibility of artificial intelligence" ("L'irresponsabilité organisée de l'intelligence artificielle")
Par Jack Stilgoe

SÉMINAIRE ANNULÉ
Pour des raisons personnelles, Jack Stilgoe ne sera pas en mesure de présenter sa conférence le 7 novembre ; l'événement est donc repoussé à la saison 3.




Résumé

Alors que les promesses de l'intelligence artificielle attirent de plus en plus l'attention sociale, politique et financière, les risques et les responsabilités sont imaginés de manière à servir les intérêts d'une élite technoscientifique. Au Royaume-Uni et ailleurs, des organisations commencent à institutionnaliser un mode de gouvernance qui présume connaître et prendre en charge les préoccupations du public. De nouvelles communautés de recherche se forment autour des questions de "sécurité" et d'"alignement" de l'IA. Dans cet exposé, Jack Stilgoe m'appuiera sur des recherches concernant les attitudes du public et des experts et réfléchira à son rôle en tant que partisan, analyste et acteur dans les débats sur l'"IA responsable".

Bio

Jack Stilgoe est professeur d'études scientifiques et technologiques à l'University College London, où il étudie la gouvernance des technologies émergentes. Il fait partie de l'équipe de direction de l'UKRI Responsible AI. Il a été chercheur principal du projet ESRC Driverless Futures (2019-2022). Il a travaillé avec l'EPSRC et l'ESRC pour développer un cadre pour l'innovation responsable qui est maintenant utilisé par les conseils de recherche. Parmi d'autres publications, il est l'auteur de "Who's Driving Innovation ?" (2020, Palgrave) et de "Experiment Earth : Responsible innovation in geoengineering" (2015, Routledge). Auparavant, il a travaillé dans le domaine de la politique scientifique et technologique à la Royal Society et au groupe de réflexion Demos. Il est membre de l'Institut Turing et administrateur de la Royal Institution.

Déroulement

La table ronde qui suivra la conférence traitera du thème IA & risque (non) existentiel, et sera animée par les chercheuses et les chercheurs d'Université Côte d'Azur.
La présentation de Pr. Stilgoe et la table ronde seront en anglais.
Un moment de convivialité vous sera proposé à l'issue de la table ronde.


Jeudi 5 décembre 2024, de 16h00 à 18h00 : IA et politique industrielle, Pr Susannah Glickman

Conférence "The Politics of Exponential Growth: AI, Hardware and Industrial Policy" ("La politique de la croissance exponentielle : IA, matériel et politique industrielle")
Par Pr
Susannah Glickman

Replay de la conférence "The Politics of Exponential Growth: AI, Hardware and Industrial Policy" disponible sur notre chaîne YouTube.

Les inscriptions sont closes.



Résumé

Les discussions sur l'IA et la politique technologique en général ont souvent éludé le rôle de l'État. Cette élision est le produit de l'évolution des politiques, des institutions et des infrastructures autour de cette industrie, mais ne reflète pas une comptabilité honnête du rôle historique de la politique industrielle. Cet exposé examinera cette histoire souvent négligée, en associant les histoires politiques, les changements idéologiques, l'économie politique et l'infrastructure matérielle afin de rendre compte et d'évaluer la résurgence actuelle de l'intérêt pour la politique industrielle en matière de technologie.

Bio

Susannah Glickman est professeure assistante à Stony Brook University. Ses travaux de recherche et d'enseignement se concentrent sur deux domaines principaux : l'histoire de l'informatique et de l'information, ainsi que leur économie politique. Elle étudie particulièrement ces sujets dans le contexte des changements majeurs qui ont affecté la science américaine à l'échelle mondiale à la fin de la guerre froide. Elle s'intéresse également à la manière dont les institutions gèrent la catégorie du futur, l'histoire et les origines de la catégorie « tech ». Elle a une formation en mathématiques et en anthropologie et travaille entre les domaines des études scientifiques et technologiques et de l'histoire, en combinant les méthodes d'archivage et d'histoire orale.

Son projet de livre actuel explore l'évolution historique des infrastructures nécessaires au développement des semi-conducteurs et des technologies quantiques de pointe. L'étude met l'accent sur deux aspects principaux : comment les idéologies et autres types de récits se transforment en politiques concrètes et en pratiques détaillées d'une part, et comment ces pratiques matérielles, en retour, influencent et redéfinissent les idéologies d'autre part.

Déroulement

L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA et politique industrielle et sera animée par le Pr Ludovic Dibiaggio, enseignant-chercheur à Université Côte d'Azur (GREDEG), et le Pr Simone Vannuccini, Chaire de Professeur Junior en économie de l'Intelligence Artificielle et de l'Innovation à Université Côte d'Azur.
La présentation de la Pr Glickman et la table ronde seront en anglais, avec possibilité de sous-titrage en français.


Jeudi 19 décembre, de 16h00 à 18h00 : IA et environnement, Pr Aurélie Bugeau

Conférence "Quels impacts environnementaux pour l'IA ?"
Par Pr
Aurélie Bugeau

Replay de la conférence "Quels impacts environnementaux pour l'IA ?" disponible sur notre chaîne YouTube.

Les inscriptions sont closes.



Résumé

L'intelligence artificielle est présentée comme un outil essentiel pour l'adaptation et l'atténuation face aux problématiques environnementales. Néanmoins, de plus en plus d'études montrent que les impacts environnementaux et le coût énergétique des méthodes d'IA peuvent être importants, en particulier si on considère l'ensemble du cycle de vie du service d'IA et des équipements numériques nécessaires. Dans cette présentation, je débuterai par expliquer pourquoi s'intéresser au lien entre IA et environnement, puis j'exposerai l'état des connaissances sur les impacts environnementaux de l'IA.

Bio

Aurélie Bugeau est professeure en informatique à l'Université de Bordeaux et est membre junior de l'IUF depuis 2022. Elle effectue ses recherches LaBRI au sein de l'équipe Numérique et Soutenabilité (NeS). Ses recherches portaient initialement sur le traitement et l'analyse d'images, notamment pour des applications de restauration d'images et de vidéos. Depuis 2020, elle s'intéresse aux impacts environnementaux du numérique, comment les mesurer et les prédire.

Déroulement

L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA et environnement et sera animée par c, chercheuse et les chercheur d'Université Côte d'Azur.
La présentation de la Pr Bugeau et la table ronde seront en français, avec possibilité de sous-titrage en anglais.

Saison 1

EFELIA-3IA Côte d'Azur - VOILA seminar season 1
EFELIA-3IA Côte d'Azur - VOILA seminar season 1
> 11 avril 2024, 16h-18h : IA et travail

Par
Pr Paola Tubaro, CNRS et ENSAE

Titre : "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela"

Résumé : le travail joue un rôle majeur, bien que largement méconnu, dans le développement de l'intelligence artificielle (IA). Les algorithmes d'apprentissage automatique reposent sur des processus à forte intensité de données qui font appel à des humains pour exécuter des tâches répétitives et difficiles à automatiser, et pourtant essentielles, telles que l'étiquetage d'images, le tri d'éléments dans des listes et la transcription de fichiers audio. Des réseaux de sous-traitants recrutent des "travailleurs de la donnée" pour exécuter ces tâches, souvent dans des pays à faible revenu où les marchés du travail stagnent et l'économie informelle domine. Nous regarderons de plus près les conditions de travail et les profils des travailleurs et travailleuses de la donnée au Brésil, au Venezuela, à Madagascar et, comme exemple d'un pays plus riche, en France.
Les chaînes d'approvisionnement mondialisées qui relient ces travailleurs et travailleuses aux principaux sites de production de l'IA prolongent les dépendances économiques de l'époque coloniale et renforcent les inégalités héritées du passé.

Bio : Pr Paola Tubaro est Directrice de Recherche au CNRS et professeure à l’ENSAE. Economiste de formation tournée sociologue, elle mène des recherches interdisciplinaires au croisement des sciences sociales, de l’analyse des réseaux et de l'informatique. Elle étudie actuellement la place du travail humain dans les réseaux mondiaux de production de l'intelligence artificielle, les inégalités sociales dans le travail sur les plateformes numériques, et les mécanismes sociaux de production et diffusion de la désinformation en ligne. Elle a aussi publié dans les domaines des méthodes et de l'éthique des données et de la recherche.

Déroulé : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et travail, et sera animée Léonie Blaszyk-Niedergang, doctorante en droit à UniCA, et Gérald Gaglio, professeur de sociologie à UniCA. La présentation de Pr. Tubaro et la table ronde qui suivra seront en français ; les diapositives seront en anglais.

Replay de la conférence "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela" disponible sur notre chaîne YouTube.


> 18 avril 2024, 16h-18h : IA et éthique

Par Pr Giada Pistilli, Éthicienne principale, Hugging Face

Titre : "Explorer les dimensions éthiques des grands modèles de langage à travers les langues"

Résumé : cet exposé présente l'étude des implications éthiques des grands modèles linguistiques (LLM) dans plusieurs langues, fondée sur les concepts philosophiques de l'éthique et de l'éthique appliquée. En utilisant une analyse comparative de LLM ouverts et fermés avec des invites sur des questions sensibles traduites dans plusieurs langues, l'étude utilise des méthodes qualitatives comme l'analyse thématique et l'analyse de contenu pour examiner les résultats des LLM pour des considérations éthiques, en particulier en regardant les cas où les modèles refusent de répondre ou déclenchent des filtres de contenu. En outre, les principaux domaines d'enquête comprennent la variabilité des réponses des LLM à des questions éthiques identiques dans différentes langues, l'effet de la formulation des questions sur les réponses et l'uniformité des refus des LLM de répondre à des questions à forte valeur ajoutée dans des contextes linguistiques et thématiques variés.

Bio : Giada Pistilli est une chercheuse en philosophie spécialisée dans l'éthique appliquée à l'IA conversationnelle. Ses recherches portent principalement sur les cadres éthiques, la théorie des valeurs, l'éthique appliquée et descriptive. Après avoir obtenu un master en éthique et philosophie politique à l'Université de la Sorbonne, elle a poursuivi ses recherches doctorales dans la même faculté. Giada est également l'éthicienne principale de Hugging Face, où elle mène des recherches philosophiques et interdisciplinaires sur l'éthique de l'IA et la modération de contenu.

Déroulement : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et éthique. Elle sera animée Frédéric Precioso, professeur d'informatique et IA à UniCA, et Jean-Sébastien Vayre, maître de conférence en sociologie à UniCA. La présentation de Giada Pistilli sera en anglais, la table ronde qui suivra sera en français.

Replay de la conférence "Explorer les dimensions éthiques des grands modèles linguistiques à travers les langues" disponible sur notre chaîne YouTube.


> 23 mai 2024, 16h-18h : IA et biais

Lieu
: Inria Sophia Antipolis (Amphi Kahn Morgenstern)

Par Pr Sachil Singh, York University

Titre : "La datafication des soins de santé : Un œil sur la surveillance raciale et les biais algorithmiques involontaires"

Résumé : Les algorithmes sont de plus en plus utilisés dans les soins de santé pour améliorer l'efficacité des hôpitaux, réduire les coûts et mieux informer sur les diagnostics et les plans de traitement des patients. Lorsqu'ils sont mis en œuvre, les utilisateurs finaux peuvent avoir l'impression que les algorithmes sont abstraits, autonomes et détachés de leurs concepteurs. Au contraire, je présente les résultats préliminaires d'entretiens en cours avec des scientifiques des données afin de remettre en question la perception des algorithmes comme des technologies objectives, neutres et impartiales. Je partage également les préoccupations relatives à la surveillance des patients, en particulier en ce qui concerne la collecte de données raciales censées améliorer les algorithmes de soins de santé. Si l'on ajoute à cela les propres préjugés raciaux des professionnels de la santé, l'impact cumulé peut aggraver les inégalités raciales déjà existantes, même au-delà des soins de santé.

Bio : Sachil Singh est professeur adjoint de culture physique et de technologies de la santé dans les sociétés informatisées. Situé à la Faculté de santé de l'Université York à Toronto, ses principaux domaines de recherche sont la sociologie médicale, la surveillance, les biais algorithmiques et la race. Sociologue de formation, le Dr Singh étudie actuellement les biais involontaires des scientifiques des données dans leur création d'algorithmes de soins de santé. Il est également co-rédacteur en chef de la revue interdisciplinaire Big Data & Society, la mieux classée. Son profil de professeur est disponible ici.

Déroulement : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et systèmes socio-techniques. Elle sera animée Anne Vuillemin, Professeure en sciences et techniques des activités physiques et sportives (STAPS) à UniCA, et Valentina Tirloni, Maître de conférence (HDR) en Sciences de la Communication à Université Côte d'Azur. La présentation de Sachil Singh sera en anglais, la table ronde qui suivra sera en anglais et français.

Replay de la conférence "La datafication des soins de santé : un œil sur la surveillance raciale et les biais algorithmiques involontaires" disponible sur notre chaîne YouTube.


> 6 juin 2024, 16h-18h : IA et technologies du langage pour l'éducation

Cette session se présente sous la forme d'un cinéforum, où nous encourageons toutes les personnes dans l’assistance à s'engager dans des échanges et des réflexions communes. Nous commencerons par regarder la présentation enregistrée de la professeure Emily M. Bender, sur le thème "Meaning making with artificial interlocutors and risks of language technology". La professeure Bender est co-autrice de contributions majeures (telles que [1]) identifiant les risques possibles associés aux grands modèles de langage (type ChatGPT) et les mesures possibles pour atténuer ces risques. Nous discuterons ensuite ensemble de la vidéo, en prenant vos questions et commentaires et en apportant des éclaircissements et des explications complémentaires de la part d'expertes et experts en grands modèles de langues. Nous vous proposerons un cadre d'échanges autour des applications des modèles de langage à l'enseignement à l’université, afin d’amorcer une réflexion sur la meilleure façon d'envisager les velléités actuelles pour incorporer des outils d'IA dans l'enseignement.

[1] E. M. Bender, T. Gebru, A. McMillan-Major, and S. Shmitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?," in Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada: ACM, Mar. 2021, pp. 610–623. doi: 10.1145/3442188.3445922.


Watch Professor Emily M. Bender's presentation intitulée "Meaning making with artificial interlocutors and risks of language technology".