Précédemment dans VOILA!
- Saison 1
-
Par : Paola Tubaro, CNRS et ENSAETitre : "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela"
Résumé : le travail joue un rôle majeur, bien que largement méconnu, dans le développement de l'intelligence artificielle (IA). Les algorithmes d'apprentissage automatique reposent sur des processus à forte intensité de données qui font appel à des humains pour exécuter des tâches répétitives et difficiles à automatiser, et pourtant essentielles, telles que l'étiquetage d'images, le tri d'éléments dans des listes et la transcription de fichiers audio. Des réseaux de sous-traitants recrutent des "travailleurs de la donnée" pour exécuter ces tâches, souvent dans des pays à faible revenu où les marchés du travail stagnent et l'économie informelle domine. Nous regarderons de plus près les conditions de travail et les profils des travailleurs et travailleuses de la donnée au Brésil, au Venezuela, à Madagascar et, comme exemple d'un pays plus riche, en France.
Les chaînes d'approvisionnement mondialisées qui relient ces travailleurs et travailleuses aux principaux sites de production de l'IA prolongent les dépendances économiques de l'époque coloniale et renforcent les inégalités héritées du passé.Bio : Paola Tubaro est Directrice de Recherche au CNRS et professeure à l’ENSAE. Economiste de formation tournée sociologue, elle mène des recherches interdisciplinaires au croisement des sciences sociales, de l’analyse des réseaux et de l'informatique. Elle étudie actuellement la place du travail humain dans les réseaux mondiaux de production de l'intelligence artificielle, les inégalités sociales dans le travail sur les plateformes numériques, et les mécanismes sociaux de production et diffusion de la désinformation en ligne. Elle a aussi publié dans les domaines des méthodes et de l'éthique des données et de la recherche.
Déroulé : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et travail, et sera animée Léonie Blaszyk-Niedergang, doctorante en droit à UniCA, et Gérald Gaglio, professeur de sociologie à UniCA. La présentation de Pr. Tubaro et la table ronde qui suivra seront en français ; les diapositives seront en anglais.
Replay de la conférence "Le travail mondial de l'IA : Un voyage entre France, Brésil, Madagascar et Venezuela" disponible sur notre chaîne YouTube.
> 18 avril 2024, 16h-18h : IA et éthiquePar : Giada Pistilli, Éthicienne principale, Hugging Face
Titre : "Explorer les dimensions éthiques des grands modèles de langage à travers les langues"
Résumé : cet exposé présente l'étude des implications éthiques des grands modèles linguistiques (LLM) dans plusieurs langues, fondée sur les concepts philosophiques de l'éthique et de l'éthique appliquée. En utilisant une analyse comparative de LLM ouverts et fermés avec des invites sur des questions sensibles traduites dans plusieurs langues, l'étude utilise des méthodes qualitatives comme l'analyse thématique et l'analyse de contenu pour examiner les résultats des LLM pour des considérations éthiques, en particulier en regardant les cas où les modèles refusent de répondre ou déclenchent des filtres de contenu. En outre, les principaux domaines d'enquête comprennent la variabilité des réponses des LLM à des questions éthiques identiques dans différentes langues, l'effet de la formulation des questions sur les réponses et l'uniformité des refus des LLM de répondre à des questions à forte valeur ajoutée dans des contextes linguistiques et thématiques variés.
Bio : Giada Pistilli est une chercheuse en philosophie spécialisée dans l'éthique appliquée à l'IA conversationnelle. Ses recherches portent principalement sur les cadres éthiques, la théorie des valeurs, l'éthique appliquée et descriptive. Après avoir obtenu un master en éthique et philosophie politique à l'Université de la Sorbonne, elle a poursuivi ses recherches doctorales dans la même faculté. Giada est également l'éthicienne principale de Hugging Face, où elle mène des recherches philosophiques et interdisciplinaires sur l'éthique de l'IA et la modération de contenu.Panel : La table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et éthique. Elle sera animée Frédéric Precioso, professeur d'informatique et IA à UniCA, et Jean-Sébastien Vayre, maître de conférence en sociologie à UniCA. La présentation de Giada Pistilli sera en anglais, la table ronde qui suivra sera en français.
Replay de la conférence "Explorer les dimensions éthiques des grands modèles linguistiques à travers les langues" disponible sur notre chaîne YouTube.
> 23 mai 2024, 16h-18h : IA et biais
Lieu : Inria Sophia Antipolis (Amphi Kahn Morgenstern)Par : Sachil Singh, York University
Titre : "La datafication des soins de santé : Un œil sur la surveillance raciale et les biais algorithmiques involontaires"
Résumé : Les algorithmes sont de plus en plus utilisés dans les soins de santé pour améliorer l'efficacité des hôpitaux, réduire les coûts et mieux informer sur les diagnostics et les plans de traitement des patients. Lorsqu'ils sont mis en œuvre, les utilisateurs finaux peuvent avoir l'impression que les algorithmes sont abstraits, autonomes et détachés de leurs concepteurs. Au contraire, je présente les résultats préliminaires d'entretiens en cours avec des scientifiques des données afin de remettre en question la perception des algorithmes comme des technologies objectives, neutres et impartiales. Je partage également les préoccupations relatives à la surveillance des patients, en particulier en ce qui concerne la collecte de données raciales censées améliorer les algorithmes de soins de santé. Si l'on ajoute à cela les propres préjugés raciaux des professionnels de la santé, l'impact cumulé peut aggraver les inégalités raciales déjà existantes, même au-delà des soins de santé.
Bio : Sachil Singh est professeur adjoint de culture physique et de technologies de la santé dans les sociétés informatisées. Situé à la Faculté de santé de l'Université York à Toronto, ses principaux domaines de recherche sont la sociologie médicale, la surveillance, les biais algorithmiques et la race. Sociologue de formation, le Dr Singh étudie actuellement les biais involontaires des scientifiques des données dans leur création d'algorithmes de soins de santé. Il est également co-rédacteur en chef de la revue interdisciplinaire Big Data & Society, la mieux classée. Son profil de professeur est disponible ici.
Panel : la table ronde de 17h à 18h qui suivra la présentation traitera du thème IA et systèmes socio-techniques. Elle sera animée Anne Vuillemin, Professeure en sciences et techniques des activités physiques et sportives (STAPS) à UniCA, et Valentina Tirloni, Maître de conférence (HDR) en Sciences de la Communication à Université Côte d'Azur. La présentation de Sachil Singh sera en anglais, la table ronde qui suivra sera en anglais et français.
Replay de la conférence "La datafication des soins de santé : un œil sur la surveillance raciale et les biais algorithmiques involontaires" disponible sur notre chaîne YouTube.
> 6 juin 2024, 16h-18h : IA et technologies du langage pour l'éducationCette session se présente sous la forme d'un cinéforum, où nous encourageons toutes les personnes dans l’assistance à s'engager dans des échanges et des réflexions communes. Nous commencerons par regarder la présentation enregistrée de la professeure Emily M. Bender, sur le thème "Meaning making with artificial interlocutors and risks of language technology". La professeure Bender est co-autrice de contributions majeures (telles que [1]) identifiant les risques possibles associés aux grands modèles de langage (type ChatGPT) et les mesures possibles pour atténuer ces risques. Nous discuterons ensuite ensemble de la vidéo, en prenant vos questions et commentaires et en apportant des éclaircissements et des explications complémentaires de la part d'expertes et experts en grands modèles de langues. Nous vous proposerons un cadre d'échanges autour des applications des modèles de langage à l'enseignement à l’université, afin d’amorcer une réflexion sur la meilleure façon d'envisager les velléités actuelles pour incorporer des outils d'IA dans l'enseignement.
[1] E. M. Bender, T. Gebru, A. McMillan-Major, and S. Shmitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?," in Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada: ACM, Mar. 2021, pp. 610–623. doi: 10.1145/3442188.3445922.
Regardez la présentation de la professeure Emily M. Bender, sur le thème "Meaning making with artificial interlocutors and risks of language technology".
- Saison 2
-
❶ Jeudi 3 octobre 2024, de 16h00 à 18h00 : IA, Data Science et justice sociale, Ben Green
Conférence "Réalisme algorithmique : pratiques de Data Science pour promouvoir la justice sociale" / "Algorithmic Realism: Data Science Practices to Promote Social Justice"
Par Ben Green
Les inscriptions sont closes.
Résumé / Abstract
Les Data Scientists ont été confrontés à un fossé entre leur désir d'améliorer la société et les effets néfastes de leurs créations. Alors que les algorithmes semblaient autrefois être des outils précieux pour faire progresser la justice sociale, ils apparaissent aujourd'hui comme des outils dangereux qui exacerbent l'inégalité et l'oppression.
Dans cet exposé, Ben Green soutient que pour améliorer la société grâce aux algorithmes, il faut transformer la Data Science, qui est une méthodologie formelle axée sur les modèles mathématiques, en une méthodologie pratique permettant de résoudre les problèmes sociaux du monde réel. L'approche actuelle de la Data Science - qu'il appelle « formalisme algorithmique » - se concentre sur les attributs mathématiques formels des algorithmes. Par conséquent, même lorsque les Data Scientists respectent les normes disciplinaires de rigueur, leurs tentatives d'amélioration de la société renforcent souvent l'injustice.
En réponse à ces limitations, Ben Green présente le « réalisme algorithmique », une méthodologie de Data Science qui conçoit et évalue les algorithmes en se concentrant sur les impacts dans le monde réel. Le réalisme algorithmique élargit la filière de la Data Science, en fournissant des stratégies concrètes sur la manière dont les scientifiques des données peuvent promouvoir la justice sociale. Cette nouvelle méthodologie suggère également des orientations plus bénéfiques pour la société dans les domaines en plein essor de l'éthique de la science des données, de l'équité algorithmique et de la science des données centrée sur l'Homme.
_____
Data scientists have confronted a gap between their desire to improve society and the harmful impacts of their creations. While algorithms once appeared to be valuable tools that advance social justice, today they appear to be dangerous tools that exacerbate inequality and oppression.
In this talk, Ben Green argues that improving society with algorithms requires transforming data science from a formal methodology focused on mathematical models into a practical methodology for addressing real-world social problems. The current approach to data science - which he calls “algorithmic formalism” - focuses on the formal mathematical attributes of algorithms. As a result, even when data scientists follow disciplinary standards of rigor, their attempts to improve society often entrench injustice.
In response to these limitations, he introduces “algorithmic realism,” a data science methodology that designs and evaluates algorithms with a focus on real-world impacts. Algorithmic realism expands the data science pipeline, providing concrete strategies for how data scientists can promote social justice. This new methodology also suggests more socially beneficial directions for the burgeoning fields of data science ethics, algorithmic fairness, and human-centered data science.
Bio
Ben Green est professeur adjoint à l'école d'information à la University of Michigan School of Information et professeur adjoint (par courtoisie) à la Gerald R. Ford School of Public Policy. Il est titulaire d'un doctorat en mathématiques appliquées de l'université de Harvard, avec un domaine secondaire en science, technologie et société.
Ben Green étudie l'éthique des algorithmes gouvernementaux, en mettant l'accent sur l'équité algorithmique, les interactions humain-algorithme et la réglementation de l'IA.
Grâce à ses recherches, Ben Green vise à soutenir les pratiques de conception et de gouvernance qui préviennent les préjudices algorithmiques et font progresser la justice sociale.
Son premier livre, The Smart Enough City : Putting Technology in Its Place to Reclaim Our Urban Future, a été publié en 2019 par MIT Press. Il travaille sur un deuxième livre, Algorithmic Realism : Data Science Practices to Promote Social Justice. Ben Green est également associé à la Berkman Klein Center for Internet & Society de Harvard et chercheur au Center for Democracy & Technology.
_____
Ben Green is Assistant Professor in the School of Information at the University of Michigan School of Information and Adjunct Professor (by courtesy) at the Gerald R. Ford School of Public Policy. He holds a PhD in applied mathematics from Harvard University, with a minor in science, technology and society.
Ben Green studies the ethics of government algorithms, focusing on algorithmic fairness, human-algorithm interactions and AI regulation.
Through his research, Ben Green aims to support design and governance practices that prevent algorithmic harm and advance social justice.
His first book, The Smart Enough City: Putting Technology in Its Place to Reclaim Our Urban Future, was published in 2019 by MIT Press. He is working on a second book, Algorithmic Realism: Data Science Practices to Promote Social Justice. Ben Green is also an Associate at Harvard's Berkman Klein Center for Internet & Society and a Research Fellow at the Center for Democracy & Technology.
Déroulement / Schedule
L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA, Data Science et justice sociale, et sera animée par les chercheuses et les chercheurs d'Université Côte d'Azur.
La présentation du Pr. Green et la table ronde seront en anglais, avec possibilité de sous-titrage en français.
______
The round-table discussion following the conference will address the theme of AI, Data Science and Social Justice, and will be moderated by researchers from Université Côte d'Azur.
Pr. Green's presentation and the round-table will be in English, with the option of French subtitles.
❷ Jeudi 7 novembre 2024, de 16h00 à 18h00 : IA et risque (non) existentiel, Jack Stilgoe (événement repoussé)
Conférence "L'irresponsabilité organisée de l'intelligence artificielle" / "The organized irresponsibility of artificial intelligence"
Par Jack Stilgoe
SÉMINAIRE ANNULÉ
Pour des raisons personnelles, Jack Stilgoe ne sera pas en mesure de présenter sa conférence le 7 novembre ; l'événement est donc repoussé à la saison 3.
_____
SEMINAR CANCELLED
For personal reasons, Jack Stilgoe will not be able to present his lecture on November 7, so the event has been postponed until season 3.
Résumé / Abstract
Alors que les promesses de l'intelligence artificielle attirent de plus en plus l'attention sociale, politique et financière, les risques et les responsabilités sont imaginés de manière à servir les intérêts d'une élite technoscientifique. Au Royaume-Uni et ailleurs, des organisations commencent à institutionnaliser un mode de gouvernance qui présume connaître et prendre en charge les préoccupations du public. De nouvelles communautés de recherche se forment autour des questions de "sécurité" et d'"alignement" de l'IA. Dans cet exposé, Jack Stilgoe m'appuiera sur des recherches concernant les attitudes du public et des experts et réfléchira à son rôle en tant que partisan, analyste et acteur dans les débats sur l'"IA responsable".
_____
As the promises of artificial intelligence attract growing social, political and financial attention, risks and responsibilities are being imagined in ways that serve the interests of a technoscientific elite. In the UK and elsewhere, organisations are starting to institutionalise a mode of governance that presumes to know and take care of public concerns. And new research communities are forming around questions of AI ’safety’ and ‘alignment’. In this talk, Jack Stilgoe will draw on research into public and expert attitudes and reflect on his role as a proponent, analyst and actor in debates about ‘Responsible AI’.
Bio
Jack Stilgoe est professeur d'études scientifiques et technologiques à l'University College London, où il étudie la gouvernance des technologies émergentes. Il fait partie de l'équipe de direction de l'UKRI Responsible AI. Il a été chercheur principal du projet ESRC Driverless Futures (2019-2022). Il a travaillé avec l'EPSRC et l'ESRC pour développer un cadre pour l'innovation responsable qui est maintenant utilisé par les conseils de recherche. Parmi d'autres publications, il est l'auteur de "Who's Driving Innovation ?" (2020, Palgrave) et de "Experiment Earth : Responsible innovation in geoengineering" (2015, Routledge). Auparavant, il a travaillé dans le domaine de la politique scientifique et technologique à la Royal Society et au groupe de réflexion Demos. Il est membre de l'Institut Turing et administrateur de la Royal Institution.
_____
Jack Stilgoe is Professor of Science and Technology Studies at University College London, where he studies the governance of emerging technologies. He is a member of the UKRI Responsible AI leadership team. He was principal investigator of the ESRC Driverless Futures project (2019-2022). He worked with EPSRC and ESRC to develop a framework for responsible innovation that is now used by the Research Councils. Among other publications, he is the author of "Who's Driving Innovation?" (2020, Palgrave) and "Experiment Earth: Responsible innovation in geoengineering" (2015, Routledge). Previously, he worked in science and technology policy at the Royal Society and the Demos think tank. He is a Fellow of the Turing Institute and a Trustee of the Royal Institution.
Déroulement / Schedule
La table ronde qui suivra la conférence traitera du thème IA & risque (non) existentiel, et sera animée par les chercheuses et les chercheurs d'Université Côte d'Azur.
La présentation de Pr. Stilgoe et la table ronde seront en anglais.
Un moment de convivialité vous sera proposé à l'issue de la table ronde.
_____
The round-table discussion following the conference will address the theme of AI & (non) existential risk, and will be moderated by researchers from Université Côte d'Azur.
Pr. Green's presentation and the round-table will be in English.
A convivial moment will be offered at the end of the round table.
❸ Jeudi 5 décembre 2024, de 16h00 à 18h00 : IA et politique industrielle, Susannah Glickman
Conférence "La politique de la croissance exponentielle : IA, matériel et politique industrielle" / "The Politics of Exponential Growth: AI, Hardware and Industrial Policy"
Par Susannah Glickman
Comment activer les sous-titres pendant le séminaire Zoom ?
1. Localisez le bouton « Sous-titres » ou « CC » dans la barre d'outils Zoom en bas de l'écran.
2. Cliquez sur le bouton « Sous-titres » pour ouvrir les paramètres des sous-titres.
3. Cliquer sur l’option permettant de les activer.
Inscription gratuite mais obligatoire pour recevoir le lien de connexion le jour de l'événement
Résumé / Abstract
Les discussions sur l'IA et la politique technologique en général ont souvent éludé le rôle de l'État. Cette élision est le produit de l'évolution des politiques, des institutions et des infrastructures autour de cette industrie, mais ne reflète pas une comptabilité honnête du rôle historique de la politique industrielle. Cet exposé examinera cette histoire souvent négligée, en associant les histoires politiques, les changements idéologiques, l'économie politique et l'infrastructure matérielle afin de rendre compte et d'évaluer la résurgence actuelle de l'intérêt pour la politique industrielle en matière de technologie.
_____
Discussions of AI and technology policy more generally have often elided the role of the state. This elision is a product of the shifting politics, institutions and infrastructures around this industry but it does not reflect an honest accounting of the historic role of industrial policy. This talk will examine this oft-neglected history, braiding together political histories, ideological shifts, political economy, and material infrastructure in order to give an account and appraisal of the current resurgence of interest in tech industrial policy.
Bio
Susannah Glickman est professeure assistante à Stony Brook University. Ses travaux de recherche et d'enseignement se concentrent sur deux domaines principaux : l'histoire de l'informatique et de l'information, ainsi que leur économie politique. Elle étudie particulièrement ces sujets dans le contexte des changements majeurs qui ont affecté la science américaine à l'échelle mondiale à la fin de la guerre froide. Elle s'intéresse également à la manière dont les institutions gèrent la catégorie du futur, l'histoire et les origines de la catégorie « tech ». Elle a une formation en mathématiques et en anthropologie et travaille entre les domaines des études scientifiques et technologiques et de l'histoire, en combinant les méthodes d'archivage et d'histoire orale.
Son projet de livre actuel explore l'évolution historique des infrastructures nécessaires au développement des semi-conducteurs et des technologies quantiques de pointe. L'étude met l'accent sur deux aspects principaux : comment les idéologies et autres types de récits se transforment en politiques concrètes et en pratiques détaillées d'une part, et comment ces pratiques matérielles, en retour, influencent et redéfinissent les idéologies d'autre part.
_____
Susannah Glickman is an assistant professor at Stony Brook University. Her research and teaching focus on the history and political economy of computation and information through the transformations in global American science that occurred at the end of the Cold War. Relatedly, she is interested in how institutions deal with the category of the future, history and the origins of the category “tech.” She has a background in mathematics and anthropology and works between the fields of science and technology studies and history, mixing archival and oral history methods.
Her current book project examines the infrastructures which make ever-improving semiconductors and quantum technologies possible historically, with particular attention to how ideology and other kinds of narratives get translated into policy and granular practices, and how reciprocally those material practices get translated back into ideology.
Déroulement / Schedule
L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA et politique industrielle et sera animée par les chercheuses et les chercheurs d'Université Côte d'Azur.
La présentation de la Pr Glickman et la table ronde seront en anglais, avec possibilité de sous-titrage en français.
______
The round-table discussion following the conference will address the theme of AI and industrial policy and will be moderated by researchers from Université Côte d'Azur.
Pr. Glickman's presentation and the round-table will be in English, with the option of French subtitles.
❹ Jeudi 19 décembre, de 16h00 à 18h00 : IA et environnement, Aurélie Bugeau
Conférence "Quels impacts environnementaux pour l'IA ?" / "What are the environmental impacts of AI?"
Par Aurélie Bugeau
Accès au webinar / Access to the webinar
Join Zoom Meeting today (December 19) at 4:00 pm
ID de réunion: 980 5638 9530
Code secret: 865636
How do I activate subtitles during the Zoom seminar?
1. Locate the "Subtitles" or "CC" button in the Zoom toolbar at the bottom of the screen.
2. Click on the "Subtitles" button to open the subtitle settings.
3. Click on the option to activate them.
Les inscriptions sont closes.
Résumé / Abstract
L'intelligence artificielle est présentée comme un outil essentiel pour l'adaptation et l'atténuation face aux problématiques environnementales. Néanmoins, de plus en plus d'études montrent que les impacts environnementaux et le coût énergétique des méthodes d'IA peuvent être importants, en particulier si on considère l'ensemble du cycle de vie du service d'IA et des équipements numériques nécessaires. Dans cette présentation, je débuterai par expliquer pourquoi s'intéresser au lien entre IA et environnement, puis j'exposerai l'état des connaissances sur les impacts environnementaux de l'IA.
______
Artificial intelligence is presented as an essential tool for adaptation and mitigation of environmental problems. Nevertheless, a growing number of studies show that the environmental impacts and energy costs of AI methods can be significant, especially when considering the entire lifecycle of the AI service and the digital equipment required. In this presentation, I'll start by explaining why we're interested in the link between AI and the environment, and then outline the state of knowledge on the environmental impacts of AI.
Bio
Aurélie Bugeau est professeure en informatique à l'Université de Bordeaux et est membre junior de l'IUF depuis 2022. Elle effectue ses recherches LaBRI au sein de l'équipe Numérique et Soutenabilité (NeS). Ses recherches portaient initialement sur le traitement et l'analyse d'images, notamment pour des applications de restauration d'images et de vidéos. Depuis 2020, elle s'intéresse aux impacts environnementaux du numérique, comment les mesurer et les prédire.
______
Aurélie Bugeau is Professor of Computer Science at the University of Bordeaux and has been a junior member of the IUF since 2022. She carries out her LaBRI research within the Numérique et Soutenabilité (NeS) team. Her research initially focused on image processing and analysis, particularly for image and video restoration applications. Since 2020, she has been focusing on the environmental impacts of digital technology, and how to measure and predict them.
Déroulement / Schedule
L'événement se déroulera intégralement sur Zoom.
La table ronde qui suivra la conférence traitera du thème IA et environnement et sera animée par c, chercheuse et les chercheur d'Université Côte d'Azur.
La présentation de la Pr Bugeau et la table ronde seront en français, avec possibilité de sous-titrage en anglais.
_____
The round-table discussion following the conference will address the theme of AI and environment and will be moderated by Martine Olivi and Guillaume Urvoy-Keller, both researchers from Université Côte d'Azur.
Pr. Bugeau's presentation and the round-table will be in French, with the option of English subtitles.