MacMusic  |  PcMusic  |  440 Software  |  440 Forums  |  440TV  |  Zicos
eacute
Recherche

[Algorithmique 2/6] Biaisé comme l'IA

mercredi 9 octobre 2024, 17:14 , par PC Inpact
Dans le deuxième épisode d’Algorithmique, Next reçoit l’informaticienne et spécialiste des sciences de l’éducation Isabelle Collet et la chercheuse en intelligence artificielle Raziye Buse Çetin.

Biais sexistes et racistes de ChatGPT, impossibilité, pour Midjourney ou Stable Diffusion, de représenter la diversité du monde, biais dans la promotion d’offres d’emploi sur les réseaux sociaux… Aussi performants qu’ils soient présentés, les systèmes algorithmiques commettent des erreurs, les modèles d’IA générative produisent des résultats biaisés, et cela crée chaque fois d’intenses débats sur ce que devraient être les bonnes représentations (si tant est qu’il existe des réponses fixes à ces questions).

Si elles sont rendues particulièrement évidentes par les errements de machines statistiques, ces questions de diversité des représentations sont loin d’être neuves dans le milieu informatique.

Pour en parler, Next a appelé Isabelle Collet, informaticienne, enseignante-chercheuse en sciences de l’éducation à l’Université de Genève et autrice de L’informatique a-t-elle un sexe? Hackers, mythes et réalité (L’Harmattan, 2006) et Les oubliées du numérique (Le Passeur, 2019), et Raziye Buse Çetin, chercheuse indépendante en intelligence artificielle, notamment collaboratrice d’AI Forensics.

Pour écouter « Biaisé comme l’IA », vous avez plusieurs options : le player en bas de cet article, ou sur toutes les bonnes applications de podcast (parmi lesquelles Deezer, Podcast Addict, Spotify et Apple Podcast).

Pour ne manquer aucun futur épisode d’Algorithmique et nous aider à atteindre un large public, abonnez-vous et abonnez vos proches dès aujourd’hui au fil audio de Next.

Ressources:

Peut-on corriger les biais des algorithmes?

Pourquoi dédier une journée à l’inclusion des femmes dans le numérique ?

En Suisse comme en France, l’enjeu d’attirer et maintenir les femmes dans la tech

Carrières en sciences : les stéréotypes de genre sont « une réalité alarmante »

Un ingénieur alerte contre des pratiques sexistes, Meta cherche à le faire démissionner

Electronic Tales, un projet pour combler le gap technique et culturel des développeurs en reconversion

IA : la majorité du travail du clic « à la française » externalisée à Madagascar

Le remplacement des travailleurs par l’IA, un récit peu nuancé

En Espagne, des algorithmes défectueux régissent la gestion des arrêts maladie

Comment les systèmes de recrutement automatisés cachent des profils qualifiés

Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

Crédits:

Algorithmique est un podcast de Mathilde Saliou produit par Next. Réalisation et mixage: Clarice Horn. Identité graphique: Flock. Rédaction en chef: Sébastien Gavois. Direction de la rédaction: Alexandre Laurent.

Musique: Oh the City – Computerized Synthesis of Happiness – Courtesy of Epidemic Sound / Ben Elson – 1983 – Courtesy of Epidemic Sound / Airae – All parts equal – Courtesy of Epidemic Sound / By Lotus – and Yos – Courtesy of Epidemic Sound / 369 – Dancing Pink Orbs – Courtesy of Epidemic Sound / Blue Saga – Silent Phrase – Courtesy of Epidemic Sound / 369 – Sweet Dreams, Sunray – Courtesy of Epidemic Sound / ELFL – The Flux Beneath it All – Courtesy of Epidemic Sound
https://pcinpact.com/podcast/algorithmique-2-6-biaise-comme-lia/

Voir aussi

News copyright owned by their original publishers | Copyright © 2004 - 2024 Zicos / 440Network
Date Actuelle
mer. 16 oct. - 14:28 CEST