Data Science, biais et éthique
Data Science, biais et éthique
Des algorithmes de reconnaissance faciale qui ne reconnaissent que les personnes de type caucasien, des algorithmes de reconnaissance vocale qui ne comprennent que les voix graves... Il faut « analyser les jeux de données en amont de façon à bien être sûr qu’ils ne sont pas biaisés. » Les biais de l’intelligence artificielle sont aussi le reflet d’un manque de diversité dans les équipes de développement d’IA. « Il faut assurer une mixité dans les équipes. »
L’éthique de l’intelligence artificielle est un sujet qui mobilise actuellement un grand nombre d’acteurs. Il s’agit de l’un des sujets phares de l’IA en ce moment. En effet, l’état de l’art a révélé des failles. Notamment, des algorithmes ont livré et livrent des résultats discriminatoires.
Mais de quoi parle-t-on exactement ? Est-ce un débat philosophique et théorique, une volonté de freiner l’innovation comme on le lit parfois, ou est-ce une réelle gageure à relever en matière d’IA ?
Un des aspects éthiques de l’IA largement médiatisé auprès du grand public est celui inhérent aux biais et c’est celui que nous abordons dans ce webinaire.
A propos de l'intervenante
Marie Langé a commencé sa carrière dans l’IT sur des sujets e-commerce. Elle est alumni de l'Executive Master Statistique & Big Data de Dauphine Executive Education, promotion 2019. A l'issue de sa formation, elle a créé AMASAI, cabinet de conseil en Data & IA (2019-2020). Depuis 2020, elle est responsable de l’offre Data chez Adone Conseil.