FC9BD16

Stage inter entreprise

Prix 2020 :

1 500 €

Comment financer sa formation ?

Durée :

2 jour(s)

Prochaine(s) session(s)

  • Du 02/03/2020 au 03/03/2020 à Paris - 1 500 €

Présentation

Destruction d’emplois, robots tueurs, véhicules autonomes, justice prédictive, l’intelligence artificielle (IA) génère des angoisses et appelle à un encadrement règlementaire pour garantir son caractère éthique.

Les enjeux éthiques de l’IA concernent une multitude de concepts différents. Tantôt il est question de la discrimination raciale d’un logiciel de recrutement; tantôt de l’avenir de l’humanité face à des robots plus intelligents que les humains. Aussi passionnantes soient-elles, les discussions sur la singularité technologique et l’avenir de l’humanité restent éloignées de la réalité de l’IA d’aujourd’hui. Les questions éthiques qui se posent aujourd’hui sont plus terre-à-terre : comment s’assurer qu’un algorithme qui recommande automatiquement des offres d’emplois ne discrimine pas certaines catégories de personnes? Comment construire un algorithme d’aide au diagnostic médical qui sache expliquer ses recommandations au médecin ? Comment s’assurer que le taux d’erreur d’un système de reconnaissance faciale sera équivalent quelle que soit la couleur de la peau identifiée ? Comment garantir que la victime d’un accident de la route impliquant un véhicule autonome soit toujours indemnisée ?

Derrière ces considérations opérationnelles se pose la question de l’IA éthique “by design”, à savoir la construction de solutions techniques et institutionnelles qui intègrent de la conception à l’usage des considérations éthiques dans les outils d’IA d’aujourd’hui, qu’ils soient déployés au sein de banques, de compagnies d’assurances, d’administrations, de police, de commerçants en ligne, ou de professions de santé.

Objectifs

  • Examiner les trois principaux problèmes éthiques et juridiques qui entourent les algorithmes: les biais algorithmiques, l’explicabilité et la responsabilité.
  • Identifier les enjeux sociétaux tels que l’impact de l’IA sur l’emploi et la démocratie.
  • Examiner les questions et les solutions techniques, de gouvernance et de régulation qui encadreront l’IA dans différents cas d’usage (santé, transport, finance, justice, défense, administration publique).
  • Distinguer les risques et les mesures de protection pour participer à l’élaboration d’une étude d’impact IA éthique.
  • Programme

    Introduction

    • En quoi l’IA est-elle différente d’autres transformations technologiques ?
    • Qu’entend-on par « éthique », et quelle est la différence entre l’éthique et le droit (RGPD, droits fondamentaux, devoir de loyauté, etc.) ?
    • Rappel des principaux types d’IA : symbolique, apprentissage machine, approches hybrides, leurs forces et faiblesses en matière éthique.
    • Les principaux accords et recommandations internationaux sur l’IA Ethique :
      • Ligne directrice du groupe d’experts (HLEG) de la Commission européenne
      • Recommandation OCDE
      • Principes Asilomar.

    IA et avenir du travail

    • IA et  « petites mains » qui étiquettent et nettoient les données
    • trappe Malthusienne, innovation, et effet de l’IA sur l’emploi.

    grands sujets pour l’IA éthique

    • biais algorithmiques
    • Explicabilité des algorithmes
    • Responsabilité

    Cas d’usage

    Cas d’usage 1 : voiture autonome

    Cas d’usage 2 : IA en tant qu’outil de recrutement

    Cas d’usage 3 : reconnaissance faciale dans les aéroports

    Comment concevoir une approche éthique « by design » ?

    • Solutions technologiques pour intégrer l’équité dans l’algorithme.
    • solutions de gouvernance 
      • étude d’impact
      • analyse de risques
      • prise de responsabilité interne (accountability)
      • supervision d’autorités de régulation.
  • Modalités pédagogiques

    Les enseignants privilégient une approche interactive (dialogue socratique) et les études de cas, avec un niveau de participation élevé des étudiants.  Les enseignements seront en français, mais l’anglais sera très présent.

  • Public cible et prérequis

    Cette formation s’adresse autant aux ingénieurs et data scientists qu’aux équipes juridiques et de conformité qui seront impliqués dans les projets IA susceptibles d’avoir un impact sur les personnes ou sur la société.

    Il est préférable d’avoir des connaissances en anglais et avoir eu une formation de base sur le RGPD.

  • Responsables

    • Winston MAXWELL

      Directeur d’études en droit et numérique à Telecom Paris. Il coordonne un groupe multidisciplinaire d’enseignants chercheurs travaillant sur l’éthique de l’IA. Il est ancien avocat associé, notamment chez Hogan Lovells. En 2019, il a été désigné « avocat de l’année » dans deux matières distinctes : en protection des données personnelles et en droit des télécommunications. Il fut par ailleurs membre de la commission de réflexion sur le droit et les libertés à l’âge du numérique à l’assemblée nationale, ainsi que membre expert du CSA Lab.

    • Valérie BEAUDOUIN

      professeure de Sociologie à Télécom Paris, spécialiste des usages du numérique. Elle a travaillé pendant 12 ans à la R&D d’Orange, a piloté de nombreuses expérimentations d’usages avant la mise sur le marché (accès internet via ADSL, communautés de téléspectateurs, relation client avec des automates vocaux…), étudié les transformations de la sociabilité et des pratiques avec le numérique, et dirigé pendant cinq ans le laboratoire des usages.

Prochaine(s) session(s)

  • Du 02/03/2020 au 03/03/2020 à Paris - 1 500 €