FC9BD17

Stage inter entreprise

Prix 2020 :

1 500 €

Comment financer sa formation ?

Durée :

2 jour(s)

Prochaine(s) session(s)

  • Du 30/11/2020 au 01/12/2020 à Paris - 1 500 €

Présentation

L’objectif de la formation est de doter des juristes ou responsables des risques ou de la conformité n’ayant pas de formation avancée en mathématiques, statistiques ou informatique des outils nécessaires à la compréhension des technologies d’intelligence artificielle déployées dans leur entreprise, afin de mieux en saisir les implications juridiques et éthiques. Les principes fondamentaux à l’œuvre dans la conception et le fonctionnement des outils de prédiction et d’aide à la décision de plus en plus prégnants dans la sphère économique seront ainsi rendus accessibles et permettront au juriste de pouvoir utilement participer à des projets reposant sur l’intelligence artificielle et d’échanger avec des spécialistes de la data science ou du big data. La formation abordera les problématiques juridiques par l’exemple en présentant les principales applications de l’intelligence artificielle et les risques et questions qu’elle suscite. Les concepts de traitement des données personnelles, loyauté, biais, discrimination, explicabilité et responsabilité feront l’objet d’une attention particulière. Les participants travailleront sur des cas concrets et seront en mesure, à l’issue de la formation, de définir une politique de gouvernance de l’intelligence artificielle pour leur entreprise.

Objectifs

  • Prendre en compte l’histoire et le contexte du développement de l’intelligence artificielle
  • Identifier la terminologie employée
  • Utiliser les fondamentaux de la technologie
  • Identifier les principaux enjeux juridiques et éthiques de l’intelligence artificielle
  • Lister les questions juridiques à se poser lors de la construction d’un projet
  • Définir une politique de gouvernance des outils d’intelligence artificielle
  • Programme

    Histoire et contexte de développement de l’intelligence artificielle

    Terminologie

    • Big data
    • Intelligence artificielle faible/intelligence artificielle forte
    • Intelligence artificielle/apprentissage-machine
    • Classification/régression
    • Données structurées/données non structurées
    • Apprentissage supervisé/apprentissage non supervisé/apprentissage par renforcement
    • Variables/vecteurs/étiquettes


    Principaux modèles d’apprentissage : approche pour non scientifiques

    • Régression linéaire
    • Régression logistique
    • Arbres de décision
    • Forêt aléatoire d’arbres
    • Réseaux de neurones
    • Apprentissage par renforcement


    Etapes de construction d’un modèle et points de vigilance juridiques et éthiques

    Quelques cas d’usage de l’intelligence artificielle

    • Automatisation des processus
    • Reconnaissance de caractères
    • Traitement du langage naturel
    • Chatbots/agents conversationnels
    • Apprentissage-machine


    L’intelligence artificielle abordée par l’expérimentation : cas pratique pour non scientifique

    Les principales problématiques juridiques et éthiques de l’intelligence artificielle

    • Traitement des données personnelles
    • Loyauté, biais et discrimination
    • Responsabilité
    • Explicabilité


    Cadre réglementaire actuel et orientations sur le cadre à venir. Principes et chartes éthiques internationales.

    Quelques cas d’usage et les problématiques juridiques qu’ils soulèvent

    • Credit scoring
    • Reconnaissance faciale
    • Conseil en investissement
    • Conformité (lutte contre la fraude et l’anti-blanchiment)


    Définir une politique de gouvernance des outils d’intelligence artificielle

    • Cartographie des risques liés à l’intelligence artificielle
    • Intégration de l’éthique « by design »
    • Création d’un comité de gouvernance de l’intelligence artificielle et nomination d’un dirigeant responsable
    • Réalisation d’audits
    • Formalisation du processus par l’établissement de règles internes écrites
  • Modalités pédagogiques

    Les enseignants privilégient une approche interactive (dialogue socratique) et les études de cas, avec un niveau de participation élevé des étudiants.  Les enseignements seront en français, mais l’anglais sera très présent.

  • Public cible et prérequis

    Cette formation s’adresse aux avocats, juristes, responsables et membres des équipes risques ou conformité.

    Aucun prérequis en matière scientifique n’est requis, l’objectif de la formation étant de présenter de façon intuitive la technologie.

  • Responsables

    • Winston MAXWELL

      Directeur d’études en droit et numérique à Telecom Paris. Il coordonne un groupe multidisciplinaire d’enseignants chercheurs travaillant sur l’éthique de l’IA. Il est ancien avocat associé, notamment chez Hogan Lovells. En 2019, il a été désigné « avocat de l’année » dans deux matières distinctes : en protection des données personnelles et en droit des télécommunications. Il fut par ailleurs membre de la commission de réflexion sur le droit et les libertés à l’âge du numérique à l’assemblée nationale, ainsi que membre expert du CSA Lab.

    • Ons JELASSI BEN ATALLAH

      Enseignant-Chercheur à Télécom Paris, elle est également consultante en métrologie des réseaux auprès de grandes entreprises pour lesquelles elle effectue des missions d'audit et d'expertise. Ses travaux de recherche actuels, au sein du département "Image, Données et Signal" portent sur le passage à l'échelle des algorithmes d'apprentissage statistique.

    • Xavier VAMPARYS

      Diplômé de l’Essec, de l’Université Columbia et du Centre des Hautes Études d’Assurances (Paris Dauphine), Xavier Vamparys a exercé comme avocat aux barreaux de Paris et New York avant de rejoindre le secteur de la finance. Il est aujourd’hui chargé de mission IA auprès de CNP Assurances, et chercheur invité à Télécom Paris Institut Polytechnique de Paris.

Prochaine(s) session(s)

  • Du 30/11/2020 au 01/12/2020 à Paris - 1 500 €