• Présentation
    • Notre association
      • Jobs
  • Nos productions
    • Briefs IAR
    • Position Paper
    • Questionnaire de Dartmouth
    • Les Masterclass de l’IA Responsable
    • AI ACT DAY
      • AI ACT DAY 2023
      • AI ACT DAY 2022
    • IA responsable
      • White Paper Biais in AI
      • Briefs de l’IA responsable
        • Brief de l’IA responsable #4 – Gérer les biais des modèles d’IA gen
        • Brief de l’IA responsable #3 – IA générative et transparence
        • Brief de l’IA Responsable #2 – Sûreté, sécurité & confidentialité
        • Brief de l’IA Responsable #1 – Environnement
      • Ateliers IA responsable
      • Fiches pratiques IA responsable
      • Guide IA de confiance
      • Kit de mise en conformité
      • Boîte à outils IA responsable
      • Le Livre Blanc : un manifeste autour de l’engagement collectif
      • Le rapport IA et les métiers
    • Observatoire de l’IA responsable
      • Observatoire de l’IA responsable 2025
      • Baromètre 2023
      • Baromètre 2020
      • Baromètre 2019
      • Baromètre 2018
    • Environnement
      • Green AI
      • AI for Green
    • Education
      • Formation Biais de genre
      • IA et Inclusion
      • Métiers et formations
        • Formations en IA
        • L’IA et les métiers
      • explor’ia
      • Charte acculturation
    • Evènements
      • AI ACT DAY
      • AI for prosperity
      • explor’ia
      • Conférence annuelle 2019
    • Santé
      • Fresque IA responsable et santé
      • Ateliers IA et santé
      • Plaidoyer IA & Santé
      • 5 propositions pour redonner confiance dans les algorithmes non-biaisés pour la santé
  • Nos membres
    • Témoignages
    • Devenez membre
  • Nous rejoindre
  • Observatoire IA responsable
  • Briefs IAR
  • Formation biais
  • Actualités
  • English

  • Présentation
    • Notre association
      • Jobs
  • Nos productions
    • Briefs IAR
    • Position Paper
    • Questionnaire de Dartmouth
    • Les Masterclass de l’IA Responsable
    • AI ACT DAY
      • AI ACT DAY 2023
      • AI ACT DAY 2022
    • IA responsable
      • White Paper Biais in AI
      • Briefs de l’IA responsable
        • Brief de l’IA responsable #4 – Gérer les biais des modèles d’IA gen
        • Brief de l’IA responsable #3 – IA générative et transparence
        • Brief de l’IA Responsable #2 – Sûreté, sécurité & confidentialité
        • Brief de l’IA Responsable #1 – Environnement
      • Ateliers IA responsable
      • Fiches pratiques IA responsable
      • Guide IA de confiance
      • Kit de mise en conformité
      • Boîte à outils IA responsable
      • Le Livre Blanc : un manifeste autour de l’engagement collectif
      • Le rapport IA et les métiers
    • Observatoire de l’IA responsable
      • Observatoire de l’IA responsable 2025
      • Baromètre 2023
      • Baromètre 2020
      • Baromètre 2019
      • Baromètre 2018
    • Environnement
      • Green AI
      • AI for Green
    • Education
      • Formation Biais de genre
      • IA et Inclusion
      • Métiers et formations
        • Formations en IA
        • L’IA et les métiers
      • explor’ia
      • Charte acculturation
    • Evènements
      • AI ACT DAY
      • AI for prosperity
      • explor’ia
      • Conférence annuelle 2019
    • Santé
      • Fresque IA responsable et santé
      • Ateliers IA et santé
      • Plaidoyer IA & Santé
      • 5 propositions pour redonner confiance dans les algorithmes non-biaisés pour la santé
  • Nos membres
    • Témoignages
    • Devenez membre
  • Nous rejoindre
  • Observatoire IA responsable
  • Briefs IAR
  • Formation biais
  • Actualités
  • English
    10

  • Présentation
    • Notre association
      • Jobs
  • Nos productions
    • Briefs IAR
    • Position Paper
    • Questionnaire de Dartmouth
    • Les Masterclass de l’IA Responsable
    • AI ACT DAY
      • AI ACT DAY 2023
      • AI ACT DAY 2022
    • IA responsable
      • White Paper Biais in AI
      • Briefs de l’IA responsable
        • Brief de l’IA responsable #4 – Gérer les biais des modèles d’IA gen
        • Brief de l’IA responsable #3 – IA générative et transparence
        • Brief de l’IA Responsable #2 – Sûreté, sécurité & confidentialité
        • Brief de l’IA Responsable #1 – Environnement
      • Ateliers IA responsable
      • Fiches pratiques IA responsable
      • Guide IA de confiance
      • Kit de mise en conformité
      • Boîte à outils IA responsable
      • Le Livre Blanc : un manifeste autour de l’engagement collectif
      • Le rapport IA et les métiers
    • Observatoire de l’IA responsable
      • Observatoire de l’IA responsable 2025
      • Baromètre 2023
      • Baromètre 2020
      • Baromètre 2019
      • Baromètre 2018
    • Environnement
      • Green AI
      • AI for Green
    • Education
      • Formation Biais de genre
      • IA et Inclusion
      • Métiers et formations
        • Formations en IA
        • L’IA et les métiers
      • explor’ia
      • Charte acculturation
    • Evènements
      • AI ACT DAY
      • AI for prosperity
      • explor’ia
      • Conférence annuelle 2019
    • Santé
      • Fresque IA responsable et santé
      • Ateliers IA et santé
      • Plaidoyer IA & Santé
      • 5 propositions pour redonner confiance dans les algorithmes non-biaisés pour la santé
  • Nos membres
    • Témoignages
    • Devenez membre
  • Nous rejoindre
  • Observatoire IA responsable
  • Briefs IAR
  • Formation biais
  • Actualités
  • English

Les métiers dans l'IA

Métier test

test

Diplôme nécessaire : master Salaire brut débutant : Non renseigné
Copyright © 2018 Impact AI
  • Assign a Menu
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies.
Cookie settingsACCEPT
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
SAVE & ACCEPT