Partielo | Créer ta fiche de révision en ligne rapidement
Post-Bac
2

Artificial intelligence

Human-centered AI (HCAI)

HCAI
L’Human-Centered AI (HCAI) est une approche visant à concevoir des systèmes d’IA qui soutiennent l’autonomie humaine, encouragent la créativité, clarifient la responsabilité et facilitent la participation sociale (Shneiderman, 2020a, 2020b). Cette approche met également en avant des principes éthiques tels que la protection de la vie privée, la sécurité, la justice sociale et les droits humains.

Principes du HCAI

Le cadre HCAI repose sur plusieurs axes essentiels :

1. Équilibre entre contrôle humain et automatisation

- L’objectif est d’atteindre un haut niveau de contrôle humain tout en maximisant l’automatisation pour améliorer la performance humaine.

- Le design doit permettre aux utilisateurs de comprendre l’état du système, les choix disponibles et les conséquences des erreurs.


2. Définition des niveaux de contrôle appropriés

- Il est crucial de déterminer quand l’intervention humaine est nécessaire et quand l’automatisation est préférable pour une action rapide et efficace.

- Un excès de contrôle humain ou de contrôle automatisé peut poser des risques (ex. : surcharge cognitive ou décisions automatisées biaisées).


3. Applications adaptées à chaque domaine

- Applications grand public et professionnelles : Systèmes de recommandations, publicité, médias sociaux, moteurs de recherche.

- Applications à fort enjeu : IA médicale, juridique, environnementale ou financière, avec des bénéfices et risques significatifs.

- Applications critiques pour la vie humaine : IA dans les voitures autonomes, l’aviation, le militaire, les pacemakers ou les unités de soins intensifs.

Différences between HCAI and Plain AI

Plain AI
L’IA classique (« Plain AI ») se concentre sur la performance des algorithmes et l’autonomie des machines, tandis que l’IA centrée sur l’humain (HCAI) place l’utilisateur au cœur du processus et vise à renforcer ses capacités plutôt qu’à le remplacer (Shneiderman, 2020).

Principales différences

Objectif

  • IA classique : Vise l’automatisation des tâches et, dans certains cas, le remplacement des humains.
  • HCAI : Complète et améliore les capacités humaines en soutenant la prise de décision et en optimisant les interactions homme-machine.

Transparence et Explicabilité

  • IA classique : Met souvent l’accent sur la performance technique sans forcément garantir une compréhension claire du fonctionnement du système.
  • HCAI : Priorise l’explicabilité et la compréhension des processus d’IA par les utilisateurs afin de renforcer la confiance et l’adoption.

Considérations Éthiques

  • IA classique : Se focalise avant tout sur l’efficacité et l’optimisation des algorithmes, sans toujours prendre en compte les aspects éthiques et sociaux.
  • HCAI : Intègre des valeurs humaines telles que l’équité, la transparence, la protection de la vie privée et la responsabilité.

Collaboration vs. Remplacement

  • IA classique : Peut chercher à remplacer certaines tâches humaines pour améliorer l’efficacité.
  • HCAI : Favorise une collaboration intelligente entre humains et machines, où l’IA agit comme un assistant intelligent plutôt qu’un substitut.


HCAI tree fresh idea

A retenir :

1. Haut niveau de contrôle humain ET haut niveau d’automatisation

Contrairement à l’idée que l’automatisation réduit nécessairement le contrôle humain, le cadre HCAI (Shneiderman, 2020a) montre qu’il est possible de combiner automatisation avancée et contrôle humain.

✅ Exemples :

  • Appareils du quotidien : Thermostats intelligents, ascenseurs, fours auto-nettoyants, lave-vaisselles.
  • Applications critiques : Voitures hautement automatisées, dispositifs médicaux comme les pompes à perfusion contrôlées par les patients.

2. Passer de l'imitation humaine à l’autonomisation des individus

L’objectif de l’HCAI n’est pas de créer des machines imitant les humains, mais de développer des outils puissants qui améliorent les capacités humaines.

🔄 Changement de perspective :

  • Éviter les métaphores de “coéquipiers intelligents” qui insinuent une autonomie excessive des IA.
  • Favoriser l’image d’outils avancés conçus pour aider et renforcer les compétences humaines (ex. systèmes télé-opérés).

3. Une structure de gouvernance à trois niveaux

Pour garantir un développement fiable et éthique de l’IA, le papier propose un modèle de gouvernance en trois niveaux:

1️⃣ Développement logiciel → Renforcer la fiabilité des systèmes en améliorant la conception et les tests.

2️⃣ Culture organisationnelle → Sensibiliser les managers à l'importance de la sécurité et de la responsabilité dans l’utilisation de l’IA.

3️⃣ Certification et régulation → Mettre en place des normes industrielles pour garantir la transparence et la fiabilité des systèmes HCAI.

Types of explainability
Explainability is crucial for human-centered AI because it helps users trust AI decisions. ● Justification. Si les utilisateurs peuvent comprendre comment et pourquoi les systèmes d'IA font certaines recommandations ou décisions, ils sont plus susceptibles de s'y fier. ● Défis. Les systèmes d'IA avancés, tels que les modèles d'apprentissage en profondeur, fonctionnent souvent de manière qui ne sont pas facilement interprétable par les humains.

HCAI Framework

Le cadre HCAI (Human-Centered AI) peut être appliqué à différents stades du développement et du déploiement des systèmes d’intelligence artificielle afin de garantir qu’ils respectent les valeurs humaines et les besoins sociétaux.


1. Conception et Développement

🎯 Objectif : Créer des systèmes IA à la fois performants, transparents, conviviaux et éthiques.

✅ Application :

  • Prioriser la sécurité et l’autonomie des utilisateurs.
  • Concevoir des interfaces explicables et des modèles réduisant les risques de biais.
  • Intégrer des mécanismes de supervision humaine dans la prise de décision IA.

2. Évaluation et Tests

🎯 Objectif : Vérifier la fiabilité, l’équité et la transparence des systèmes IA avant leur mise en service.

✅ Application :

  • Détecter et atténuer les biais via des tests sur divers groupes d’utilisateurs.
  • S’assurer que les décisions de l’IA sont explicables et cohérentes.
  • Évaluer la robustesse des systèmes pour éviter les dérives éthiques.

3. Collaboration Humain-IA

🎯 Objectif : Faire de l’IA un outil d’assistance, plutôt qu’un substitut, notamment dans les secteurs sensibles comme la santé ou l’éducation.

✅ Application :

  • En médecine, l’IA aide à interpréter des scans médicaux mais le diagnostic final reste sous contrôle humain.
  • Dans l’éducation, l’IA personnalise l’apprentissage, mais l’enseignant garde un rôle central dans la pédagogie.
  • En entreprise, les assistants IA (ex. chatbots, outils d’aide à la décision) améliorent l’efficacité mais ne remplacent pas l’expertise humaine.

4. Gouvernance et Politiques de l’IA

🎯 Objectif : Mettre en place des régulations et des normes éthiques pour encadrer l’usage de l’IA.

✅ Application :

  • Élaborer des chartes éthiques pour protéger les droits des utilisateurs.
  • Définir des normes de transparence et d’explicabilité des modèles IA.
  • Encourager une régulation proactive pour éviter les abus et garantir un usage responsable de l’IA.

AI limitations and myths

L’intelligence artificielle présente des avancées majeures, mais elle comporte aussi des limites, des idées reçues et des enjeux éthiques qu’il est essentiel de comprendre pour une utilisation responsable.


1. Limites de l’IA

L’IA, en particulier les techniques d’apprentissage automatique (ML) et d’apprentissage profond (DL), présente plusieurs contraintes.

Une première limite est son manque de généralisation. Les modèles d’IA sont très performants sur des tâches spécifiques, mais ils ont du mal à s’adapter à de nouveaux contextes sans être réentraînés. Par exemple, une IA entraînée pour analyser des radiographies peut ne pas fonctionner aussi bien sur des images prises avec un équipement différent.

L’opacité des modèles est une autre limite importante. Les modèles complexes, notamment les réseaux de neurones profonds, fonctionnent souvent comme des « boîtes noires ». Il est difficile de comprendre comment ils arrivent à leurs conclusions, ce qui pose un problème de confiance, notamment dans des domaines critiques comme la santé ou la justice.

L’IA est aussi extrêmement dépendante des données. Elle nécessite de grandes quantités de données de qualité pour être efficace. Si ces données sont biaisées ou incomplètes, les décisions de l’IA peuvent être erronées ou injustes.

Les préoccupations éthiques et les biais sont également un défi majeur. L’IA apprend à partir de données historiques, ce qui peut entraîner la reproduction et l’amplification de discriminations existantes. Par exemple, un algorithme de recrutement basé sur des données passées pourrait privilégier certains profils au détriment d’autres, renforçant ainsi des inégalités.

Enfin, l’IA manque d’adaptabilité. Contrairement aux humains, elle ne peut pas apprendre rapidement à partir de quelques exemples et a besoin d’un réentraînement régulier pour s’adapter aux évolutions de son environnement.


2. Mythes sur l’IA

Un premier mythe répandu est que l’IA pense comme un humain. En réalité, l’IA ne fait qu’analyser des données et détecter des schémas sans véritable compréhension ni raisonnement.

Un autre mythe est que l’IA va remplacer tous les emplois. Si certaines tâches sont automatisées, l’IA est surtout un outil qui vient en aide aux humains plutôt qu’un remplaçant total. Elle modifie le marché du travail en demandant de nouvelles compétences plutôt que d’éliminer complètement des professions.

Il est aussi faux de croire que l’IA est toujours objective. Comme elle est entraînée sur des données humaines, elle peut refléter et amplifier des biais existants. Sans un contrôle rigoureux, ses décisions peuvent être injustes ou discriminatoires.


3. IA et Société : Sécurité, Fiabilité et Confiance

Pour rendre l’IA plus fiable, il est essentiel d’adopter de bonnes pratiques techniques, comme des audits réguliers et des tests approfondis avant son déploiement. L’explicabilité des décisions prises par l’IA est également un élément clé pour garantir sa transparence et renforcer la confiance des utilisateurs.

La sécurité de l’IA repose sur des stratégies de gestion efficaces, comme la mise en place de comités d’éthique et de processus de vérification. Cela permet d’identifier les erreurs potentielles et d’améliorer en continu les performances des systèmes.

La confiance dans l’IA passe par la mise en place d’organismes de supervision indépendants. Des réglementations claires et des certifications peuvent garantir que l’IA est utilisée de manière responsable et éthique.


4. L’importance de la Collaboration Interdisciplinaire

Le développement de l’IA ne doit pas être uniquement entre les mains des ingénieurs et des informaticiens. Il est crucial d’impliquer des experts de divers domaines comme l’éthique, la psychologie et le droit.

Cette approche permet de concevoir des systèmes d’IA qui prennent en compte les besoins humains et les impacts sociaux. Par exemple, un cadre réglementaire bien conçu peut aider à limiter les biais et garantir une utilisation équitable de l’IA.


5. Enjeux Éthiques et Sociaux de l’IA

L’IA soulève plusieurs préoccupations éthiques, notamment en matière de biais, de protection de la vie privée et d’inégalités.

L’un des principaux problèmes est la discrimination involontaire. Pour limiter cela, il est essentiel de développer des algorithmes équitables et d’entraîner les IA sur des bases de données diversifiées.

La protection des données personnelles est un autre enjeu majeur. Il est nécessaire de garantir la transparence sur l’utilisation des données et de donner aux utilisateurs un contrôle sur leurs informations.

Enfin, il est crucial d’impliquer les parties prenantes, y compris les utilisateurs finaux, dans la conception des systèmes d’IA. Cela permet d’anticiper les risques et d’adapter les technologies aux besoins réels de la société.

Post-Bac
2

Artificial intelligence

Human-centered AI (HCAI)

HCAI
L’Human-Centered AI (HCAI) est une approche visant à concevoir des systèmes d’IA qui soutiennent l’autonomie humaine, encouragent la créativité, clarifient la responsabilité et facilitent la participation sociale (Shneiderman, 2020a, 2020b). Cette approche met également en avant des principes éthiques tels que la protection de la vie privée, la sécurité, la justice sociale et les droits humains.

Principes du HCAI

Le cadre HCAI repose sur plusieurs axes essentiels :

1. Équilibre entre contrôle humain et automatisation

- L’objectif est d’atteindre un haut niveau de contrôle humain tout en maximisant l’automatisation pour améliorer la performance humaine.

- Le design doit permettre aux utilisateurs de comprendre l’état du système, les choix disponibles et les conséquences des erreurs.


2. Définition des niveaux de contrôle appropriés

- Il est crucial de déterminer quand l’intervention humaine est nécessaire et quand l’automatisation est préférable pour une action rapide et efficace.

- Un excès de contrôle humain ou de contrôle automatisé peut poser des risques (ex. : surcharge cognitive ou décisions automatisées biaisées).


3. Applications adaptées à chaque domaine

- Applications grand public et professionnelles : Systèmes de recommandations, publicité, médias sociaux, moteurs de recherche.

- Applications à fort enjeu : IA médicale, juridique, environnementale ou financière, avec des bénéfices et risques significatifs.

- Applications critiques pour la vie humaine : IA dans les voitures autonomes, l’aviation, le militaire, les pacemakers ou les unités de soins intensifs.

Différences between HCAI and Plain AI

Plain AI
L’IA classique (« Plain AI ») se concentre sur la performance des algorithmes et l’autonomie des machines, tandis que l’IA centrée sur l’humain (HCAI) place l’utilisateur au cœur du processus et vise à renforcer ses capacités plutôt qu’à le remplacer (Shneiderman, 2020).

Principales différences

Objectif

  • IA classique : Vise l’automatisation des tâches et, dans certains cas, le remplacement des humains.
  • HCAI : Complète et améliore les capacités humaines en soutenant la prise de décision et en optimisant les interactions homme-machine.

Transparence et Explicabilité

  • IA classique : Met souvent l’accent sur la performance technique sans forcément garantir une compréhension claire du fonctionnement du système.
  • HCAI : Priorise l’explicabilité et la compréhension des processus d’IA par les utilisateurs afin de renforcer la confiance et l’adoption.

Considérations Éthiques

  • IA classique : Se focalise avant tout sur l’efficacité et l’optimisation des algorithmes, sans toujours prendre en compte les aspects éthiques et sociaux.
  • HCAI : Intègre des valeurs humaines telles que l’équité, la transparence, la protection de la vie privée et la responsabilité.

Collaboration vs. Remplacement

  • IA classique : Peut chercher à remplacer certaines tâches humaines pour améliorer l’efficacité.
  • HCAI : Favorise une collaboration intelligente entre humains et machines, où l’IA agit comme un assistant intelligent plutôt qu’un substitut.


HCAI tree fresh idea

A retenir :

1. Haut niveau de contrôle humain ET haut niveau d’automatisation

Contrairement à l’idée que l’automatisation réduit nécessairement le contrôle humain, le cadre HCAI (Shneiderman, 2020a) montre qu’il est possible de combiner automatisation avancée et contrôle humain.

✅ Exemples :

  • Appareils du quotidien : Thermostats intelligents, ascenseurs, fours auto-nettoyants, lave-vaisselles.
  • Applications critiques : Voitures hautement automatisées, dispositifs médicaux comme les pompes à perfusion contrôlées par les patients.

2. Passer de l'imitation humaine à l’autonomisation des individus

L’objectif de l’HCAI n’est pas de créer des machines imitant les humains, mais de développer des outils puissants qui améliorent les capacités humaines.

🔄 Changement de perspective :

  • Éviter les métaphores de “coéquipiers intelligents” qui insinuent une autonomie excessive des IA.
  • Favoriser l’image d’outils avancés conçus pour aider et renforcer les compétences humaines (ex. systèmes télé-opérés).

3. Une structure de gouvernance à trois niveaux

Pour garantir un développement fiable et éthique de l’IA, le papier propose un modèle de gouvernance en trois niveaux:

1️⃣ Développement logiciel → Renforcer la fiabilité des systèmes en améliorant la conception et les tests.

2️⃣ Culture organisationnelle → Sensibiliser les managers à l'importance de la sécurité et de la responsabilité dans l’utilisation de l’IA.

3️⃣ Certification et régulation → Mettre en place des normes industrielles pour garantir la transparence et la fiabilité des systèmes HCAI.

Types of explainability
Explainability is crucial for human-centered AI because it helps users trust AI decisions. ● Justification. Si les utilisateurs peuvent comprendre comment et pourquoi les systèmes d'IA font certaines recommandations ou décisions, ils sont plus susceptibles de s'y fier. ● Défis. Les systèmes d'IA avancés, tels que les modèles d'apprentissage en profondeur, fonctionnent souvent de manière qui ne sont pas facilement interprétable par les humains.

HCAI Framework

Le cadre HCAI (Human-Centered AI) peut être appliqué à différents stades du développement et du déploiement des systèmes d’intelligence artificielle afin de garantir qu’ils respectent les valeurs humaines et les besoins sociétaux.


1. Conception et Développement

🎯 Objectif : Créer des systèmes IA à la fois performants, transparents, conviviaux et éthiques.

✅ Application :

  • Prioriser la sécurité et l’autonomie des utilisateurs.
  • Concevoir des interfaces explicables et des modèles réduisant les risques de biais.
  • Intégrer des mécanismes de supervision humaine dans la prise de décision IA.

2. Évaluation et Tests

🎯 Objectif : Vérifier la fiabilité, l’équité et la transparence des systèmes IA avant leur mise en service.

✅ Application :

  • Détecter et atténuer les biais via des tests sur divers groupes d’utilisateurs.
  • S’assurer que les décisions de l’IA sont explicables et cohérentes.
  • Évaluer la robustesse des systèmes pour éviter les dérives éthiques.

3. Collaboration Humain-IA

🎯 Objectif : Faire de l’IA un outil d’assistance, plutôt qu’un substitut, notamment dans les secteurs sensibles comme la santé ou l’éducation.

✅ Application :

  • En médecine, l’IA aide à interpréter des scans médicaux mais le diagnostic final reste sous contrôle humain.
  • Dans l’éducation, l’IA personnalise l’apprentissage, mais l’enseignant garde un rôle central dans la pédagogie.
  • En entreprise, les assistants IA (ex. chatbots, outils d’aide à la décision) améliorent l’efficacité mais ne remplacent pas l’expertise humaine.

4. Gouvernance et Politiques de l’IA

🎯 Objectif : Mettre en place des régulations et des normes éthiques pour encadrer l’usage de l’IA.

✅ Application :

  • Élaborer des chartes éthiques pour protéger les droits des utilisateurs.
  • Définir des normes de transparence et d’explicabilité des modèles IA.
  • Encourager une régulation proactive pour éviter les abus et garantir un usage responsable de l’IA.

AI limitations and myths

L’intelligence artificielle présente des avancées majeures, mais elle comporte aussi des limites, des idées reçues et des enjeux éthiques qu’il est essentiel de comprendre pour une utilisation responsable.


1. Limites de l’IA

L’IA, en particulier les techniques d’apprentissage automatique (ML) et d’apprentissage profond (DL), présente plusieurs contraintes.

Une première limite est son manque de généralisation. Les modèles d’IA sont très performants sur des tâches spécifiques, mais ils ont du mal à s’adapter à de nouveaux contextes sans être réentraînés. Par exemple, une IA entraînée pour analyser des radiographies peut ne pas fonctionner aussi bien sur des images prises avec un équipement différent.

L’opacité des modèles est une autre limite importante. Les modèles complexes, notamment les réseaux de neurones profonds, fonctionnent souvent comme des « boîtes noires ». Il est difficile de comprendre comment ils arrivent à leurs conclusions, ce qui pose un problème de confiance, notamment dans des domaines critiques comme la santé ou la justice.

L’IA est aussi extrêmement dépendante des données. Elle nécessite de grandes quantités de données de qualité pour être efficace. Si ces données sont biaisées ou incomplètes, les décisions de l’IA peuvent être erronées ou injustes.

Les préoccupations éthiques et les biais sont également un défi majeur. L’IA apprend à partir de données historiques, ce qui peut entraîner la reproduction et l’amplification de discriminations existantes. Par exemple, un algorithme de recrutement basé sur des données passées pourrait privilégier certains profils au détriment d’autres, renforçant ainsi des inégalités.

Enfin, l’IA manque d’adaptabilité. Contrairement aux humains, elle ne peut pas apprendre rapidement à partir de quelques exemples et a besoin d’un réentraînement régulier pour s’adapter aux évolutions de son environnement.


2. Mythes sur l’IA

Un premier mythe répandu est que l’IA pense comme un humain. En réalité, l’IA ne fait qu’analyser des données et détecter des schémas sans véritable compréhension ni raisonnement.

Un autre mythe est que l’IA va remplacer tous les emplois. Si certaines tâches sont automatisées, l’IA est surtout un outil qui vient en aide aux humains plutôt qu’un remplaçant total. Elle modifie le marché du travail en demandant de nouvelles compétences plutôt que d’éliminer complètement des professions.

Il est aussi faux de croire que l’IA est toujours objective. Comme elle est entraînée sur des données humaines, elle peut refléter et amplifier des biais existants. Sans un contrôle rigoureux, ses décisions peuvent être injustes ou discriminatoires.


3. IA et Société : Sécurité, Fiabilité et Confiance

Pour rendre l’IA plus fiable, il est essentiel d’adopter de bonnes pratiques techniques, comme des audits réguliers et des tests approfondis avant son déploiement. L’explicabilité des décisions prises par l’IA est également un élément clé pour garantir sa transparence et renforcer la confiance des utilisateurs.

La sécurité de l’IA repose sur des stratégies de gestion efficaces, comme la mise en place de comités d’éthique et de processus de vérification. Cela permet d’identifier les erreurs potentielles et d’améliorer en continu les performances des systèmes.

La confiance dans l’IA passe par la mise en place d’organismes de supervision indépendants. Des réglementations claires et des certifications peuvent garantir que l’IA est utilisée de manière responsable et éthique.


4. L’importance de la Collaboration Interdisciplinaire

Le développement de l’IA ne doit pas être uniquement entre les mains des ingénieurs et des informaticiens. Il est crucial d’impliquer des experts de divers domaines comme l’éthique, la psychologie et le droit.

Cette approche permet de concevoir des systèmes d’IA qui prennent en compte les besoins humains et les impacts sociaux. Par exemple, un cadre réglementaire bien conçu peut aider à limiter les biais et garantir une utilisation équitable de l’IA.


5. Enjeux Éthiques et Sociaux de l’IA

L’IA soulève plusieurs préoccupations éthiques, notamment en matière de biais, de protection de la vie privée et d’inégalités.

L’un des principaux problèmes est la discrimination involontaire. Pour limiter cela, il est essentiel de développer des algorithmes équitables et d’entraîner les IA sur des bases de données diversifiées.

La protection des données personnelles est un autre enjeu majeur. Il est nécessaire de garantir la transparence sur l’utilisation des données et de donner aux utilisateurs un contrôle sur leurs informations.

Enfin, il est crucial d’impliquer les parties prenantes, y compris les utilisateurs finaux, dans la conception des systèmes d’IA. Cela permet d’anticiper les risques et d’adapter les technologies aux besoins réels de la société.

Retour

Actions

Actions