Les ingénieurs en IA ont besoin de directives applicables pour l’implémentation de principes éthiques dans leurs solutions technologiques. Mais comment y arriver ? Dans cet article, nous prenons le cas du développement de l’intelligence artificielle explicable (XIA) comme point de départ. Sur le plan des mesures concrètes devant être intégrées à l’IA pour la rendre explicable, nous remettons en question l’approche universaliste. Nous proposons une méthodologie normative pour évaluer les mesures de la XIA adaptées à des contextes spécifiques. Cette approche intègre l’éthique dans le développement de l’IA, offrant ainsi une méthode pragmatique pour les ingénieurs, régulateurs et chercheurs en éthique.