Il est certes difficile de résister à la tentation que représentent les possibilités illimitées et le niveau d’excellence sans pareil liés aux avancées rapides de l’intelligence artificielle (IA). Toutefois, il est judicieux de faire preuve d’une grande diligence au moment d’intégrer des technologies alimentées par l’IA aux systèmes de votre entreprise. D’autant plus que les organisations sont de plus en plus portées à faire cadrer leurs objectifs d’affaires avec les normes en matière d’IA responsable, non seulement par idéalisme, mais aussi par nécessité pour tirer pleinement parti du potentiel de cette technologie. Selon une étude menée par MIT Sloan et Boston Consulting Group (BCG) (en anglais seulement) auprès de 1 093 participants, qui comprenaient des cadres et des spécialistes de l’IA, 84 % des répondants estiment que l’IA responsable devrait être une priorité pour la haute direction d’une organisation. Pourtant, dans les faits, seulement 52 % des entreprises adoptent une politique ou un système de gouvernance conforme à ce principe. De surcroît, 79 % de ces entreprises ont admis que des problèmes liés à l’évolutivité et à la portée ont nui à la mise en œuvre de pratiques pertinentes.
Mais qu’est-ce qui ralentit l’intégration de pratiques d’utilisation responsable de l’IA à grande échelle? Le problème principal semble provenir d’une incompréhension de l’IA responsable, souvent confondu avec des concepts similaires comme l’IA éthique. En effet, 36 % des répondants ont indiqué que la nature évolutive des pratiques et leur manque de cohérence font partie des principaux obstacles à l’intégration. D’autres entreprises ont aussi mentionné la difficulté à trouver des talents et du personnel ayant de l’expertise en la matière (54 %), le manque de formation ou de connaissances (53 %), et, finalement, le fait que les décideurs au sein des entreprises n’accordent pas assez ou pas du tout d’importance à la gestion de l’IA responsable (43 %), notamment en raison d’un manque de financement ou de sensibilisation (43 %). En raison de la présence toujours plus imposante de l’IA et de son influence grandissante, la nécessité d’instaurer des politiques et des systèmes « responsables » est maintenant une évidence incontestable. Dans cette optique, nous allons explorer les rouages de l’IA responsable, plus précisément en nous intéressant aux méthodologies existantes et aux expériences de chefs de file chevronnés de ce domaine.
Qu’est-ce que l’IA responsable?
L’IA responsable est une approche qui vise à procéder au développement, à l’évaluation et à la mise en œuvre de systèmes d’IA qui, à la suite d’une évaluation, ont été considérés comme sûrs, fiables et responsables. Elle met de l’avant les aspects pratiques de l’utilisation de l’IA, tout en restant axée sur la mobilisation des parties prenantes et un processus d’opérationnalisation qui repose sur des mesures quantifiables et des indicateurs de rendement clés. L’IA responsable veille à ce que les technologies novatrices d’IA contribuent à générer des résultats bénéfiques et équitables.
L’IA éthique, quant à elle, s’articule autour des principes fondamentaux et moraux qui guident l’utilisation de l’IA. Elle obéit à des principes centrés sur l’humain, notamment l’équité, le bien-être, la prévention des préjugés et les conséquences éthiques à long terme. Même si ces deux concepts sont apparentés et souvent utilisés de manière interchangeable, l’IA responsable consiste en une approche plus proactive qui met en application des principes éthiques en matière d’IA.
L’importance des cadres d’IA responsable : 5 principes clés pour une mise en œuvre efficace
Dans le but de démontrer comment les pratiques d’IA responsable peuvent être appliquées efficacement par tous les types d’organisations, Microsoft a mis en place une norme sur l’IA responsable qui met de l’avant les principes fondamentaux ci-dessous. Ces principes soutiennent et renforcent le processus de création de solutions basées sur l’IA :
- Équité et inclusivité : il faut prendre soin de traiter chaque personne de manière équitable et éviter d’entretenir des préjugés par rapport à des groupes similaires. Par exemple, toutes les personnes qui ont des symptômes, des situations financières ou des qualifications professionnelles comparables doivent recevoir les mêmes recommandations en ce qui concerne des soins médicaux, des demandes de prêt ou des offres d’emploi.
- Fiabilité et sécurité : les systèmes d’IA doivent fonctionner de manière sécurisée, fiable et cohérente pour gagner la confiance des utilisateurs. Ils doivent fonctionner comme il se doit, gérer les situations inattendues et résister aux attaques malveillantes. Leur comportement et leur capacité à jongler avec diverses situations dépendent du niveau de rigueur des processus de conception et de test utilisés par les développeurs.
- Confidentialité et sécurité : les avancées réalisées dans le domaine de l’IA complexifient davantage la protection des données personnelles et professionnelles. Par conséquent, il est primordial de se consacrer en priorité aux mesures de sécurité et d’accès pour être en mesure de prendre des décisions éclairées et pertinentes. Les systèmes d’IA doivent favoriser la transparence afin de respecter les lois sur la protection des renseignements personnels dans le cadre de la collecte, de l’utilisation et du stockage de données. De plus, ils doivent donner aux consommateurs un certain contrôle quant à la façon dont leurs données sont utilisées.
- Transparence : le rôle des systèmes d’IA dans le processus décisionnel est aussi important que la perception des utilisateurs par rapport au processus qui a mené au résultat obtenu. Par exemple, les banques utilisent l’IA pour déterminer si une personne est solvable, et les entreprises font appel à l’IA pour déterminer quels candidats sont les plus compétents pour un poste à pourvoir. L’interprétabilité est donc une composante essentielle, puisqu’elle permet aux parties prenantes de mieux comprendre les fonctionnalités de l’IA. Elle les aide ainsi à résoudre des problèmes de rendement et d’équité, et à gérer des résultats inattendus.
- Responsabilité : les développeurs de systèmes d’IA doivent être responsables de leur fonctionnement. Les organisations doivent se baser sur les normes du secteur pour mettre en place des pratiques responsables. Ces pratiques servent à s’assurer que les systèmes d’IA n’ont pas le dernier mot en ce qui concerne des décisions qui ont une incidence sur la vie des gens. Elles aident également les humains à garder un niveau de contrôle élevé sur les systèmes d’IA hautement autonomes.
La plateforme Azure Machine Learning et son tableau de bord d’IA responsable offrent aux utilisateurs des outils d’analytique et d’évaluation, comme des fonctionnalités de débogage, pour améliorer le processus décisionnel basé sur les données. Par exemple, le tableau de bord peut aider les experts en science des données et les développeurs à comprendre les défaillances critiques d’un modèle et à repérer les sous-ensembles de données qui comportent les taux d’erreurs les plus élevés. Ils sont ainsi en mesure de cerner des occasions d’améliorations et de traiter de manière approfondie tout problème de fiabilité ou de sécurité.
Même si la norme sur l’IA responsable de Microsoft procure des lignes directrices solides pour le développement de cette technologie, il est recommandé de s’intéresser et d’avoir recours à d’autres cadres du domaine, notamment ceux des chefs de file du secteur de la technologie, pour dresser un tableau complet des bonnes pratiques.
En quoi l’IA responsable a-t-elle été bénéfique aux chefs de file et aux premières entreprises à l’adopter?
Les entreprises maintenant spécialistes de l’IA responsable ont exploré en détail les principes du domaine et le savoir-faire qui en découle. Quels constats ont-elles tirés de leur analyse? D’abord et avant tout, les chefs de file en matière d’utilisation responsable de l’IA (qui représentent 16 % des répondants de l’étude du MIT) reconnaissent que l’IA responsable comporte des obstacles sur le plan commercial (plus que sur le plan technique), et qu’elle nécessite d’investir beaucoup de temps pour mettre en place des programmes complets. En revanche, ils bénéficient de meilleurs produits et services et d’une rentabilité à long terme. En effet, 41 % des chefs de file en matière d’IA responsable en retirent des avantages commerciaux mesurables, et plus de la moitié se disent prêts à s’adapter au contexte réglementaire en constante évolution de l’IA.
Par ailleurs, plus de 77 % de ces chefs de file allouent une quantité importante de ressources à la formation, à l’attraction de talents et à la budgétisation, ce qui démontre qu’il est aussi particulièrement important pour les membres de la haute direction de disposer d’un programme d’IA responsable étoffé. Il est évident que les cadres supérieurs prennent part aux décisions entourant la mise en œuvre de pratiques pour assurer l’utilisation responsable de l’IA, étant donné que près de la moitié des chefs de file dans ce domaine affirment que les chefs de la direction participent activement à l’effort.
Les membres de la haute direction savent que les programmes d’IA responsable étoffés doivent tenir compte d’autres parties prenantes à l’extérieur de l’organisation. Ils incluent donc différents acteurs à tous les niveaux, soit en moyenne, 5,8 parties prenantes, dans leur cheminement vers des pratiques inclusives à grande échelle en matière d’IA. De nombreuses grandes entreprises intègrent l’IA responsable dans des initiatives axées sur la responsabilité sociale, et considèrent la société dans son ensemble comme l’une des principales parties prenantes. Pour ces organisations, les valeurs et les principes qui orientent l’adoption de comportements responsables sont appliqués dans l’ensemble de leurs technologies et de leurs systèmes.
Comment privilégier l’IA responsable pour assurer un rendement du capital investi dans le futur?
Le délai pour atteindre un seuil de rentabilité avec l’IA responsable, donc un taux de rendement du capital investi positif, est généralement de trois ans. Il faut agir le plus tôt possible, puisque les organisations doivent commencer à préparer les prochaines étapes pour se doter d’une expertise de premier ordre et mettre en place la formation nécessaire pour soutenir cette initiative. Les spécialistes de l’IA exhortent les chefs d’entreprises et les principales parties prenantes à favoriser l’essor de l’IA responsable plutôt que le simple développement de l’IA. Dans bien des cas, cette approche aide à atténuer les risques importants que comporte l’intensification des efforts liés à l’IA sans une supervision adéquate.
Alithya sait quelles précautions il faut prendre pour mettre en œuvre des solutions d’AI de la bonne façon. Nous offrons à nos clients un soutien global pour les aider à atteindre leurs objectifs en matière d’IA par l’entremise d’une approche réaliste fondée sur leurs valeurs et à adapter les pratiques responsables en fonction de leur marché. Notre objectif est de renforcer vos investissements en IA en vous donnant les outils nécessaires : les équipes et les talents appropriés, de même que l’expertise complémentaire.
Nous sommes un fournisseur mondial de services et de solutions de formation liés à l’environnement numérique, et forts de nos plus de 30 ans d’expérience, nous nous engageons à transformer la façon dont vous exploitez les technologies d’IA en y intégrant les principes de l’éthique et de la fiabilité afin de favoriser l’innovation et la création de produits qui sont d’abord et avant tout adaptés à l’humain.
Pour soutenir cette initiative, Alithya a élaboré un livre électronique détaillé sur la mise en œuvre de Copilot. Ce livre est conçu pour fournir une orientation aux parties prenantes dans le cadre de l’évaluation du niveau de préparation sur le plan technique. Il présente des stratégies essentielles relatives à la sécurité des données, aux données sensibles et à la protection des renseignements qui cadrent avec les pratiques responsables mises en lumière dans le présent article de blogue. Que vous soyez un membre de la direction, un chef d’entreprise ou un gestionnaire des TI, le livre électronique vous donne tous les outils pour rester à l’avant-garde des solutions d’IA tout en préservant l’intégrité de l’entreprise. Téléchargez le livre électronique dès maintenant (offert en anglais seulement) pour obtenir des renseignements pertinents et tirer pleinement parti de vos pratiques d’IA responsable. Votre entreprise profitera des avantages pendant plusieurs années à venir!