IA responsable: les apports de l’ESG pour le déploiement d’une IA socialement et environnementalement utile


IA responsable: les apports de l’ESG pour le déploiement d’une IA socialement et environnementalement utile
Aide à la lutte contre la déforestation, mais peut contribuer à augmenter les émissions de carbone de son entreprise. Tel est le paradoxe du recours à l’IA : utile pour accélérer l’atteinte des critères ESG tout en étant parfois contre-productif.

Un guide à l’intention des praticiens de l’ESG produit par le département de l’Industrie, de la Science et des Ressources du gouvernement australien décrit à renfort de cas pratiques, les usages possibles de l’IA dans les domaines couverts par l’ESG. Le rapport donne ensuite des pistes pour minimiser les externalités négatives.

L’IA peut permettre une atteinte plus rapide des objectifs ESG

Selon le document, l’IA permettrait d’accélérer l’atteinte des objectifs de développement responsable des Nations Unies (UNSDG). Une analyse partagée par une note du cabinet d’audit PWC (Ilana Golbin, Maria Luciana Axente et Ron Kinhhorn, 2022) qui défend l’utilisation d’une IA « for good » au service de ces mêmes objectifs.

En permettant « de tirer parti de quantités sans précédent de données générées actuellement sur les comportements, la santé humaine, le commerce, les communications, les migrations », l’IA offre de grandes perspectives. Le rapport du Département de l’industrie du gouvernement australien liste plusieurs types d’application de l’IA permettant de répondre à des enjeux ESG. Par exemple, dans le domaine de l’émission de gaz à effet de serre, l’utilisation de l’IA peut permettre de réduire les émissions en optimisant ressources et efficacité opérationnelle. Dans le domaine des droits de l’homme, l’IA peut être utilisée pour davantage automatiser des actions répétitives nécessitant peu de compétences et ainsi libérer l’homme de tâches sans valeur ajoutée.

Avoir recours à l’IA comporte des risques

Pour autant, la capacité de l’IA à manier quantité de data n’est pas sans risque, des menaces déjà largement documentées : biais, hallucinations, atteinte à la propriété intellectuelle, etc. Ces risques peuvent être le fait d’acteurs internes ou externes à l’entreprise. D’autres répercussions sont davantage méconnues et entrent directement en contradiction avec l’atteinte des critères ESG. Par exemple, pour les entreprises soucieuses de leur empreinte environnementale : l’utilisation de l’IA, en particulier de l’IA générative, peut causer une consommation accrue d’eau, d’électricité et de déchets électroniques.

Alors que l’IA peut être utilisée pour réduire l’émission de gaz à effet de serre, les nécessaires efforts de calcul et d’entraînement des modèles utilisent des quantités d’énergie considérables. Enfin, les biais de conception ou d’utilisation de l’IA peuvent amplifier les problèmes de diversité, égalité et inclusion. Le rapport donne l’exemple des institutions de crédits qui vont utiliser des algorithmes pour décider de l’allocation de crédits.

Les praticiens de l’ESG sont bien placés pour déployer l’IA

Les praticiens de l’ESG sont des candidats de choix pour la diffusion de l’IA à l’intérieur de l’entreprise. Les emplois dits ESG (environnementaux, sociaux et de gouvernance) qui incluent les notions de durabilité et la responsabilité sociale dans la performance de l’entreprise sont déjà occupés par des employés convaincus de la nécessité de mettre la technologie au service d’objectifs communs.

Rompus aux partenariats, à la collaboration, les praticiens ESG sont à même de nouer les collaborations transversales nécessaires au déploiement de l’IA, comme la mise en commun avec des data scientists, des développeurs et des équipes chargées des achats et de la supply.

Des recommandations concrètes en s’appuyant sur l’organisation existante

Pour autant ESG et IA sont conciliables, à condition de vouloir mettre en place une « IA responsable », « qui bénéficie aux individus, aux groupes et à la société dans son ensemble, tout en minimisant la survenue d’externalités négatives ».

Pour y parvenir, le rapport fait état de plusieurs recommandations. « Lancez-vous dans l’IA en vous appuyant sur vos fondations existantes », enjoint le rapport. Il s’agit par exemple de s’appuyer sur une gouvernance – déjà existante pour les praticiens de l’ESG – permettant de limiter les risques posés par l’IA. « Un design centré autour de l’humain, les théories du changement, le principe de « ne pas nuire » déjà mis en œuvre pour soutenir les objectifs environnementaux et sociétaux peut également servir l’IA.

Le rapport enjoint également de réfléchir en collectif au sein de l’entreprise pour mettre en lumière les liens croisés entre IA et ESG, les externalités positives et négatives. Il recommande également d’explorer les possibles indicateurs et métriques pour évaluer l’IA depuis une perspective orientée ESG. Comme le font déjà, parties prenantes, ONG et autres investisseurs.

Dans le même ordre d’idées, pour limiter les externalités posées par l’IA, la note du cabinet PWC propose de voir moins grand, en faisant appel à des modèles neuronaux plus petits qui requièrent des puissances de calcul moindres et permettent l’obtention de résultats plus faciles à exploiter. La même note recommande également d’aligner les technologies utilisées avec les valeurs clés de l’entreprise, telles que l’équité, la transparence ou le respect de la vie privée.

Marine Landau
Journaliste