Politique en matière d’éthique et d’utilisation responsable de l’IA

Préambule

La présente politique de confidentialité et de non-divulgation (la « Politique ») établit les exigences en matière de protection des informations confidentielles et sensibles au sein de Humanics Global Advisors (HGA). En tant que cabinet de conseil international spécialisé dans l’intelligence artificielle, HGA a pour mission de mettre en relation des consultants qualifiés avec des opportunités de développement grâce à une plateforme numérique sécurisée et à un modèle commercial basé sur des honoraires conditionnels. Ce faisant, HGA traite des données personnelles sensibles, des informations sur les projets de ses clients, des documents d’appel d’offres/de proposition et d’autres documents confidentiels qui doivent être protégés afin de maintenir la confiance et de se conformer aux normes juridiques et éthiques.

Champ d’application : La présente politique s’applique à toutes les personnes physiques et morales ayant accès aux informations ou aux systèmes de HGA, y compris, mais sans s’y limiter : – les employés et le personnel interne de HGA, – les consultants externes engagés par ou via HGA, – les organisations partenaires, les clients ou les représentants des donateurs utilisant la plateforme numérique ou les services de HGA, – tout autre utilisateur autorisé de la plateforme numérique HGA (anciennement connue en interne sous un autre nom de projet).

Toutes ces personnes sont collectivement désignées sous le nom d’« utilisateurs » ou d’« utilisateurs autorisés » dans le cadre de la présente politique. Le respect de cette politique est obligatoire. Chaque utilisateur doit lire, comprendre et respecter ces règles comme condition préalable à son engagement auprès de HGA. La Politique couvre toutes les formes d’informations (électroniques, papier, orales) liées aux activités de HGA, et elle reste en vigueur à tout moment, y compris en dehors des heures normales de travail et après la fin du contrat ou de l’emploi d’une personne chez HGA. L’objectif est de protéger la confidentialité, l’intégrité et la disponibilité des actifs informationnels tout en permettant le modèle opérationnel collaboratif et axé sur la technologie de HGA.

Résumé

À cette fin

Cette politique fournit un cadre complet pour une utilisation éthique et responsable de l’IA sur la plateforme numérique HGA. Elle commence par un préambule officiel affirmant l’engagement de HGA envers les normes éthiques mondiales en matière d’IA, suivi d’un résumé et de définitions clarifiant les termes clés. La politique énonce ensuite les principes fondamentaux – équité et non-discrimination ; transparence et explicabilité ; supervision humaine et responsabilité ; confidentialité et protection des données ; sécurité et résilience ; auditabilité et traçabilité ; et droits des utilisateurs (contestabilité et recours) – qui doivent guider tout développement et toute utilisation des systèmes d’IA chez HGA. Ces principes sont tirés de lignes directrices largement approuvées (UNESCO, OCDE, etc.) et sont intégrés dans les pratiques opérationnelles de HGA. Les sections suivantes décrivent comment HGA mettra en œuvre ces principes dans la pratique, y compris des règles spécifiques basées sur les rôles and responsabilités (pour les utilisateurs de la plateforme tels que les développeurs commerciaux, les consultants, les gestionnaires de système, etc.), calendriers pour la mise en œuvre et la révision des politiques, et mécanismes de gouvernance tels que les audits internes et les comités de surveillance. La politique détaille également les exigences en matière de documentation et de reporting, les procédures de gestion des violations ou incidents (et de prise de mesures correctives), ainsi que les mesures d’application et les sanctions en cas de non-conformité. Il est important de noter que ce document met en évidence les obligations juridiques et éthiques de HGA, notamment le respect des lois sur la protection des données telles que le RGPD et le CCPA, ainsi que le respect des normes éthiques imposées par les bailleurs de fonds, telles que les directives de la Banque mondiale relatives aux consultants. En résumé, HGA met en place un programme solide de gouvernance éthique de l’IA afin de garantir que toute utilisation de l’IA permette non seulement d’atteindre les objectifs commerciaux, mais aussi de protéger les droits individuels, de promouvoir la confiance et de s’aligner sur les meilleures pratiques mondiales. Tous les utilisateurs de la plateforme numérique HGA sont tenus de comprendre et de respecter cette politique, et HGA les soutiendra par le biais de formations, d’outils et d’une culture de responsabilité éthique.

Les termes clés suivants sont définis :

      • Informations confidentielles : Les informations confidentielles désignent toute information non publique relative à HGA ou à ses partenaires commerciaux qui est divulguée, apprise ou développée dans le cadre des activités de HGA, et qu’une personne raisonnable considérerait comme privée ou exclusive. Cela comprend, sans s’y limiter, les stratégies commerciales de HGA, les informations financières (par exemple, les prix, les frais, les marges), les listes et les coordonnées des clients ou des donateurs, les opportunités de projets, les propositions et les offres, les processus internes, les codes ou algorithmes logiciels, et tous les modèles ou outils exclusifs utilisés par HGA. Cela comprend également les informations confiées à HGA par des tiers : par exemple, les informations sur les consultants (telles que les données personnelles figurant dans les CV, les documents d’identité, les références professionnelles ou toute méthodologie exclusive qu’un consultant partage avec HGA dans le cadre d’un projet) et les informations sur les clients (telles que les exigences du projet, les données techniques, les rapports, les dossiers, les secrets commerciaux ou tout livrable et produit de travail préparé pour le projet d’un client).
    •  Les documents relatifs aux offres et aux projets (y compris les propositions, les contrats et les livrables préparés pour les clients) sont considérés comme des informations confidentielles de HGA et/ou du client. Il n’est pas nécessaire que les informations soient marquées « confidentielles » pour être protégées ; si leur nature ou les circonstances dans lesquelles elles sont accessibles laissent supposer qu’elles sont sensibles, elles doivent être traitées comme des informations confidentielles.

Certaines exceptions standard s’appliquent : les informations confidentielles n’incluent pas les informations qui (a) deviennent accessibles au public sans violation d’aucune obligation (par exemple, les rapports publiés ou les informations divulguées par le propriétaire) ; (b) étaient légitimement connues ou détenues par la partie destinataire avant leur divulgation par HGA ou ses clients, comme en témoignent des documents écrits ; (c) ont été obtenues de manière indépendante auprès d’un tiers qui avait le droit légal de les divulguer sans restriction de confidentialité ; ou (d) ont été développées de manière indépendante par une partie destinataire sans utiliser ni se référer aux informations confidentielles de HGA ou d’un client.

    • Données personnelles : Les données personnelles désignent toute information relative à une personne identifiée ou identifiable. Cela comprend, par exemple, les coordonnées (noms, adresses, numéros de téléphone, e-mail), les identifiants personnels (date de naissance, numéro d’identité ou de sécurité sociale, numéro de passeport ou d’identification fiscale), les données biographiques (CV, parcours scolaire et professionnel, certifications, photos), les informations financières et toute autre donnée pouvant être utilisée pour identifier une personne. Les données personnelles sont considérées comme une catégorie particulière d’informations confidentielles qui nécessitent un niveau élevé de protection. En vertu de la présente politique et des lois applicables, les données personnelles doivent être traitées avec la plus grande confidentialité et le plus grand soin, et leur utilisation est limitée aux fins pour lesquelles elles ont été collectées. (Remarque : dans certaines juridictions, les données personnelles peuvent être désignées sous le nom d’« informations personnelles identifiables » ou d’« informations personnelles ». Tous ces termes sont inclus dans la présente politique.)
    • Utilisateurs autorisés : Les utilisateurs autorisés sont des personnes qui ont obtenu l’accès aux informations, au réseau ou aux plateformes numériques de HGA en raison de leur rôle ou de leur relation avec HGA. Cela inclut les employés et sous-traitants de HGA, les consultants enregistrés utilisant la plateforme numérique de HGA, les représentants agréés des organisations clientes ou partenaires, les associés commerciaux de HGA et toute autre personne ayant reçu des identifiants de connexion ou l’autorisation de traiter les données de HGA. Les utilisateurs autorisés ne sont autorisés à accéder aux informations et aux systèmes que dans la mesure nécessaire à l’exercice de leurs fonctions (voir la section 3 sur le contrôle d’accès) et doivent être couverts par des accords appropriés (contrats de travail, contrats de consultation, conditions d’utilisation de la plateforme, accords de confidentialité, etc.) qui incluent des obligations de confidentialité. Chaque utilisateur autorisé est individuellement responsable de la protection des identifiants et des données qui lui sont confiés.
    • Plateforme numérique HGA (« la Plateforme ») : Plateforme en ligne sécurisée fournie par HGA qui permet aux consultants, aux organisations (clients/donateurs) et au personnel de HGA de collaborer sur des opportunités et des projets de conseil. Les utilisateurs de la Plateforme peuvent créer et gérer des profils de consultants, publier et postuler à des offres de conseil, échanger des communications, stocker des documents de projet et suivre les livrables et les paiements dans un système centralisé. La Plateforme numérique HGA intègre des fonctionnalités avancées telles que la mise en relation des consultants avec les opportunités grâce à l’intelligence artificielle (y compris la génération automatisée de CV et de candidatures personnalisés) et des contrôles de sécurité robustes. Toutes les données de la plateforme sont hébergées dans un environnement sécurisé avec cryptage, authentification et journalisation des audits (voir section 6 Contrôles de sécurité). 
    • L’utilisation de la plateforme est soumise à la présente politique et à toutes les conditions d’utilisation applicables. (Remarque : la plateforme était auparavant désignée par un nom de code de développement ; la présente politique la désignera uniquement sous le nom de « plateforme numérique HGA »).

Autres définitions : Dans la présente politique, « HGA » ou « la société » désigne Humanics Global Advisors (et ses entités affiliées), et « les utilisateurs » désigne collectivement toutes les personnes relevant du champ d’application de la présente politique. Le terme « informations » peut englober des données sous toutes leurs formes, y compris les discussions orales. « Systèmes » ou « systèmes informatiques » désigne les ordinateurs, le réseau, les services cloud, les outils de communication et la plateforme numérique HGA elle-même.

 « Administrateur de la politique » désigne la personne désignée par la direction de HGA comme responsable de la présente politique (par exemple, le délégué à la protection des données ou le responsable de la sécurité).

Définitions

Aux fins de la présente politique, les définitions suivantes s’appliquent :

  • Intelligence artificielle (IA) – Tout système, outil ou logiciel qui effectue des tâches qui nécessiteraient normalement l’intelligence humaine. Cela comprend, sans s’y limiter, les modèles d’apprentissage automatique, l’analyse prédictive, le traitement du langage naturel, les systèmes d’aide à la décision et toute recommandation algorithmique ou tout processus décisionnel automatisé utilisé sur la plateforme numérique HGA. Pour plus de clarté, HGA adopte une définition large de l’IA conforme aux normes internationales : les systèmes d’IA sont ceux qui sont capables de traiter des données d’une manière qui s’apparente à un comportement intelligent ou à la prise de décision humaine.
  • Système d’IA – Instance implémentée d’un logiciel ou d’un modèle d’IA exécutant une fonction spécifique (par exemple, une fonctionnalité basée sur l’IA qui associe des consultants à des projets ou un outil automatisé d’évaluation des propositions). Un système d’IA peut comporter divers composants tels que des entrées de données, des algorithmes et des sorties qui éclairent ou automatisent les décisions.
  • Plateforme numérique HGA (la « Plateforme ») – Système en ligne fourni par Humanics Global Advisors pour faciliter les missions de conseil, comprenant des modules pour les profils des consultants, les listes de projets, la mise en relation ou l’aide à la candidature basées sur l’IA, ainsi que des outils de collaboration connexes. Toutes les références à la Plateforme dans la présente Politique renvoient à l’environnement intégré (précédemment en cours de développement sous le nom « DevTender ») à travers lequel HGA, les consultants et les organisations clientes interagissent.
  • Utilisateurs de la plateforme – Toutes les personnes qui accèdent à la plateforme numérique HGA ou l’utilisent, y compris les consultants (professionnels indépendants externes offrant des services via HGA), les organisations clientes (entités externes ou donateurs publiant ou finançant des projets) et le personnel HGA (personnel interne gérant ou soutenant les opérations de la plateforme). Au sein du personnel HGA, des rôles spécifiques sont définis ci-dessous (voir « Rôles et responsabilités »), tels que les développeurs commerciaux, les gestionnaires de système, les responsables des créances/dettes, etc.
  • Données à caractère personnel – Toute information relative à une personne physique identifiée ou identifiable (« personne concernée »), telle que définie dans les lois applicables en matière de protection des données (par exemple, noms, coordonnées, détails du CV, numéros d’identification, identifiants en ligne ou facteurs spécifiques à l’identité d’une personne). Les données personnelles comprennent toutes les données qui permettent d’identifier directement ou indirectement une personne et englobent les « informations personnelles » telles que définies dans des lois telles que le RGPD et le CCPA.
  • Traitement – Toute opération effectuée sur des données à caractère personnel, que ce soit par des moyens automatisés ou non, y compris la collecte, l’enregistrement, l’organisation, le stockage, la modification, la récupération, l’utilisation, la divulgation ou la suppression de ces données.
  • Biais – Dans le contexte de l’IA, le biais désigne une erreur ou un écart systématique dans les résultats d’un système d’IA qui conduit à des résultats injustes ou discriminatoires à l’égard de certaines personnes ou de certains groupes. Le biais peut provenir de données d’entraînement biaisées, d’algorithmes défectueux ou d’une utilisation inappropriée, et peut entraîner une discrimination (voir ci-dessous).
  • Discrimination – Traitement injuste ou préjudiciable d’individus ou de groupes fondé sur des caractéristiques inhérentes ou protégées (telles que la race, le sexe, l’origine ethnique, l’âge, la religion, etc.) ou d’autres facteurs. Dans les systèmes d’IA, la discrimination peut se produire si les résultats favorisent ou défavorisent de manière disproportionnée certains groupes, en violation des principes d’équité ou des normes d’égalité des chances.
  • Transparence – Qualité d’un système d’IA qui est compréhensible et ouvert à l’inspection par les parties prenantes. La transparence implique de fournir des informations claires et accessibles sur le fonctionnement d’un système d’IA (ses algorithmes, ses sources de données, sa logique décisionnelle) et d’informer les utilisateurs lorsqu’ils interagissent avec une IA ou sont soumis à celle-ci.
  • Expliquabilité – Capacité à expliquer en termes compréhensibles la logique, les facteurs et le raisonnement qui sous-tendent les résultats ou les décisions d’un système d’IA. L’explicabilité est une composante de la transparence qui vise à rendre le comportement de l’IA interprétable par les humains (développeurs, utilisateurs ou parties concernées).
  • Supervision humaine – Participation active de l’être humain au fonctionnement d’un système d’IA, notamment la capacité de surveiller, d’examiner et d’intervenir dans les processus automatisés. La supervision humaine garantit que les décisions automatisées peuvent être vérifiées et, si nécessaire, annulées par des décideurs humains, empêchant ainsi une automatisation incontrôlée de type « boîte noire ».
  • Responsabilité – Principe selon lequel les personnes physiques ou morales (et les rôles spécifiques au sein de HGA ou parmi les utilisateurs de la plateforme) sont responsables du fonctionnement éthique et approprié des systèmes d’IA. La responsabilité comprend l’obligation de veiller au respect de la présente politique et des lois applicables, et de remédier à tout impact négatif ou toute violation pouvant résulter de l’utilisation de l’IA.
  • Lois sur la protection des données – Désigne les lois et réglementations applicables régissant la confidentialité et les données personnelles, notamment le Règlement général sur la protection des données (« RGPD ») de l’Union européenne et la California Consumer Privacy Act (« CCPA »), entre autres. Ces lois imposent des obligations quant au traitement des données personnelles, exigeant des mesures en matière de confidentialité, de sécurité, de transparence et de droits des utilisateurs.
  • RGPD – Règlement général sur la protection des données 2016/679 de l’Union européenne. Le RGPD est une loi complète sur la protection de la vie privée qui établit des normes en matière de protection des données, notamment des principes tels que la licéité, la loyauté, la transparence, la limitation des finalités, la minimisation des données, l’exactitude, la limitation de la conservation, l’intégrité et la confidentialité, ainsi que la responsabilité. Il accorde également aux personnes des droits spécifiques sur leurs données à caractère personnel (tels que l’accès, la rectification, l’effacement, l’opposition et les restrictions en matière de prise de décision automatisée).
  • CCPA – La loi californienne sur la protection de la vie privée des consommateurs de 2018 (modifiée par la loi californienne sur les droits à la vie privée). La CCPA accorde aux résidents californiens des droits concernant leurs informations personnelles (tels que le droit de savoir, de supprimer, de refuser la vente et de ne pas être victime de discrimination) et impose aux entreprises l’obligation de protéger les données personnelles et d’être transparentes quant à leurs pratiques en matière de données.
  • Directives éthiques des bailleurs de fonds – Exigences et codes de conduite imposés par les clients ou les organismes de financement (tels que les agences internationales de développement ou les banques multilatérales de développement) qui régissent le comportement éthique, la lutte contre la corruption, l’équité et la transparence dans le cadre des missions de conseil. Par exemple, les directives de la Banque mondiale relatives aux consultants et les directives anti-fraude et anti-corruption exigent que les consultants « respectent les normes éthiques les plus strictes » et évitent les conflits d’intérêts dans l’exécution des contrats. HGA et tous les consultants doivent se conformer à ces exigences des bailleurs de fonds, le cas échéant.
  • Auditabilité – Capacité à auditer les processus et les résultats d’un système d’IA, c’est-à-dire à les examiner et à les vérifier a posteriori. L’auditabilité nécessite généralement de maintenir la traçabilité (enregistrements/journaux des sources de données, des entrées du système, des chemins décisionnels et des sorties) afin de pouvoir reconstituer le comportement d’une IA et évaluer sa conformité aux normes éthiques et juridiques.
  • Droits des utilisateurs – Droits accordés aux personnes (en particulier aux personnes concernées ou soumises à des décisions fondées sur l’IA) de recevoir des informations, de donner leur avis ou de demander réparation concernant le fonctionnement des systèmes d’IA. Dans ce contexte, les principaux droits des utilisateurs comprennent le droit d’être informé de l’utilisation de l’IA, le droit d’obtenir une explication des décisions algorithmiques et le droit de contester ou de faire appel des décisions prises par l’IA (en demandant un examen ou une intervention humaine, comme le reconnaissent des lois telles que le RGPD).

(Remarque : les autres termes techniques ou juridiques utilisés dans la présente politique doivent être interprétés conformément à leur signification dans les lois ou normes industrielles applicables. En cas de doute, il convient de consulter le responsable en chef des systèmes ou le conseiller juridique pour obtenir des éclaircissements.)

Équité et non-discrimination

Déclaration de politique générale : HGA s’engage à garantir l’équité dans toutes les fonctions de la plateforme soutenues par l’IA et préviendra de manière proactive toute discrimination ou tout résultat biaisé. Aucun système d’IA utilisé par HGA ne doit traiter de manière injuste des individus ou des groupes sur la base de caractéristiques protégées ou de facteurs socio-économiques. Nous adhérons au principe selon lequel les acteurs de l’IA doivent faire tous les efforts raisonnables pour minimiser ou éviter les résultats discriminatoires ou biaisés tout au long du cycle de vie du système d’IA afin de garantir l’équité. Cela signifie que, de la conception initiale au déploiement et à l’utilisation continue, les modèles d’IA doivent être développés et testés en accordant la priorité à l’équité.

 

Mesures de non-discrimination : Tous les algorithmes, données d’entraînement et processus basés sur l’IA seront examinés afin de détecter tout biais potentiel. HGA effectuera régulièrement des audits de biais et des tests d’équité sur les systèmes d’IA, en utilisant autant que possible des ensembles de données diversifiés et représentatifs, afin de détecter et de corriger tout biais ou impact disparate. En pratique :

  • Conception inclusive : Le développement de l’IA doit s’appuyer sur des données d’entrée qui reflètent la diversité de la base d’utilisateurs de HGA (par exemple, des consultants de différents sexes, nationalités et origines) afin d’éviter de marginaliser un groupe quelconque. Les concepteurs doivent exclure les attributs ou les indicateurs discriminatoires (par exemple, éviter les variables qui servent directement ou indirectement d’indicateurs de race, de sexe, etc., sauf si cela est justifié et atténué).
  • Évaluation de l’impact des biais : avant le déploiement d’un système d’IA, HGA procédera à une évaluation de l’impact éthique ou à un examen similaire axé sur l’équité (conformément aux directives de l’UNESCO sur « l’évaluation de l’état de préparation et l’éthique de l’évaluation de l’impact » pour l’IA). Cela comprend des tests du système afin de vérifier s’il existe des différences de résultats entre les groupes démographiques. Tout biais identifié doit être corrigé (par exemple, en réentraînant le modèle, en ajustant les paramètres ou en augmentant les données) avant le déploiement complet.
  • Surveillance continue : L’équité n’est pas une préoccupation ponctuelle. Le gestionnaire du système (et tout comité ou responsable chargé de l’éthique de l’IA) doit surveiller en permanence les résultats de l’IA afin de détecter tout signe de partialité injustifiée. Si une recommandation ou une décision fondée sur l’IA favorise ou défavorise systématiquement un groupe particulier sans raison valable, le système sera mis en pause et réévalué.
  • Révision humaine pour les décisions sensibles : Pour les décisions à enjeux élevés (telles que la sélection de consultants pour des projets ou l’attribution d’opportunités), les suggestions ou les scores de l’IA ne doivent pas être le seul facteur déterminant. Les décideurs humains (par exemple, les développeurs commerciaux ou les chefs de projet) doivent examiner les résultats de l’IA et exercer leur jugement, en particulier s’il existe des indications selon lesquelles un classement automatisé pourrait refléter un biais. La politique de HGA impose une supervision humaine afin de corriger les biais potentiels que l’IA pourrait introduire.

Égalité des chances : Conformément aux principes de l’OCDE en matière d’IA, HGA réaffirme que l’IA doit respecter les droits de l’homme, y compris les valeurs de non-discrimination, d’égalité et de justice sociale. Tous les utilisateurs de la plateforme auront un accès égal aux outils ou aux avantages de l’IA ; par exemple, si un outil d’IA aide à la rédaction de propositions ou à la mise en relation de consultants avec des projets, il sera mis à disposition de manière à ne pas favoriser injustement certains utilisateurs par rapport à d’autres. HGA s’aligne également sur les attentes des donateurs en matière d’équité. Par exemple, les directives de la Banque mondiale en matière de passation de marchés soulignent que l’équité et la transparence dans la sélection signifient qu’aucun consultant ne doit bénéficier d’un avantage concurrentiel indu. Nous nous faisons l’écho de cette norme : l’IA ne sera pas utilisée pour donner à un utilisateur un avantage indu, mais servira plutôt à améliorer de manière impartiale l’efficacité et les résultats pour toutes les parties.

HGA reconnaît qu’une IA non contrôlée peut involontairement perpétuer les préjugés sociaux existants. Par conséquent, le maintien de l’équité est une obligation permanente en vertu de la présente politique. Tout acteur qui estime qu’un outil ou une décision d’IA sur la plateforme peut être biaisé ou discriminatoire doit le signaler (voir la section Signalement et documentation), et HGA mènera rapidement une enquête et prendra les mesures correctives nécessaires. Il est essentiel pour la mission de HGA d’instaurer la confiance par l’équité, et nous prendrons toutes les mesures nécessaires – techniques, procédurales et organisationnelles – pour respecter ce principe.

Transparence et explicabilité

Déclaration de politique générale : Les systèmes d’IA de HGA doivent fonctionner avec une transparence appropriée. Nous divulguerons clairement quand et comment l’IA est utilisée sur la plateforme, fournirons des explications compréhensibles sur les résultats générés par l’IA et veillerons à ce que les utilisateurs puissent s’informer et comprendre les fondements des décisions qui les concernent. La transparence est fondamentale pour instaurer la confiance et est imposée à la fois par les normes éthiques et les exigences légales. Comme l’indiquent les principes de l’OCDE, les acteurs de l’IA doivent s’engager à faire preuve de transparence et à divulguer de manière responsable les informations relatives aux systèmes d’IA, en fournissant des informations utiles sur l’IA afin que les parties prenantes soient conscientes de l’implication de l’IA et puissent comprendre les résultats.

Divulgation de l’utilisation de l’IA : La plateforme numérique HGA informera les utilisateurs chaque fois qu’ils interagissent avec un système d’IA ou qu’ils sont soumis à une décision assistée par l’IA. Cette divulgation peut être fournie via des indications dans l’interface utilisateur, des étiquettes ou des avis de politique. Par exemple, si un algorithme d’IA classe les candidatures de consultants ou suggère des correspondances, la plateforme indiquera que des « recommandations d’IA » ont été utilisées dans ce processus. Les utilisateurs (consultants, organisations ou personnel de HGA) ne seront pas induits en erreur en pensant qu’une décision a été entièrement prise par des humains alors qu’en réalité, l’IA a joué un rôle important. Nous adhérons au principe de transparence inclusive, garantissant que tous les utilisateurs, quelle que soit leur expérience technique, sachent quand l’IA est utilisée.

Explications des décisions prises par l’IA : Au-delà de la simple divulgation, HGA s’efforcera d’assurer l’explicabilité des résultats de l’IA. Sur demande (et lorsque cela est possible, automatiquement pour les décisions importantes), la plateforme fournira une explication ou un raisonnement clair et non technique pour les résultats générés par l’IA. Par exemple, si un système d’IA note les candidats consultants pour un projet, les facteurs qui ont influencé une note ou un classement particulier (niveau d’expérience, adéquation des compétences, mesures des performances passées, etc.) doivent pouvoir être expliqués. Cela peut impliquer de fournir aux utilisateurs les critères clés ou un résumé de la manière dont le modèle d’IA est parvenu à son résultat. Toute limite de l’IA (par exemple, niveau de confiance ou problèmes de qualité des données) sera également communiquée le cas échéant, afin que les décisions puissent être contextualisées.

Divulgation responsable : Conformément aux directives de l’OCDE, HGA fournira des informations pertinentes et adaptées au contexte concernant nos systèmes d’IA. Cela implique notamment de tenir à jour la documentation relative aux objectifs, aux sources de données et à la logique des modèles d’IA, et de mettre cette documentation à la disposition des parties prenantes (auditeurs internes ou externes et, dans certains cas, utilisateurs ou clients, dans un souci de transparence). Bien que nous devions trouver un équilibre entre la transparence et la protection de la propriété intellectuelle et de la sécurité, HGA privilégiera la transparence, en particulier lorsque les décisions prises par l’IA ont un impact significatif sur les opportunités ou les droits des individus.

Formation du personnel et clarté pour les utilisateurs : HGA formera son personnel (en particulier les personnes occupant des postes tels que développeurs commerciaux ou gestionnaires de systèmes) afin qu’il comprenne suffisamment les systèmes d’IA pour pouvoir expliquer les résultats aux utilisateurs ou clients concernés. Nous créerons également des guides conviviaux ou des FAQ sur le fonctionnement des fonctionnalités d’IA de la plateforme. Par exemple, si la plateforme utilise un « agent IA » pour aider les consultants à rédiger des propositions, nous publierons des conseils sur le fonctionnement de l’IA, les données qu’elle utilise et la manière dont le consultant peut examiner ou modifier le contenu généré par l’IA. Cela permettra aux utilisateurs d’utiliser les outils d’IA en toute connaissance de cause et de manière efficace.

Enregistrement de la logique et des données : Afin de faciliter l’explicabilité et les audits futurs, HGA veille à ce que les systèmes d’IA soient conçus avec une traçabilité (voir la section Auditabilité). Au minimum, pour chaque décision automatisée ayant des conséquences, le système doit être capable d’enregistrer les facteurs clés ou les points de données qui ont influencé cette décision. Cet enregistrement peut ensuite être utilisé pour reconstruire une explication si nécessaire. Pour les modèles complexes (comme les algorithmes d’apprentissage automatique qui sont moins interprétables), HGA utilisera des techniques telles que l’analyse de l’importance des caractéristiques ou des explications de cas types pour extraire un raisonnement compréhensible.

En résumé, HGA s’engage à adopter une approche « sans boîte noire » pour l’IA qui affecte les opportunités ou les données des personnes. En faisant preuve de transparence et en fournissant des explications, nous défendons le droit des individus à être informés et nous nous alignons sur les normes juridiques émergentes (par exemple, le « droit à l’explication » implicite prévu par le considérant 71 du RGPD et les dispositions connexes). La transparence et l’explicabilité ne sont pas seulement des obligations éthiques, mais aussi des conditions préalables à la responsabilité et à la confiance : les utilisateurs qui comprennent les décisions de l’IA sont mieux à même de les accepter ou de les contester, ce qui, en fin de compte, améliore la qualité et l’équité de nos services.

Surveillance humaine et responsabilité

Déclaration de politique générale : HGA veillera à ce que les systèmes d’IA sur la plateforme restent sous un contrôle humain significatif et à ce que la responsabilité des résultats de l’IA soit clairement établie. La supervision humaine est obligatoire pour toutes les fonctions critiques de l’IA : à aucun moment HGA ne déploiera l’IA de manière entièrement autonome sans qu’un humain responsable ne soit impliqué dans le processus ou n’assume au moins un rôle de supervision. En outre, des personnes et des rôles spécifiques sont chargés de superviser la conformité éthique de l’IA (voir « Rôles et responsabilités » ci-dessous). La responsabilité signifie que le personnel et les partenaires de HGA ne peuvent pas se décharger de leur responsabilité sur un algorithme ; ils doivent au contraire considérer l’IA comme une aide à la prise de décision humaine, et non comme un substitut à celle-ci. Comme le souligne la recommandation mondiale de l’UNESCO, il faut toujours garder à l’esprit l’importance de la supervision humaine des systèmes d’IA. De même, l’OCDE préconise la mise en place de mécanismes visant à garantir la capacité d’action et de contrôle des êtres humains, notamment pour faire face aux risques liés à une utilisation abusive ou à des conséquences imprévues.

Pas de décision entièrement automatisée sans recours : toute décision prise par une IA qui a un impact significatif sur des individus (comme l’embauche d’un consultant pour un projet, l’évaluation des performances ou d’autres questions importantes) ne doit pas être définitive sans possibilité d’intervention humaine. HGA garantit que les utilisateurs ont la possibilité de demander un examen humain des résultats automatisés (voir la section Droits des utilisateurs pour connaître la procédure d’appel officielle). En interne, les développeurs commerciaux ou les responsables de HGA doivent examiner les recommandations générées par l’IA et ont le pouvoir de les annuler si elles sont erronées ou soulèvent des questions d’ordre éthique. Par exemple, si une recommandation de l’IA concernant l’attribution d’un contrat semble désavantager certains candidats qualifiés, le responsable doit mener une enquête et peut modifier la décision si nécessaire.

Rôles de supervision définis : HGA désigne le gestionnaire du système (et tout futur comité d’éthique de l’IA ou responsable de l’éthique de l’IA s’il est créé) comme principal responsable de la supervision du fonctionnement éthique des systèmes d’IA. Cela comprend l’examen des documents de conception du système, des rapports de validation et des conclusions d’audit. Le gestionnaire de système a pour mandat d’arrêter ou d’exiger des modifications à un système d’IA qui ne répond pas à nos critères éthiques. De plus, les développeurs commerciaux (qui assurent l’interface avec les projets des clients et la sélection des consultants) sont chargés de veiller à ce que les suggestions de l’IA soient utilisées de manière équitable et cohérente, et d’apporter le jugement humain nécessaire dans les décisions finales. Chaque utilisateur consultant dispose également d’un certain pouvoir de contrôle, dans la mesure où il peut consulter et modifier le contenu assisté par l’IA (par exemple, si une IA aide à rédiger une proposition, le consultant la révise et la modifie avant de la soumettre).

Cadre de responsabilité : Conformément au principe de responsabilité de l’OCDE, les acteurs de l’IA (le personnel de HGA et tous les partenaires impliqués dans l’IA) sont responsables du bon fonctionnement des systèmes d’IA et du respect des principes ci-dessus. HGA met cela en œuvre en :

    • Attribution des responsabilités : Pour chaque système ou fonctionnalité d’IA sur la plateforme, un responsable spécifique (généralement un gestionnaire de système ou un chef de produit) est désigné. Ce responsable est chargé de veiller au bon fonctionnement éthique du système, à sa documentation et à sa maintenance. Il a notamment pour mission de s’assurer que l’IA est développée conformément à la présente politique, de surveiller ses résultats au fil du temps et de procéder à des examens périodiques.
    • Traçabilité et journalisation : Nous conservons des journaux détaillés des activités du système d’IA, y compris les données utilisées pour la formation ou les décisions, les versions des modèles et les résultats des décisions, afin de permettre une responsabilisation a posteriori. Cette traçabilité facilite les audits internes et les enquêtes externes nécessaires, car elle permet de reconstituer le processus décisionnel. Si un résultat est remis en question, nous devons être en mesure de retracer les données et l’algorithme qui y ont conduit, ainsi que la personne qui a supervisé le processus.
    • Gestion des risques : Une gestion responsable de l’IA implique d’anticiper et d’atténuer les risques. HGA applique une approche de gestion des risques à chaque phase du cycle de vie de l’IA. Cela implique d’identifier les risques éthiques ou juridiques potentiels (biais, sécurité, etc.) lors de la conception, de les tester pendant le développement et de les surveiller pendant le déploiement. Le personnel responsable doit documenter ces risques et les mesures prises pour y remédier (telles que les stratégies d’atténuation des biais ou les mesures de protection de la confidentialité des données). Si de nouveaux risques apparaissent (par exemple, un modèle d’IA se comportant de manière inattendue en production), la responsabilité exige une action rapide pour diagnostiquer et corriger les problèmes.
    • Protocole d’escalade : HGA établit des protocoles clairs permettant au personnel de signaler ses préoccupations concernant le comportement de l’IA. Si un membre de l’équipe (développeur, utilisateur professionnel, etc.) soupçonne qu’un système d’IA cause un préjudice ou enfreint la présente politique, il est habilité et tenu de signaler le problème au responsable du système ou à un organe de contrôle exécutif. Il n’y aura aucune représailles pour avoir signalé des préoccupations de bonne foi ; au contraire, cela fait partie des devoirs responsables. Une fois signalé, le problème sera examiné et, s’il est avéré, des mesures correctives seront prises (y compris la suspension éventuelle du système d’IA jusqu’à ce qu’il soit réparé).

En intégrant une supervision humaine à plusieurs niveaux et en délimitant les responsabilités, HGA veille à ce que l’IA reste un outil guidé par les valeurs et le jugement humains. Cette double approche – les humains supervisent l’IA et les humains sont responsables de l’IA – permet de se prémunir contre les biais liés à l’automatisation (dépendance excessive aux résultats algorithmiques) et garantit le respect de nos engagements éthiques à tout moment. En fin de compte, la responsabilité de l’IA chez HGA incombe également à la haute direction : celle-ci recevra des rapports périodiques sur les performances et la conformité de l’IA et soutiendra une culture où l’utilisation éthique de l’IA est une responsabilité partagée par l’ensemble de l’organisation.

Confidentialité et protection des données dans les systèmes d'IA

Déclaration de politique : Tout système ou processus d’IA au sein de la plateforme numérique HGA qui implique des données à caractère personnel doit rigoureusement protéger la vie privée et se conformer à toutes les lois et réglementations applicables en matière de protection des données. La protection de la vie privée dès la conception et la protection des données dès la conception sont des normes obligatoires : nous concevrons des systèmes d’IA intégrant des contrôles de confidentialité (minimisation de l’utilisation des données personnelles, sécurisation des données et respect des préférences des utilisateurs en matière de confidentialité). HGA reconnaît ses obligations légales en vertu de cadres tels que le RGPD de l’UE et le CCPA, et nous affirmons que nous traitons les informations personnelles conformément à ces lois, en adoptant les meilleures pratiques mondiales en matière de confidentialité des données.

Base légale et minimisation : Avant de déployer une IA qui traite des données à caractère personnel (par exemple, analyser les profils des consultants ou évaluer les indicateurs de performance), HGA s’assurera qu’il existe une base légale pour ce traitement (telle que le consentement de la personne concernée, la nécessité contractuelle ou l’intérêt légitime conformément à l’article 6 du RGPD). Les données à caractère personnel utilisées dans l’IA seront limitées à ce qui est nécessaire à la finalité déclarée (minimisation des données). Par exemple, si une IA met en relation des consultants et des emplois, elle utilisera des données professionnelles pertinentes (compétences, expérience, évaluations antérieures), mais pas de détails personnels superflus sans rapport avec le mérite. Les données personnelles sensibles (telles que l’origine raciale ou ethnique, les informations relatives à la santé, etc.) ne seront pas traitées par l’IA, sauf en cas d’absolue nécessité et si cela est légalement autorisé avec le consentement explicite ou d’autres garanties (conditions de l’article 9 du RGPD).

Transparence dans l’utilisation des données : Conformément aux principes de transparence, HGA informera les utilisateurs des données personnelles utilisées dans les modèles ou les décisions d’IA. Nos avis de confidentialité et nos divulgations spécifiques à l’IA préciseront les catégories de données traitées, les sources des données et les finalités du traitement. Les utilisateurs auront accès à leurs données personnelles et pourront les corriger ou les mettre à jour si nécessaire, garantissant ainsi que les systèmes d’IA s’appuient sur des informations exactes (conformément au principe d’exactitude du RGPD).

Protection des données personnelles tout au long du cycle de vie de l’IA : Nous appliquons des mesures de protection strictes à chaque étape :
Collecte des données : nous ne collectons que les données personnelles nécessaires au fonctionnement de la plateforme ou aux fonctionnalités de l’IA. Dans la mesure du possible, nous utilisons l’anonymisation ou la pseudonymisation pour les données d’entraînement de l’IA afin d’éviter d’utiliser des informations directement identifiables.
– Stockage des données : les données personnelles utilisées pour l’IA seront stockées de manière sécurisée, avec des contrôles d’accès et un cryptage appropriés. Les bases de données de la plateforme (y compris celles énumérées dans nos spécifications système, telles que les tableaux d’informations sur les consultants) sont régies par les politiques de sécurité des données de HGA (voir la section Sécurité). Nous respectons également les limites de conservation : les données personnelles ne sont pas conservées plus longtemps que nécessaire aux fins de l’IA (conformément aux principes de limitation du stockage).
Formation des modèles : si les modèles d’IA sont formés à partir de données historiques (par exemple, les archives des projets attribués par le passé), nous évaluerons ces données afin de détecter tout biais inhérent ou tout problème de confidentialité. Les ensembles de données d’entraînement contenant des informations personnelles de résidents de l’UE seront traités conformément au RGPD (ce qui peut nécessiter une analyse d’impact relative à la protection des données (AIPD) si l’entraînement présente des risques élevés pour la confidentialité). Nous privilégions l’utilisation de données agrégées ou anonymisées pour l’entraînement lorsque cela est possible.
– Phase d’inférence/de décision : lorsqu’une IA est en cours d’exécution et prend des décisions concernant des individus, le système applique toutes les règles de confidentialité applicables. Par exemple, si un utilisateur a refusé certaines utilisations de ses données, l’IA doit respecter ce choix et exclure ces données de son analyse.

Droits des personnes concernées et décisions automatisées : Le RGPD accorde aux personnes des droits spécifiques dans le contexte de la prise de décision automatisée, notamment le droit de ne pas être soumis à des décisions fondées uniquement sur un traitement automatisé ayant des effets significatifs, sauf si certaines conditions sont remplies (article 22 du RGPD). HGA n’utilisera pas l’IA d’une manière qui enfreigne ces dispositions. Dans tous les cas où l’IA de la plateforme contribue à une décision importante concernant une personne, nous veillerons soit (a) à ce qu’un être humain soit impliqué de manière significative dans la décision (la sortant ainsi du champ d’application « exclusivement automatisé »), soit (b) à obtenir le consentement explicite de la personne concernée pour le processus automatisé s’il doit être exclusivement automatisé et autorisé par la loi. En outre, nous reconnaissons et facilitons les droits des utilisateurs à : obtenir une intervention humaine, exprimer leur point de vue et contester la décision[4] – ces droits sont traités en détail dans la section Droits des utilisateurs, mais sont également mentionnés ici en tant que protection essentielle de la vie privée.

 

Données transfrontalières et données clients : HGA opérant à l’échelle internationale (et pouvant héberger des données aux États-Unis ou dans d’autres juridictions), nous nous conformons aux règles relatives au transfert transfrontalier de données. Les utilisateurs sont informés et consentent au transfert transfrontalier de leurs données lorsque cela est nécessaire au fonctionnement de la plateforme. Nous utilisons des mécanismes de transfert approuvés (tels que les clauses contractuelles types pour les données de l’UE) si nécessaire. De plus, si nos systèmes d’IA utilisent des données fournies par des clients ou des organisations donatrices, nous nous assurons que cette utilisation est autorisée et conforme aux engagements de ces parties en matière de confidentialité. HGA ne réutilisera pas les données personnelles fournies par les clients à des fins de formation ou de développement de l’IA sans autorisation et respectera tous les accords de confidentialité.

Formation à la confidentialité et à la protection de la vie privée : Tous les employés de HGA et tous les sous-traitants qui travaillent avec des systèmes d’IA doivent signer des accords de confidentialité et suivre une formation sur les obligations en matière de protection des données. L’importance du respect de la vie privée, y compris le traitement des données personnelles des consultants dans les fonctionnalités d’IA de la plateforme, est renforcée dans les politiques internes et les contrats de HGA (comme le montrent nos engagements en matière de conformité au RGPD/CCPA dans notre accord de consultation). Les employés qui ne respectent pas les exigences en matière de confidentialité s’exposent à des mesures disciplinaires (voir la section « Application »).

En substance, l’approche de HGA en matière d’IA est axée sur la confidentialité. Nous reconnaissons que la puissance de l’IA ne doit pas se faire au détriment des droits à la vie privée des individus. En intégrant des mesures de protection des données et en respectant strictement les lois telles que le RGPD et le CCPA, nous évitons non seulement les sanctions légales, mais nous garantissons également aux utilisateurs de notre plateforme le contrôle de leurs informations personnelles et la sécurité lors de l’utilisation de nos fonctionnalités d’IA. Nos donateurs et partenaires exigent également ce niveau élevé de protection, et HGA continuera à contrôler et à améliorer ses pratiques en matière de confidentialité à mesure que la réglementation évolue (par exemple, en s’adaptant aux nouvelles lois ou aux modifications apportées dans les juridictions concernées).

Sécurité et résilience des systèmes d'IA

Déclaration de politique : HGA maintiendra une sécurité robuste pour tous les systèmes d’IA et les données qu’ils traitent, afin d’empêcher tout accès non autorisé, toute manipulation ou tout dysfonctionnement pouvant entraîner des violations éthiques ou des préjudices. Nous nous engageons à garantir que les systèmes d’IA sont robustes, sécurisés et sûrs tout au long de leur cycle de vie. Cela comprend des mesures techniques visant à protéger contre le piratage et les violations de données, ainsi que des stratégies de conception visant à rendre les résultats de l’IA fiables et résistants aux défaillances ou aux utilisations abusives.

Contrôles techniques de sécurité : Les composants IA de la plateforme HGA seront protégés par les mêmes normes élevées qui s’appliquent à l’ensemble de notre infrastructure informatique, ainsi que par des mesures de sécurité supplémentaires propres à l’IA :
Contrôle d’accès : Seul le personnel autorisé (gestionnaires de système, développeurs désignés) peut accéder au code du modèle IA, aux données d’entraînement ou aux paramètres de configuration. Un contrôle d’accès basé sur les rôles est mis en œuvre afin que, par exemple, un développeur commercial puisse voir les recommandations générées par l’IA via l’interface de la plateforme, mais ne puisse pas modifier directement le modèle d’IA sous-jacent. Tous les accès aux ressources sensibles de l’IA sont consignés.

Sécurité des données : toutes les données personnelles utilisées par l’IA sont cryptées au repos et en transit. Nous utilisons des bases de données sécurisées (comme indiqué dans nos spécifications techniques) pour stocker des données telles que les profils des consultants, et nous appliquons un cryptage et une sécurité réseau aux API qui alimentent les algorithmes d’IA en données. Si l’IA utilise des API ou des services externes (par exemple, un modèle linguistique d’IA via un fournisseur tiers), nous veillons à ce que ces communications soient cryptées et à ce que le tiers respecte ses engagements en matière de confidentialité et de sécurité.
– Robustesse face aux attaques adversaires : HGA évaluera la vulnérabilité des systèmes d’IA face aux entrées adversaires ou à la manipulation. Par exemple, nous examinerons si quelqu’un pourrait « tromper » l’IA (par exemple, en saisissant de fausses données dans son profil afin d’améliorer injustement son classement). Nous mettons en place des contrôles (validation des données, détection des anomalies) afin de réduire ces vulnérabilités. Le gestionnaire du système se tiendra informé des recherches en matière de sécurité sur l’IA (comme les attaques adversaires sur l’apprentissage automatique) et appliquera les correctifs ou les améliorations nécessaires pour maintenir la robustesse du système.
– Mécanismes de sécurité intégrée : Conformément aux recommandations de l’OCDE, des mécanismes sont en place pour garantir que si un système d’IA se comporte de manière inattendue ou présente un risque, il peut être désactivé, mis en pause ou mis hors service en toute sécurité. Par exemple, si un service d’IA produit des résultats manifestement incorrects ou préjudiciables (peut-être en raison d’un bug logiciel ou d’un modèle corrompu), le gestionnaire du système ou l’administrateur de garde a la possibilité de désactiver ce service et de revenir à un processus manuel jusqu’à ce que le problème soit résolu. Les systèmes d’IA sont surveillés en temps réel afin de détecter toute anomalie ou erreur de performance, et des alertes sont configurées pour informer le personnel technique de toute défaillance critique.

Résilience et fiabilité : Au-delà de la protection contre les menaces malveillantes, HGA conçoit des systèmes d’IA qui soient fiables dans des conditions normales et prévisibles. Cela implique des tests rigoureux et une assurance qualité :
Tests : les modèles d’IA sont testés non seulement pour leur précision, mais aussi pour leur stabilité : comment fonctionnent-ils si les données d’entrée sont bruitées ou marginales ? Nous simulons divers scénarios (y compris les pires cas ou les conditions « extrêmes ») afin de nous assurer que la réponse de l’IA reste dans des limites sûres. Par exemple, si un algorithme de correspondance IA reçoit des données incomplètes sur un consultant, il doit échouer de manière élégante (en demandant peut-être plus d’informations) plutôt que de faire une supposition aléatoire.
Redondance : Lorsque cela est approprié, nous intégrons des systèmes de redondance ou de secours. Si une fonctionnalité IA tombe en panne, la plateforme peut disposer d’un système de secours non IA. Par exemple, si une IA qui sélectionne automatiquement les candidatures de consultants tombe en panne, les candidatures seront transmises à des évaluateurs humains afin que les opérations puissent se poursuivre.
– Mises à jour et correctifs : Le gestionnaire du système est chargé de maintenir à jour les logiciels d’IA. Les correctifs de sécurité pour toutes les bibliothèques ou tous les frameworks d’IA seront appliqués rapidement afin de corriger les vulnérabilités connues. Lorsque les modèles sont mis à jour ou réentraînés, le processus consiste à vérifier qu’aucun nouveau problème de sécurité n’a été introduit et que les performances du modèle restent dans les paramètres attendus.
– Composants tiers : Si nous utilisons des outils d’IA tiers ou des modèles pré-entraînés, HGA vérifiera leur sécurité (en s’assurant qu’ils proviennent de sources fiables, qu’ils sont correctement licenciés et qu’ils ne comportent aucune porte dérobée connue). Nous surveillerons également les avis externes ; par exemple, si un outil d’IA open source que nous utilisons s’avère par la suite présenter une faille de sécurité ou un problème éthique, nous y remédierons (correctif, modification de la configuration ou remplacement).

Réponse aux incidents liés à la sécurité de l’IA : En cas d’incident de sécurité impliquant un système d’IA (par exemple, une violation des données d’entraînement, un accès non autorisé au modèle ou la détection d’une manipulation des résultats de l’IA), HGA mettra en œuvre son plan de réponse aux incidents (voir la section Gestion des violations pour plus de détails).Dans le cas particulier de l’IA, cela peut inclure : l’isolation immédiate du système affecté, l’analyse de l’étendue de la compromission, la suppression de toutes les données ou composants de modèle corrompus et la validation de l’intégrité des résultats. Nous évaluerons également si l’incident a conduit à des décisions biaisées ou incorrectes et prendrons des mesures correctives si tel est le cas (par exemple, en réévaluant toutes les décisions prises par une IA compromise pendant la période de l’incident).

Conformité aux normes : Les pratiques de sécurité de HGA en matière d’IA sont conformes aux normes et réglementations du secteur. Nous considérons comme références les directives telles que la norme ISO/IEC 27001 relative à la gestion de la sécurité de l’information et les nouvelles normes spécifiques à l’IA (ISO/IEC 23894 sur la gestion des risques liés à l’IA, etc.). De plus, les organisations donatrices exigent souvent une sécurité rigoureuse pour les systèmes traitant les données des projets ; nous considérons ces exigences comme des normes minimales. En sécurisant l’IA, nous protégeons non seulement les données et les opérations, mais nous maintenons également la confiance que les utilisateurs et les clients accordent à notre plateforme. Les failles de sécurité dans l’IA peuvent se traduire directement par des manquements éthiques (par exemple, si quelqu’un pirate une IA pour produire des résultats biaisés). Ainsi, le maintien de la sécurité est un impératif éthique faisant partie intégrante de la présente politique.

Auditabilité et traçabilité

Déclaration de politique générale : HGA veillera à ce que tous les systèmes d’IA soient conçus et déployés de manière à pouvoir être audités. L’auditabilité signifie que nous conservons des enregistrements et une documentation suffisants pour suivre et examiner le fonctionnement des systèmes d’IA et les décisions ou recommandations qu’ils produisent. Cette capacité est essentielle pour vérifier la conformité à la présente politique, enquêter sur les incidents et démontrer notre responsabilité envers les parties prenantes externes (clients, régulateurs ou auditeurs). Conformément au principe de responsabilité de l’OCDE, nous nous efforçons de garantir la traçabilité des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA.

Documentation des systèmes d’IA : Pour chaque outil ou fonctionnalité d’IA, HGA créera et tiendra à jour une documentation comprenant : l’objectif du système d’IA, son développeur/propriétaire, l’algorithme ou l’architecture du modèle utilisé, les caractéristiques des données d’entraînement, les résultats de validation (précision, tests de biais, etc.) et toute contrainte ou limitation connue. Cette documentation sert de référence aux auditeurs et aux développeurs. Elle enregistrera également toute modification ou mise à jour du système (historique des versions), garantissant ainsi la traçabilité des modifications. Exemple : si la plateforme utilise un modèle d’apprentissage automatique pour noter les propositions des consultants, nous documenterons la version du modèle, la date et les données utilisées pour son apprentissage, ses mesures de précision et tout ajustement effectué après son déploiement.

Enregistrement des opérations de l’IA : La plateforme enregistrera les activités du système d’IA de manière sécurisée et inviolable. Les journaux doivent consigner des événements tels que : lorsqu’une IA prend une décision ou formule une recommandation importante, quelles données d’entrée ont été utilisées pour cette décision, quelle version du modèle était en service et à qui le résultat a été transmis. En outre, toute intervention manuelle ou humaine sur une décision de l’IA doit être enregistrée (par exemple, « Le 01/08/2025, l’IA a recommandé le candidat A ; le responsable humain a annulé cette recommandation et a sélectionné le candidat B »).Ces journaux sont essentiels pour l’analyse a posteriori et font partie intégrante de notre système de traçabilité. HGA traitera ces journaux comme des données sensibles (car ils peuvent contenir des données personnelles ou des informations commerciales sensibles) et les sécurisera en conséquence.

Audits et examens réguliers : HGA procédera à des audits internes périodiques des systèmes d’IA (au moins une fois par an, avec une fréquence accrue pour les systèmes à haut risque). L’audit sera réalisé par un auditeur interne ou un comité indépendant de l’équipe chargée du développement quotidien de l’IA (ou par un auditeur/consultant externe, le cas échéant) afin de garantir l’impartialité. L’audit portera sur : le respect de chaque principe de la présente politique, les performances par rapport aux indicateurs définis, tout incident ou plainte signalé, et le respect des obligations légales. Par exemple, une liste de contrôle d’audit permettra de vérifier que les tests d’équité ont été effectués et documentés, que les refus des utilisateurs sont respectés par l’IA, que les explications fournies aux utilisateurs sont exactes, etc. Les résultats des audits seront communiqués à la direction générale et résumés à l’intention du conseil d’administration ou de l’autorité de contrôle, si nécessaire. Tout constat de non-conformité ou de domaine à améliorer doit être traité en temps utile à l’aide d’un plan d’action clair.

Piste d’audit pour les données et les modèles : La traçabilité s’étend à la provenance des données et au développement des modèles. HGA conservera une piste d’audit des sources de données utilisées pour la formation et l’alimentation de l’IA : nous enregistrons la provenance des données (par exemple, « données du profil du consultant au mois de juillet 2025 »), le consentement ou l’autorisation sous lesquels elles ont été collectées et la manière dont elles ont été prétraitées. De même, si un modèle est formé, nous conservons le code de formation, les graines aléatoires (pour la reproductibilité) et les scripts d’évaluation afin que le processus de formation du modèle puisse être reproduit si nécessaire. Cela est important pour la transparence et pour répondre à tout défi (par exemple, si un organisme de réglementation remet en question un résultat particulier comme étant potentiellement biaisé, nous devons être en mesure de reproduire les conditions et de montrer comment le résultat a été obtenu).

Audits externes et certification : Le cas échéant, HGA est ouverte aux audits externes ou aux processus de certification. Certains clients ou donateurs peuvent demander un audit indépendant de nos systèmes d’IA afin de vérifier leur conformité avec leurs normes. Nous coopérerons et fournirons aux auditeurs les informations nécessaires (dans le respect de la confidentialité appropriée). Si des certifications industrielles relatives à l’éthique ou à la qualité de l’IA voient le jour (par exemple, un label de conformité aux principes de l’OCDE en matière d’IA ou aux exigences de la future loi européenne sur l’IA), HGA cherchera à obtenir ces certifications afin de valider son engagement.

Utilisation des conclusions d’audit : L’auditabilité n’est pas seulement une question d’apparence ; HGA s’engage à utiliser les informations issues des audits pour s’améliorer en permanence. Après chaque audit/examen, les équipes responsables se réunissent pour discuter des conclusions et mettre en œuvre les recommandations. Cela peut se traduire par des mises à jour de la politique elle-même, des formations supplémentaires pour le personnel, des corrections techniques des systèmes ou, dans certains cas, la mise hors service d’un outil d’IA qui ne peut pas être rendu conforme. Nous veillons également à ce que toute non-conformité soit documentée et que les mesures correctives soient suivies jusqu’à leur achèvement (voir la section Mesures correctives).

En résumé, l’auditabilité et la traçabilité constituent le fondement de la responsabilité. Elles permettent à HGA de vérifier que nos principes ne sont pas seulement des mots sur papier, mais qu’ils sont bel et bien mis en pratique. Ils nous permettent également de répondre aux questions des particuliers (par exemple, un consultant qui demande « pourquoi n’ai-je pas été sélectionné ? » peut déclencher un examen interne à l’aide de nos registres) ou aux demandes des autorités (par exemple, les régulateurs de la protection des données ou les responsables de la conformité des donateurs qui contrôlent nos pratiques). En mettant en place des systèmes conçus pour être vérifiables, HGA garantit que la gouvernance éthique de l’IA est un processus continu et vérifiable.

Droits des utilisateurs : contestabilité et recours

Déclaration de politique générale : Les utilisateurs de la plateforme numérique HGA, y compris les consultants, les organisations clientes ou toute personne soumise à des décisions fondées sur l’IA, ont le droit explicite de comprendre et de contester ces décisions. HGA défend le principe selon lequel les personnes lésées par les résultats d’un système d’IA doivent pouvoir contester ces résultats et demander leur révision. Nous avons mis en place des processus permettant aux utilisateurs d’exercer leur droit de contester les décisions, d’obtenir une intervention humaine et de bénéficier de résolutions rapides. Ces droits responsabilisent les utilisateurs et garantissent que l’IA sert leurs intérêts sans compromettre leur autonomie ou leurs opportunités.

Droit à l’information : comme décrit dans la section Transparence, les utilisateurs seront informés lorsque l’IA joue un rôle dans une décision qui les concerne. Il s’agit de la première étape pour permettre la contestabilité : il faut savoir qu’une IA a été impliquée pour décider de lui faire confiance ou de la contester. HGA veille à ce que nos communications (qu’il s’agisse de notifications dans l’application, d’e-mails ou d’avis de politique) indiquent clairement l’implication de l’IA dans des décisions telles que la présélection pour un poste de consultant, la sélection automatisée de profils, etc. En outre, les utilisateurs ont le droit de demander des informations supplémentaires sur la logique de la décision (le droit à l’explication dans la mesure où cela s’applique). Notre plateforme fournit des canaux (tels qu’un centre d’aide ou un formulaire de contact spécialement dédié aux questions relatives à l’IA) permettant aux utilisateurs de demander « Pourquoi cette décision a-t-elle été prise à mon sujet ? » et nous répondrons par une explication comme décrit précédemment.

Droit de contestation et intervention humaine : Conformément à l’article 22 du RGPD et aux meilleures pratiques mondiales, si une personne n’est pas d’accord avec une décision prise par une IA ou est affectée négativement par celle-ci, elle a le droit de la contester et de demander une intervention humaine. La procédure mise en place par HGA à cet effet est la suivante :

  • Nous mettons à disposition un mécanisme de recours accessible sur la Plateforme. Par exemple, si un consultant n’est pas sélectionné pour un projet principalement en raison d’un classement établi par l’IA, il peut cliquer sur « Demander une révision » ou contacter notre service d’assistance pour indiquer qu’il souhaite faire appel de cette décision.
  • En cas d’appel, un examinateur humain (membre du personnel HGA désigné ou comité non impliqué dans la décision initiale) réexaminera le dossier. Il examinera le profil du consultant, les exigences du projet et la manière dont l’IA est parvenue à sa recommandation. L’examinateur a le pouvoir d’annuler ou d’ajuster la décision si nécessaire. Il est important de noter que l’examinateur humain le fera de manière indépendante et impartiale, en tenant compte de toute information supplémentaire fournie par l’utilisateur (par exemple, « mon profil ne comportait pas une mise à jour que j’ai depuis ajoutée » ou « je pense que l’IA a mal interprété mon expérience dans le secteur X »). Notre politique consiste à donner un nouveau regard sur le dossier, et non à se contenter d’approuver sans discussion le résultat de l’IA.
  • Le résultat de l’examen humain est communiqué à l’utilisateur avec une explication. Si la décision est maintenue, nous fournissons une raison (par exemple, « Après examen, nous avons constaté que la décision était conforme aux critères affichés. L’autre candidat avait une expérience régionale plus pertinente »). Si la décision est modifiée, nous expliquons le nouveau résultat (par exemple : « Nous vous avons ajouté à la liste restreinte pour un examen plus approfondi, car nous avons reconnu vos qualifications supplémentaires »).

Aucune pénalité en cas de contestation : Les utilisateurs ne seront en aucun cas pénalisés pour avoir exercé leur droit de contestation. HGA considère les commentaires et les recours comme des occasions d’améliorer ses processus. Contester une décision ne fera pas passer l’utilisateur pour un « fauteur de troubles » ; au contraire, cela pourrait mettre en évidence une faille dans notre IA ou nos données que nous devons corriger. Tout le personnel de HGA est formé pour traiter les recours avec respect et objectivité.

Correction des erreurs : Si la contestation d’un utilisateur révèle une erreur dans le système d’IA (par exemple, l’IA utilisait des données obsolètes ou un bug a entraîné un classement erroné), HGA rectifiera non seulement le cas individuel, mais s’attaquera également à la cause profonde. L’utilisateur sera informé de la correction et, le cas échéant, de toute correction générale (par exemple, « Nous avons découvert un problème dans notre algorithme que nous avons maintenant corrigé afin d’éviter que des incidents similaires ne se reproduisent »). De plus, si l’erreur a pu affecter d’autres personnes, nous examinerons les autres décisions et informerons les parties concernées, le cas échéant.

Droits supplémentaires des utilisateurs : Outre la contestabilité, les utilisateurs conservent tous les droits relatifs aux données prévus par la loi. Par exemple :
Accès – Les utilisateurs peuvent demander à accéder aux données personnelles utilisées par l’IA, afin de garantir la transparence.
Rectification – Les utilisateurs peuvent corriger les données personnelles inexactes dans leur profil qui auraient pu conduire à une décision AI sous-optimale. HGA encourage les utilisateurs à maintenir leurs informations à jour et leur fournit des moyens simples pour le faire.
Effacement – Les utilisateurs peuvent demander la suppression de leurs données personnelles de notre plateforme (sous réserve des exigences contractuelles ou légales). Si une telle demande est formulée, nous supprimerons ou réentraînerons également les modèles d’IA qui s’appuyaient de manière significative sur les données de cette personne, dans la mesure du possible, afin de respecter l’esprit de la demande (et, au minimum, de cesser toute décision automatisée affectant cet utilisateur).
– Désinscription – Dans la mesure du possible, HGA peut autoriser les utilisateurs à se désinscrire de certains processus basés sur l’IA. Par exemple, un consultant peut choisir de ne pas utiliser un outil de candidature automatique basé sur l’IA et soumettre ses propositions entièrement par lui-même ; ou une organisation peut demander que les candidatures à son projet soient évaluées uniquement par des humains, sans sélection par l’IA. Nous tiendrons compte de ces préférences lorsque cela sera possible, ou expliquerons les limitations si les processus manuels ne sont pas disponibles.

Assistance et conseils aux utilisateurs : Nous maintiendrons un service d’assistance aux utilisateurs qui connaît bien la présente politique et l’utilisation de l’IA. Si les utilisateurs ont des questions sur une fonctionnalité de l’IA ou ont besoin d’aide pour faire appel, le personnel d’assistance (ou un responsable désigné de l’éthique de l’IA) les guidera tout au long du processus. L’objectif est de rendre l’exercice de ces droits aussi simple et rapide que possible. Nous nous efforçons de répondre à la plupart des demandes ou recours liés à l’IA dans un délai raisonnable (par exemple, dans les 10 jours ouvrables pour les demandes standard, et plus rapidement pour les questions urgentes telles que les décisions de sélection de projets en cours).

Grâce à ces mesures, HGA veille à ce que les utilisateurs restent autonomes et maîtres de la situation lorsque l’IA entre en jeu. La contestabilité et les droits de recours empêchent l’IA de devenir un juge opaque des capacités ou des perspectives d’une personne ; au contraire, l’IA devient un outil au service des utilisateurs, avec un jugement humain disponible comme ultime garantie. Le respect des droits des utilisateurs est non seulement une obligation légale (en vertu de lois telles que le RGPD), mais également un élément fondamental de la philosophie de service à la clientèle et de la culture éthique de HGA. Nous voulons que tous les utilisateurs aient la certitude d’être traités équitablement, de pouvoir toujours exprimer leurs préoccupations et de voir celles-ci traitées de manière équitable.

Respect des lois et des meilleures pratiques

HGA opère dans plusieurs juridictions et s’engage à respecter toutes les lois applicables en matière de protection des données et de confidentialité, tout en adoptant une approche neutre sur le plan juridictionnel et conforme aux normes les plus strictes. Cela signifie que HGA et tous les utilisateurs doivent non seulement respecter la lettre de la loi dans leur pays, mais aussi l’esprit des principes internationalement reconnus en matière de confidentialité et de sécurité.

  • Lois mondiales sur la protection des données : HGA traite les données personnelles de personnes provenant de divers pays (consultants, contacts clients, etc.) et se conforme donc aux principales réglementations en matière de confidentialité, notamment le règlement général sur la protection des données (RGPD) de l’Union européenne et la loi californienne sur la protection de la vie privée des consommateurs (CCPA), entre autres. Même si une loi particulière (comme le RGPD ou la CCPA) ne s’applique pas strictement à une situation donnée en raison de la juridiction, la politique de HGA consiste à se conformer volontairement aux principes fondamentaux de ces réglementations. Ces principes comprennent la légalité, l’équité et la transparence dans le traitement des données à caractère personnel ; la limitation de la finalité (utilisation des données uniquement aux fins pour lesquelles elles ont été collectées) ; la minimisation des données ; l’exactitude ; la limitation de la conservation ; l’intégrité et la confidentialité (garantie de la sécurité) ; et la responsabilité. Par exemple, nous informerons les personnes concernées de la manière dont leurs données sont utilisées, nous obtiendrons leur consentement ou disposerons d’une base légitime pour traiter leurs données à caractère personnel, nous leur permettrons d’accéder à leurs données et de les corriger, et nous respecterons les demandes de désinscription ou de suppression, comme décrit à la section 9.
  • Transfert transfrontalier de données : De par la nature des activités de HGA, les données à caractère personnel peuvent être transférées au-delà des frontières internationales (par exemple, le CV d’un consultant dans un pays peut être partagé avec un client dans un autre pays et stocké sur des serveurs cloud dans un troisième pays). HGA veille à ce que ces transferts soient conformes aux lois et mécanismes applicables en matière de transfert. Les utilisateurs consentent au transfert international de données à caractère personnel nécessaire au fonctionnement de HGA, et HGA mettra en place des mesures de protection telles que des clauses contractuelles types ou des fournisseurs de cloud computing de confiance afin de protéger les données en transit et au repos. Si votre juridiction impose des exigences en matière de résidence des données, HGA s’efforcera de s’y conformer ou vous informera si les données sont stockées ailleurs. Les utilisateurs qui traitent des données doivent savoir où ils les envoient. Par exemple, n’envoyez pas par e-mail une liste de données relatives à des citoyens de l’UE à une personne se trouvant dans un pays où la protection des données est insuffisante sans consulter notre délégué à la protection des données, car cela pourrait enfreindre les règles de transfert du RGPD.
  • Normes et certifications industrielles : Outre les lois, HGA respecte les meilleures pratiques et normes industrielles en matière de sécurité de l’information. Par exemple, le traitement par HGA des informations relatives aux cartes de paiement (le cas échéant) est conforme à la norme PCI DSS (Payment Card Industry Data Security Standard). Nous nous soumettons régulièrement à des évaluations et à des audits de sécurité afin de garantir le respect de ces normes. Bien que ces certifications et audits soient gérés par la direction de HGA, les utilisateurs doivent également jouer leur rôle en respectant tous les protocoles de sécurité. De nombreuses normes exigent en effet que le personnel soit sensibilisé et se conforme aux règles.
  • Exigences des clients et des bailleurs de fonds : Bon nombre des clients de HGA (tels que les agences internationales de développement, la Banque mondiale, les Nations unies, etc.) ont leurs propres règles en matière de confidentialité, de protection des données et d’éthique. La politique de HGA exige que nos consultants et nous-mêmes nous conformions à toutes ces exigences contractuelles. Par exemple, si la politique d’un donateur exige que toutes les données relatives à un projet restent confidentielles pendant 10 ans ou qu’aucune information sur le projet ne soit divulguée sans le consentement du donateur, ces exigences s’appliquent à tous les utilisateurs concernés. Si un client demande à un consultant de signer un accord de non-divulgation (NDA) distinct pour protéger ses informations, le consultant doit s’y conformer (HGA en informera et coordonnera les actions nécessaires). La violation des exigences de confidentialité d’un client est considérée comme une violation de la présente politique. Familiarisez-vous toujours avec les clauses de confidentialité spécifiques figurant dans les contrats ou les conditions générales du projet sur lequel vous travaillez.
  • Propriété intellectuelle et droits d’auteur : Respectez les lois sur la propriété intellectuelle relatives aux informations que vous traitez. Ne copiez ni ne distribuez pas de documents d’une manière qui enfreigne les droits d’auteur (par exemple, ne reprenez pas un manuel de formation fourni sous licence pour un projet et ne le réutilisez pas ailleurs sans autorisation). Les contrats types de HGA garantissent que les livrables et les documents sont correctement détenus ou sous licence ; en tant qu’utilisateur, vous devez respecter ces conditions. En cas de doute, demandez si certains documents peuvent être réutilisés ou s’ils doivent faire l’objet d’une autorisation.
  • Contrôles à l’exportation et sanctions : Bien que cela ne soit pas courant dans les tâches quotidiennes de conseil, gardez à l’esprit que certaines données techniques ou certains logiciels peuvent être soumis à des lois sur le contrôle des exportations (par exemple, la technologie de cryptage, certains schémas techniques, les données relatives à des secteurs sensibles). Si vous travaillez sur un projet impliquant de tels éléments, HGA vous conseillera sur les licences ou restrictions en matière de contrôle des exportations. De même, les lois sur les sanctions peuvent interdire le partage d’informations avec certaines parties ou certains pays. Tous les utilisateurs sont tenus de se conformer à toutes les restrictions légales communiquées par HGA (par exemple, s’il vous est demandé de ne pas envoyer de données relatives à un projet par e-mail à une personne se trouvant dans un pays soumis à des sanctions, vous devez respecter cette consigne).
  • Conduite éthique : La conformité va de pair avec un comportement éthique. Dans le traitement des informations, respectez l’éthique professionnelle. Par exemple, évitez les conflits d’intérêts où les informations confidentielles d’un client pourraient vous inciter à aider un autre client concurrent. N’utilisez pas à mauvais escient des informations privilégiées (telles que les plans internes d’un client) d’une manière qui pourrait être considérée comme contraire à l’éthique ou illégale. HGA applique une tolérance zéro pour les activités telles que la corruption ou la fraude. Bien que celles-ci ne relèvent pas du sujet principal de la présente politique, elles impliquent souvent une utilisation abusive d’informations (par exemple, le partage d’informations sur une offre avec un concurrent en échange d’une commission occulte constitue à la fois une violation de l’éthique et de la confidentialité).
  • Dénonciation : Si un utilisateur doit signaler un comportement répréhensible et que cela implique de divulguer des informations qui seraient autrement confidentielles (par exemple, signaler des malversations financières aux autorités), la politique de HGA est de ne pas entraver cette dénonciation protégée par la loi. La présente politique n’a pas pour but d’empêcher quiconque de signaler des violations de la loi aux autorités gouvernementales compétentes ou de coopérer à des enquêtes. Toutefois, en dehors de ces cas spécifiques, la confidentialité doit être préservée.

HGA opère dans plusieurs juridictions et s’engage à respecter toutes les lois applicables en matière de protection des données et de confidentialité, tout en adoptant une approche neutre sur le plan juridictionnel et conforme aux normes les plus strictes. Cela signifie que HGA et tous les utilisateurs doivent non seulement respecter la lettre de la loi dans leur pays, mais aussi l’esprit des principes internationalement reconnus en matière de confidentialité et de sécurité.

HGA opère dans plusieurs juridictions et s’engage à respecter toutes les lois applicables en matière de protection des données et de confidentialité, tout en adoptant une approche neutre sur le plan juridictionnel et conforme aux normes les plus strictes. Cela signifie que HGA et tous les utilisateurs doivent non seulement respecter la lettre de la loi dans leur pays, mais aussi l’esprit des principes internationalement reconnus en matière de confidentialité et de sécurité.

  • Lois mondiales sur la protection des données : HGA traite les données personnelles de personnes provenant de divers pays (consultants, contacts clients, etc.) et se conforme donc aux principales réglementations en matière de confidentialité, notamment le Règlement général sur la protection des données (RGPD) de l’Union européenne et la California Consumer Privacy Act (CCPA), entre autres. Même si une loi particulière (comme le RGPD ou le CCPA) ne s’applique pas strictement à une situation donnée en raison de la juridiction, la politique de HGA consiste à se conformer volontairement aux principes fondamentaux de ces réglementations. Ces principes comprennent la légalité, l’équité et la transparence dans le traitement des données à caractère personnel ; la limitation de la finalité (utilisation des données uniquement aux fins pour lesquelles elles ont été collectées) ; la minimisation des données ; l’exactitude ; la limitation de la conservation ; l’intégrité et la confidentialité (garantie de la sécurité) ; et la responsabilité. 
  • Par exemple, nous informerons les personnes concernées de la manière dont leurs données sont utilisées, nous obtiendrons leur consentement ou disposerons d’une base légitime pour traiter leurs données à caractère personnel, nous leur permettrons d’accéder à leurs données et de les corriger, et nous respecterons les demandes de désinscription ou de suppression, comme décrit à la section 9.
  • Transfert transfrontalier de données : De par la nature des activités de HGA, les données à caractère personnel peuvent être transférées au-delà des frontières internationales (par exemple, le CV d’un consultant dans un pays peut être partagé avec un client dans un autre pays et stocké sur des serveurs cloud dans un troisième pays). HGA veille à ce que ces transferts soient conformes aux lois et mécanismes applicables en matière de transfert. Les utilisateurs consentent au transfert international de données à caractère personnel nécessaire au fonctionnement de HGA, et HGA mettra en place des mesures de protection telles que des clauses contractuelles types ou des fournisseurs de cloud computing de confiance afin de protéger les données en transit et au repos. Si votre juridiction impose des exigences en matière de résidence des données, HGA s’efforcera de s’y conformer ou vous informera si les données sont stockées ailleurs. Les utilisateurs qui traitent des données doivent savoir où ils les envoient. Par exemple, n’envoyez pas par e-mail une liste de données relatives à des citoyens de l’UE à une personne se trouvant dans un pays où la protection des données est insuffisante sans consulter notre délégué à la protection des données, car cela pourrait enfreindre les règles de transfert du RGPD.
  • Normes et certifications industrielles : Outre les lois, HGA respecte les meilleures pratiques et normes industrielles en matière de sécurité de l’information. Par exemple, le traitement par HGA des informations relatives aux cartes de paiement (le cas échéant) est conforme à la norme PCI DSS (Payment Card Industry Data Security Standard). Nous nous soumettons régulièrement à des évaluations et à des audits de sécurité afin de garantir le respect de ces normes. Bien que ces certifications et audits soient gérés par la direction de HGA, les utilisateurs doivent également jouer leur rôle en respectant tous les protocoles de sécurité. De nombreuses normes exigent en effet que le personnel soit sensibilisé et se conforme aux règles.
  • Exigences des clients et des bailleurs de fonds : Bon nombre des clients de HGA (tels que les agences internationales de développement, la Banque mondiale, les Nations unies, etc.) ont leurs propres règles en matière de confidentialité, de protection des données et d’éthique. La politique de HGA exige que nos consultants et nous-mêmes nous conformions à toutes ces exigences contractuelles. Par exemple, si la politique d’un donateur exige que toutes les données relatives à un projet restent confidentielles pendant 10 ans ou qu’aucune information sur le projet ne soit divulguée sans le consentement du donateur, ces exigences s’appliquent à tous les utilisateurs concernés. Si un client demande à un consultant de signer un accord de non-divulgation (NDA) distinct pour protéger ses informations, le consultant doit s’y conformer (HGA en informera et coordonnera les actions nécessaires). La violation des exigences de confidentialité d’un client est considérée comme une violation de la présente politique. Familiarisez-vous toujours avec les clauses de confidentialité spécifiques figurant dans les contrats ou les conditions générales d’un projet sur lequel vous travaillez.
  • Propriété intellectuelle et droits d’auteur : respectez les lois sur la propriété intellectuelle relatives aux informations que vous traitez. Ne copiez ni ne distribuez pas de documents d’une manière qui enfreigne les droits d’auteur (par exemple, ne reprenez pas un manuel de formation fourni sous licence pour un projet et ne le réutilisez pas ailleurs sans autorisation). Les contrats types de HGA garantissent que les livrables et les documents sont correctement détenus ou sous licence ; en tant qu’utilisateur, vous devez respecter ces conditions. En cas de doute, demandez si certains documents peuvent être réutilisés ou s’ils doivent faire l’objet d’une autorisation.
  • Contrôles à l’exportation et sanctions : bien que cela ne soit pas courant dans les tâches quotidiennes de conseil, gardez à l’esprit que certaines données techniques ou certains logiciels peuvent être soumis aux lois sur le contrôle des exportations (par exemple, la technologie de cryptage, certains schémas techniques, les données relatives à des secteurs sensibles). Si vous travaillez sur un projet impliquant de tels éléments, HGA vous conseillera sur les licences ou restrictions en matière de contrôle des exportations. De même, les lois sur les sanctions peuvent interdire le partage d’informations avec certaines parties ou certains pays. Tous les utilisateurs sont tenus de se conformer à toutes les restrictions légales communiquées par HGA (par exemple, s’il vous est demandé de ne pas envoyer de données relatives à un projet par e-mail à une personne se trouvant dans un pays soumis à des sanctions, vous devez respecter cette consigne).
  • Conduite éthique : La conformité est indissociable d’un comportement éthique. Dans le traitement des informations, respectez la déontologie professionnelle. Par exemple, évitez les conflits d’intérêts où des informations confidentielles d’un client pourraient vous inciter à aider un client concurrent. N’utilisez pas abusivement d’informations confidentielles (telles que les plans internes d’un client) de manière contraire à l’éthique ou illégale. HGA applique une tolérance zéro à l’égard de la corruption et de la fraude. Bien que ces pratiques ne soient pas le sujet principal de cette politique, elles impliquent souvent un usage abusif de l’information (par exemple, partager des informations sur un appel d’offres avec un concurrent en échange d’une commission occulte constitue une violation de l’éthique et de la confidentialité).
  • Signalement d’actes répréhensibles : Si un utilisateur doit signaler un acte répréhensible et que cela implique de partager des informations confidentielles (par exemple, signaler des malversations financières aux autorités compétentes), la politique de HGA est de ne pas entraver ce signalement protégé par la loi. Cette politique n’a pas pour but d’empêcher quiconque de signaler des infractions aux autorités gouvernementales compétentes ni de coopérer à des enquêtes. Cependant, en dehors de ces cas particuliers, la confidentialité doit être maintenue.

En résumé, la conformité est une obligation essentielle pour tous les utilisateurs. Lors du traitement de données, posez-vous la question suivante : respectons-nous les lois sur la protection de la vie privée et les normes élevées de HGA ? En cas de doute, n’hésitez pas à demander conseil. L’engagement de HGA en faveur de la neutralité juridique nous pousse souvent à adopter l’approche la plus prudente et la plus protectrice. Mieux vaut prévenir que guérir : il est préférable de porter atteinte aux droits à la vie privée ou d’enfreindre la loi. En respectant cette politique, vous vous conformerez de facto aux lois et aux bonnes pratiques applicables, puisqu’elle a été conçue pour les englober. Le non-respect de cette politique expose HGA à des sanctions juridiques et peut, dans certains cas, engager la responsabilité personnelle des individus (par exemple, certaines lois sur la protection de la vie privée prévoient des amendes pour les personnes responsables). Il est donc dans l’intérêt de tous de s’y conformer.

Rôles et responsabilités

La mise en œuvre efficace de cette politique nécessite une définition claire des responsabilités des différents rôles interagissant avec la plateforme numérique HGA. Les paragraphes suivants décrivent les obligations des principaux groupes de parties prenantes et les rôles spécifiques dans le respect de l’éthique de l’IA et son utilisation responsable. Toutes les personnes, quel que soit leur rôle, sont tenues de se familiariser avec cette politique et d’agir en conformité avec celle-ci, mais certains rôles comportent des obligations supplémentaires spécifiques, comme décrit ci-dessous.

Responsabilités générales de tous les utilisateurs de la plateforme

  • Conformité et éthique : Chaque utilisateur (personnel interne, consultants, représentants des clients, etc.) doit agir conformément aux principes de la présente politique. Les utilisateurs ne doivent pas tenter d’utiliser ou de manipuler les systèmes d’IA à des fins contraires à l’éthique. Ils sont tenus de signaler tout problème (biais, erreurs, problèmes de sécurité) qu’ils constatent dans les résultats ou le comportement de l’IA.
  • Exactitude des données : Les utilisateurs ont la responsabilité de fournir des informations exactes et véridiques sur la plateforme. Étant donné que les outils d’IA peuvent utiliser ces informations (par exemple, les profils des consultants, les descriptions de projets), leur exactitude contribue à garantir des résultats d’IA équitables et corrects. La soumission de données fausses ou trompeuses constitue non seulement une violation des conditions d’utilisation de la plateforme, mais peut également conduire à des résultats d’IA biaisés ou préjudiciables.
  • Respect de la vie privée : Les utilisateurs doivent respecter la vie privée d’autrui lorsqu’ils saisissent ou traitent des données. Par exemple, un client qui publie un projet ne doit pas télécharger de données personnelles inutiles sur des individus, et les consultants doivent traiter toutes les données auxquelles ils ont accès (comme les évaluations par les pairs) conformément aux règles de confidentialité. Les utilisateurs doivent également respecter la confidentialité des contenus générés par l’IA s’ils sont désignés comme tels (par exemple, ne pas divulguer publiquement les recommandations ou le code propriétaires de l’IA auxquels ils pourraient avoir accès).

Direction générale de HGA

  • Ton donné au sommet : La direction de HGA (cadres et administrateurs) est chargée de promouvoir une culture d’utilisation éthique de l’IA. La direction doit approuver la présente politique et allouer les ressources nécessaires (budget, personnel, formation) pour la mettre en œuvre efficacement.
  • Supervision : La direction recevra des rapports périodiques sur les performances et la conformité du système d’IA (par exemple, des résumés des conclusions d’audit, des rapports d’incidents). Elle est chargée de les examiner et de veiller à ce que toutes les décisions stratégiques tiennent compte de l’éthique de l’IA (par exemple, n’approuver le lancement d’une nouvelle fonctionnalité d’IA qu’après avoir confirmé qu’elle a passé avec succès l’examen éthique).
  • Responsabilité : La direction veille à ce que les lignes de responsabilité soient clairement définies (comme indiqué dans cette section) et à ce que les personnes chargées de la gouvernance de l’IA aient le pouvoir de faire respecter la conformité. Les cadres supérieurs interviennent en cas de problèmes systémiques et ont la responsabilité ultime des mesures d’application, y compris l’approbation de sanctions en cas de non-conformité, si nécessaire.

Responsable système (et équipe de développement technique)

Rôle : Le responsable système est la personne (ou l’équipe) chargée de la gestion technique de la plateforme numérique HGA, y compris ses composants d’IA. Ce rôle peut englober les chefs de produit, les développeurs principaux ou un responsable de l’éthique de l’IA, s’il en existe un.

Responsabilités :
Développement et maintenance de l’IA : veiller à ce que tous les systèmes d’IA soient développés conformément aux principes de la présente politique. Cela implique d’intégrer des contrôles en matière d’équité, de confidentialité, de sécurité, etc. lors du développement. Le responsable du système doit vérifier que les exigences (par exemple, atténuation des biais, documentation, tests) sont respectées avant d’approuver le déploiement d’un système d’IA.
Documentation et traçabilité : Tenir à jour la documentation complète et les journaux des systèmes d’IA, comme décrit dans la section « Auditabilité ». Le gestionnaire du système doit s’assurer que les modèles, les données et les décisions sont traçables. Il coordonne les examens périodiques de cette documentation afin d’en vérifier l’exhaustivité et l’exactitude.
– Surveillance et contrôle qualité : surveiller en permanence les résultats de l’IA en production afin de détecter toute anomalie ou tout problème éthique. Le gestionnaire du système doit utiliser des tableaux de bord ou des rapports pour suivre les indicateurs clés (tels que la répartition démographique des recommandations générées par l’IA afin de vérifier l’équité, ou les taux d’erreur afin de vérifier les performances). Si la surveillance révèle des problèmes, le gestionnaire du système déclenche une enquête et apporte des corrections (par exemple, en réentraînant un modèle, en ajustant les seuils ou en revenant à une version précédente du modèle).
– Réponse aux incidents : En cas d’incident lié à l’IA (plainte pour partialité, violation de données, dysfonctionnement), le responsable du système mène l’enquête technique afin d’identifier la cause profonde. Il travaille en étroite collaboration avec l’équipe chargée de la conformité pour rendre compte des conclusions et mettre en œuvre des mesures correctives techniques. Par exemple, s’il s’avère qu’un algorithme de correspondance IA exclut systématiquement les candidats d’une région particulière, le responsable système analysera les raisons (peut-être que les données d’entraînement étaient déséquilibrées) et appliquera une solution (telle que la mise à jour du modèle ou l’ajout de données).
– Liaison avec les organismes de contrôle : Le gestionnaire du système sert de point de contact pour les audits internes ou externes concernant l’IA. Il doit coopérer avec les auditeurs, en leur fournissant les données et les explications nécessaires. S’il existe un comité ou un responsable de l’éthique de l’IA, le gestionnaire du système les informe régulièrement de l’état du système et des problèmes rencontrés.
– Formation et accompagnement : Le responsable du système doit également contribuer à former les autres membres de l’équipe HGA aux aspects techniques de l’IA et à l’interprétation des résultats fournis par celle-ci. Il peut élaborer des directives ou des outils internes afin d’aider les développeurs commerciaux ou les consultants à comprendre comment travailler avec l’IA (par exemple, en expliquant les scores de confiance ou la signification des indicateurs que l’IA peut générer).

Développeurs commerciaux (et chefs de projet) – Poste interne chez HGA

Rôle : Les développeurs commerciaux chez HGA sont ceux qui interagissent avec les clients (donateurs, organisations), aident à définir la portée des projets et supervisent souvent l’affectation des consultants aux projets. Ils agissent en tant qu’intermédiaires entre les consultants et les clients sur la plateforme et sont susceptibles d’utiliser les fonctionnalités d’IA de la plateforme pour faciliter leur travail.

Responsabilités :
Utilisation éthique de l’IA dans la sélection : lorsqu’ils utilisent les recommandations ou les classements de l’IA pour les consultants, les développeurs commerciaux doivent les appliquer de manière équitable et judicieuse. Ils doivent considérer l’IA comme un outil d’aide, et non comme un juge infaillible. Cela signifie qu’ils doivent examiner les résultats de l’IA d’un œil critique : si le consultant le mieux classé par l’IA semble inapproprié (par exemple, s’il manque un candidat évident), ils doivent mener une enquête plutôt que de l’accepter aveuglément.

Éviter les préjugés : les développeurs commerciaux doivent être conscients de leurs propres préjugés et veiller à ne pas renforcer ceux de l’IA. Par exemple, si un résultat de l’IA semble biaisé, ils doivent le contrebalancer en accordant une attention particulière à ceux qui pourraient avoir été sous-évalués. Ils doivent également faire part au responsable du système de tout biais suspecté afin que le modèle puisse être amélioré.
Transparence envers les clients : dans leurs communications avec les organisations clientes, les développeurs commerciaux feront preuve de transparence quant à l’utilisation de l’IA. Si les clients demandent comment les consultants ont été présélectionnés, le développeur commercial peut expliquer qu’un outil d’IA a été utilisé comme premier filtre, en complément du jugement humain, et mettre en avant les critères utilisés. Ils ne doivent pas présenter une décision prise par l’IA comme étant purement humaine, ni l’inverse. L’honnêteté dans la manière dont les correspondances sont établies fait partie du maintien de la confiance avec les clients.
– Protéger les données : Les développeurs commerciaux traitent souvent des données sensibles (exigences du projet, informations sur les consultants). Ils doivent respecter les principes de confidentialité, par exemple en ne saisissant que les données nécessaires dans la plateforme/l’IA, en sécurisant tous les rapports ou résultats générés par l’IA et en n’exportant pas ou n’envoyant pas par e-mail les données de l’IA de manière non sécurisée. S’ils créent des copies locales des résultats de l’IA à des fins d’analyse, celles-ci doivent être protégées.
Questions des clients et des consultants : En tant que contacts de première ligne, les développeurs commerciaux peuvent recevoir des questions ou des contestations de la part des consultants (« Pourquoi n’ai-je pas été sélectionné ? ») ou des clients (« Avons-nous obtenu les meilleurs candidats ? »). Ils sont tenus de répondre conformément à la présente politique : fournir des explications (avec l’aide du responsable du système si nécessaire) et les informer de leurs droits (comme le droit du consultant de faire appel d’une décision). Les développeurs commerciaux ne doivent jamais ignorer ou rejeter ces demandes : ils doivent les acheminer par les voies appropriées (par exemple, suggérer au consultant de faire appel officiellement via la plateforme ou transmettre les questions complexes à un responsable de l’éthique).
– Conformité aux directives des bailleurs de fonds : Étant donné que les développeurs commerciaux traitent directement des opportunités de projets susceptibles d’être financés par des bailleurs de fonds, ils doivent s’assurer que tous les processus, y compris ceux assistés par l’IA, répondent aux exigences des bailleurs de fonds. Comme indiqué, la Banque mondiale et les bailleurs de fonds similaires exigent équité et transparence dans la sélection des consultants. Les développeurs commerciaux doivent s’assurer que toute utilisation de l’IA n’entre pas en conflit avec ces exigences (par exemple, si un donateur exige que tous les consultants éligibles soient pris en considération, le développeur commercial doit s’assurer que l’IA n’écarte pas par inadvertance une personne de manière inappropriée). Si nécessaire, ils doivent être prêts à partager des informations sur le processus de sélection avec les auditeurs des donateurs, avec le soutien du service de conformité de HGA.

Consultants (entrepreneurs indépendants sur la plateforme) – Rôle externe

Rôle : Les consultants sont des professionnels qui utilisent la plateforme pour trouver et accepter des missions de conseil via HGA. Ils ne sont pas des employés, mais leur respect de certaines règles est essentiel, car ils interagissent avec des outils d’IA pour leurs propres profils et propositions.

Responsabilités :

Profil honnête et contributions à l’IA : Les consultants doivent fournir des informations véridiques et exactes dans leur CV, leur profil et toutes leurs réponses aux questionnaires générés par l’IA. Mentir à une IA (par exemple, en exagérant son expérience dans l’espoir que l’IA lui attribue un meilleur classement) constitue une violation de l’éthique et du contrat. Si vous utilisez un assistant IA pour créer du contenu (comme une lettre de motivation), vous devez vérifier l’exactitude du contenu (aucune invention concernant les qualifications ou l’expérience).

Utilisez les outils d’IA de manière responsable : La plateforme peut proposer des outils d’IA aux consultants (tels qu’un « agent IA » pour rédiger des candidatures). Les consultants sont tenus de vérifier et de modifier les suggestions générées par l’IA. Ils ne doivent pas soumettre aveuglément des textes rédigés par l’IA sans s’assurer qu’ils sont corrects et reflètent leur opinion. Ils sont également encouragés à donner leur avis sur ces outils. Si une suggestion de l’IA leur semble hors de propos ou inappropriée, ils doivent le signaler afin que HGA puisse améliorer le système.

Confidentialité et traitement des données : si les consultants reçoivent des données via des informations fournies par l’IA (par exemple, la plateforme peut utiliser l’IA pour analyser les exigences d’un projet et fournir des informations à tous les candidats), ils doivent traiter ces données comme confidentielles. De plus, ils ne doivent pas tenter de procéder à une ingénierie inverse ou d’exploiter le système d’IA d’une manière qui viole l’équité (par exemple, en essayant de trouver comment « manipuler » le système de notation de l’IA au-delà de la simple amélioration de leurs qualifications légitimes). Toute tentative de falsification de l’IA (telle que la saisie de données falsifiées ou le partage de comptes pour augmenter les scores) est interdite.
– Conduite éthique : Conformément à leur contrat avec HGA, les consultants doivent respecter les normes éthiques les plus strictes. Cela s’étend aux interactions avec l’IA. Par exemple, si un consultant constate un bug qui lui confère un avantage déloyal (comme la possibilité de voir les informations privées des autres candidats via l’IA), il est tenu de le signaler et de ne pas en tirer profit. De même, les consultants doivent éviter tout comportement frauduleux en rapport avec les processus d’IA (le contrat interdit explicitement les pratiques frauduleuses et collusoires, ce qui inclut tout stratagème visant à manipuler les résultats algorithmiques).

Organisations clientes (rôle externe)

Rôle : Les organisations clientes (telles que les agences internationales de développement, les ONG, les entreprises) utilisent la plateforme pour publier des offres de conseil et sélectionner des consultants.

Responsabilités :
Publication équitable des offres d’emploi : Les clients doivent formuler les listes de projets et les critères de manière équitable et non discriminatoire. Par exemple, ils ne doivent pas demander au personnel d’AI ou de HGA d’exclure des candidats sur la base de critères contraires au principe de non-discrimination (par exemple, « uniquement des candidats de moins de 40 ans » serait inapproprié). HGA refusera toute demande d’un client qui serait en contradiction avec notre éthique (et nos accords le stipulent probablement).

– Participation à l’utilisation éthique de l’IA : Les clients sont encouragés à utiliser les résultats de l’IA de la plateforme de manière transparente. Si un client a accès à une liste de candidats présélectionnés par l’IA, il doit traiter tous les candidats de manière équitable lors de sa sélection finale et respecter l’intégrité du processus. Nous attendons également des clients qu’ils préservent la confidentialité des informations fournies par l’IA et qu’ils les utilisent uniquement dans le but prévu, à savoir évaluer les candidats pour ce projet spécifique.
Commentaires : Les clients peuvent fournir des commentaires précieux sur la qualité et l’équité des correspondances générées par l’IA. Nous les invitons à informer HGA s’ils estiment qu’un consultant qualifié a été négligé ou qu’une recommandation n’était pas pertinente. Ces commentaires nous aideront à affiner l’IA (et éventuellement à révéler les biais auxquels nous devons remédier).
– Conformité : De nombreuses organisations clientes (en particulier les institutions multilatérales) ont leurs propres directives éthiques. En utilisant notre plateforme, elles s’engagent à ne pas imposer ou demander des actions qui pourraient amener HGA ou nos consultants à enfreindre la présente politique ou toute loi. Si les exigences internes d’un client en matière d’IA ou de données sont plus strictes (par exemple, une agence des Nations unies peut avoir des règles sur l’utilisation des données), HGA se coordonnera pour les respecter également, mais les clients doivent communiquer ces besoins.

Responsables des créances/dettes et autres membres du personnel interne

Rôle : Il s’agit de rôles internes à HGA axés sur les transactions financières, la passation de contrats et le soutien administratif au sein de la plateforme. Ces rôles n’impliquent pas nécessairement d’interagir directement avec l’IA pour prendre des décisions concernant les consultants, mais peuvent utiliser l’IA pour des tâches telles que le traitement des factures, les prévisions ou le signalement des risques.

Responsabilités :
Utilisation de l’IA dans les tâches administratives : Si une IA est utilisée dans les processus financiers ou administratifs (par exemple, un outil d’IA pour signaler les factures inhabituelles ou pour prévoir les budgets des projets), ces employés doivent l’utiliser comme une aide et vérifier ses résultats. Ils restent responsables de l’exactitude financière et de la conformité (l’IA peut signaler une erreur potentielle, mais l’agent doit la vérifier).
Confidentialité et sécurité : Le traitement des données personnelles et financières implique que ces agents doivent respecter strictement la protection des données. Si une IA traite des données de paiement ou des informations personnelles à des fins de contrôle de conformité (par exemple, une IA anti-fraude qui analyse les transactions), les agents doivent s’assurer que les données introduites dans cette IA sont correctes et que les résultats (tels que les alertes de fraude) sont traités de manière discrète et légale. Toutes les données personnelles contenues dans les dossiers financiers sont également protégées par le RGPD/CCPA.
– Signaler les problèmes : Si, au cours de leurs processus, ils remarquent des anomalies provenant des outils d’IA (comme des faux positifs dans la détection des fraudes ou des erreurs système), ils doivent les signaler au responsable du système et ne pas supposer que l’IA a toujours raison. Ils doivent également communiquer avec les consultants ou les clients si une décision financière prise par l’IA les affecte (par exemple, si un système automatisé suspend un paiement en raison d’un risque suspecté, l’agent doit en informer la partie concernée et mener rapidement une enquête, plutôt que d’attendre passivement).

Résumé des responsabilités liées au poste : (pour plus de clarté, nous présentons un bref récapitulatif sous forme de liste)
Responsable système : Veiller à la conception, à la surveillance et à la maintenance éthiques de l’IA ; traiter les problèmes techniques ; tenir à jour la documentation ; diriger la réponse aux incidents liés à l’IA.
Développeur commercial : Utiliser les résultats de l’IA de manière responsable dans la sélection des consultants ; assurer une supervision humaine ; garantir l’équité et la transparence envers les consultants et les clients ; signaler les problèmes liés à l’IA.
Consultant : Fournir des données honnêtes ; utiliser les outils d’IA de manière responsable ; examiner le contenu généré par l’IA ; respecter les normes éthiques et la confidentialité.
Organisation cliente : Publier des exigences équitables ; respecter les résultats du processus ; utiliser correctement les informations fournies par l’IA ; donner son avis ; respecter les normes éthiques et juridiques.
– Tout le personnel HGA : Respectez la politique ; participez aux formations ; signalez les violations ou les préoccupations ; coopérez aux audits et aux améliorations.

HGA révisera et mettra à jour périodiquement les définitions des rôles à mesure que notre plateforme évoluera. De nouveaux rôles (tels que celui de responsable de l’éthique de l’IA ou de responsable de la protection des données) pourraient être créés, et leurs responsabilités seront intégrées à la présente politique en conséquence. Le principe fondamental est que l’éthique de l’IA est une responsabilité partagée : toutes les personnes impliquées ont un rôle à jouer pour garantir que la technologie est utilisée à bon escient et conformément à nos valeurs.

Calendrier de mise en œuvre et examen

HGA reconnaît que la mise en œuvre efficace de cette politique nécessite un plan structuré et des révisions régulières. Nous nous engageons à respecter un calendrier concret pour le déploiement des mesures, des formations et des mises à jour du système nécessaires, ainsi que pour la mise en place d’un cycle continu de révisions et d’améliorations. Vous trouverez ci-dessous la feuille de route de mise en œuvre et le calendrier des révisions :

  • Adoption de la politique (immédiate) : La présente politique entre en vigueur à compter de la date à laquelle elle est approuvée par la direction de HGA. Une fois adoptée, elle sera diffusée à tous les employés, consultants et parties prenantes concernés de HGA. La politique sera également mise à disposition sur la plateforme numérique de HGA (par exemple, dans le portail utilisateur ou la section d’aide) afin que tous les utilisateurs puissent facilement la consulter.
  • Formation et sensibilisation (dans les 30 jours suivant l’adoption) : HGA organisera des sessions de formation obligatoires pour l’ensemble du personnel interne sur le contenu de la présente politique et leurs responsabilités. Une formation spécialisée sera dispensée en fonction du rôle de chacun : par exemple, des ateliers techniques pour les gestionnaires de systèmes et les développeurs sur la manière d’effectuer des tests de partialité et de garantir la transparence, et des séminaires distincts pour les développeurs commerciaux sur l’utilisation équitable de l’IA dans le recrutement/la sélection. Nous organiserons également une réunion d’orientation ou d’information à l’intention de nos consultants actifs (éventuellement sous la forme d’un webinaire ou d’un module en ligne) afin de leur expliquer la nouvelle politique, en mettant particulièrement l’accent sur les avantages qu’elle leur procure (équité, droits de recours) et leurs obligations (données véridiques, etc.).
  • Tous les nouveaux employés ou nouveaux utilisateurs de la plateforme recevront cette formation dans le cadre de leur intégration.
  • Audit initial des systèmes d’IA (dans un délai de 60 jours) : Le responsable du système, en collaboration avec un auditeur interne ou un responsable de la conformité, procédera à un audit approfondi de tous les systèmes d’IA existants sur la plateforme afin d’évaluer leur conformité actuelle avec la politique. Cela comprend l’évaluation des modèles existants en termes de biais, la vérification des journaux et de la documentation, et la garantie que les explications nécessaires peuvent être fournies. L’audit donnera lieu à un rapport identifiant les lacunes ou les problèmes de conformité. Par exemple, si un outil d’IA existant ne dispose pas d’une documentation adéquate ou si un biais potentiel est détecté dans les données historiques, ceux-ci seront notés.
  • Correction des problèmes hérités (dans un délai de 90 jours) : Sur la base des conclusions de l’audit initial, HGA corrigera tous les problèmes rencontrés dans les systèmes d’IA actuels. Cela peut impliquer de réentraîner les modèles avec des données plus diversifiées, de renforcer les mesures de sécurité, de rédiger la documentation manquante ou de modifier les fonctionnalités qui ne répondent pas aux nouvelles normes. Un calendrier sera établi pour chaque mesure corrective (certaines corrections peuvent être immédiates, d’autres peuvent nécessiter une mise en œuvre progressive). Au bout de 90 jours, tous les problèmes critiques (ceux qui présentent des risques éthiques ou juridiques élevés) auront été résolus. Les améliorations présentant un risque moindre pourront se poursuivre au-delà de 90 jours, mais leur suivi sera assuré jusqu’à leur achèvement.
  • Intégration de la politique dans le cycle de vie du développement (immédiate et continue) : À compter de ce jour, tous les nouveaux projets ou fonctionnalités liés à l’IA seront soumis à cette politique. HGA mettra à jour ses listes de contrôle du processus de développement afin d’y inclure des étapes d’examen éthique. Par exemple, avant la mise en service d’une fonctionnalité d’IA, l’équipe produit devra remplir une liste de contrôle de conformité confirmant que les tests d’équité, les contrôles de sécurité, etc. ont été effectués conformément à la présente politique. Cela garantit que les principes sont intégrés dès le premier jour du développement (ce que l’on appelle parfois « l’éthique dès la conception »).
  • Communication avec les parties prenantes (dans un délai de 30 jours) : HGA communiquera officiellement à ses organisations clientes et à ses partenaires sa politique en matière d’éthique de l’IA. Cela pourra se faire par le biais de newsletters électroniques, de mises à jour des contrats ou des protocoles d’accord, ou de réunions directes. L’objectif est de les rassurer quant à notre engagement (en soulignant éventuellement notre adhésion aux principes de l’UNESCO et de l’OCDE) et de les informer des changements auxquels ils pourraient être confrontés (par exemple, de nouvelles notifications sur la plateforme ou l’obligation de se conformer à certaines directives lors de l’utilisation de la plateforme). Nous les inviterons également à nous faire part de leurs questions ou commentaires.
  • Examen périodique (tous les 6 mois au départ, puis tous les ans) : Au cours de la première année de mise en œuvre, HGA procédera à des examens semestriels (tous les 6 mois) de l’efficacité de la politique et de l’état de l’éthique de l’IA sur la plateforme. Cela implique de réunir à nouveau l’équipe concernée (responsable du système, responsable de la conformité, représentants commerciaux) pour discuter : des incidents survenus, des commentaires des utilisateurs, des résultats des audits ou des contrôles, et des changements dans l’environnement externe (nouvelles lois ou directives). La politique sera mise à jour si nécessaire (par exemple, si le RGPD ou d’autres lois changent, ou si nous constatons qu’un principe doit être affiné). Après la première année et une fois que le programme sera stabilisé, nous passerons à un cycle de révision annuel. Toutefois, tout événement majeur (comme une violation importante ou une nouvelle fonctionnalité majeure de l’IA) déclenchera une révision hors cycle afin de garantir que la politique reste à jour et adéquate.
  • Références externes et certifications (dans un délai d’un an) : HGA vise à comparer son programme d’éthique en matière d’IA aux normes du secteur. Au cours de la première année, nous explorerons les certifications externes ou les contrôles de conformité. Par exemple, si la nouvelle loi européenne sur l’IA ou toute autre réglementation entre en vigueur, nous veillerons à être prêts à nous y conformer dès sa date d’application. Nous envisagerons également de participer à des initiatives ou à des forums sur l’éthique en matière d’IA afin de rester au fait des meilleures pratiques.

Tableau des étapes importantes (résumé) :
Jour 0 : Politique approuvée et publiée.
Jours 0 à 30 : Diffusion et formation du personnel interne et des consultants.
Au plus tard le 60e jour : Réalisation d’un audit de référence des systèmes d’IA pour vérifier leur conformité.
Au jour 90 : Correction des problèmes hautement prioritaires identifiés lors de l’audit ; rapport de conformité intermédiaire à la direction.
En continu : Intégration de contrôles éthiques dans le développement ; traitement des problèmes dès leur apparition.
6e mois : première révision semestrielle ; ajuster la politique ou les pratiques si nécessaire.
12e mois : révision annuelle complète ; envisager un audit/une certification externe ; rendre compte au conseil d’administration ou à l’organe directeur équivalent de l’état de l’éthique en matière d’IA. Répéter chaque année par la suite (ou plus souvent si nécessaire).

Le calendrier de HGA démontre que cette politique n’est pas un document ponctuel, mais le début d’un programme en constante évolution. Nous comprenons que la création d’une IA responsable est un processus d’amélioration continu. En fixant ces échéances concrètes et ces mécanismes de révision, nous nous engageons à mettre en pratique ces principes et à les maintenir à l’avenir.

Rapports et documentation

Un aspect essentiel de l’application de cette politique consiste à établir des protocoles clairs pour signaler les problèmes et conserver la documentation relative aux efforts de conformité. HGA encourage un environnement transparent et sans reproche pour soulever des préoccupations liées à l’éthique ou à la conformité de l’IA. Parallèlement, nous nous imposons des obligations strictes en matière de documentation afin de pouvoir démontrer les mesures que nous avons prises pour respecter cette politique. Voici un aperçu de la manière dont le signalement et la documentation sont gérés :

Signalement d’incidents (interne) :
Protection des lanceurs d’alerte : Tout employé ou sous-traitant de HGA qui constate ce qu’il soupçonne être une violation de la présente politique, un comportement contraire à l’éthique en matière d’IA ou un incident lié à la sécurité/confidentialité est tenu de le signaler sans délai à la direction (par exemple, à son supérieur hiérarchique, au responsable du système ou à un responsable de la conformité désigné). HGA applique une politique favorable aux lanceurs d’alerte : les signalements peuvent être effectués de manière confidentielle, voire anonyme (via une hotline ou un formulaire sécurisé), et le lanceur d’alerte sera protégé contre toute mesure de représailles. L’objectif est de résoudre le problème, et non de blâmer le lanceur d’alerte.
Canaux de signalement : Nous mettrons en place des canaux spécifiques pour les problèmes liés à l’IA. Il peut s’agir d’une adresse e-mail dédiée (par exemple, ethics@humanicsgroup.org) ou d’un formulaire de signalement d’incident en ligne sur l’intranet de l’entreprise. Pour les questions urgentes (comme une violation potentielle des données ou un cas grave de discrimination en cours), nous fournissons également des numéros de téléphone pour une escalade immédiate. Tout le personnel sera informé de la manière d’utiliser ces canaux lors de la formation.

Réponse aux signalements : dès réception d’un signalement, HGA en accusera réception et ouvrira une enquête dans un délai défini (par exemple, 5 jours ouvrables pour les problèmes courants, 24 heures pour les problèmes critiques). Une petite équipe d’enquête sera affectée au problème, comprenant par exemple un responsable technique pour les problèmes liés au système, un responsable des ressources humaines pour toute question relative à une faute professionnelle et un conseiller juridique si des implications réglementaires existent. Elle recueillera des faits (examen des journaux, entretiens avec les personnes concernées, etc.). Les résultats de l’enquête seront consignés et communiqués aux responsables concernés, ainsi qu’à la personne ayant signalé le problème, le cas échéant (certains résultats peuvent être confidentiels, mais nous nous efforçons de fournir des commentaires tels que « votre préoccupation était justifiée et nous avons pris les mesures XYZ » ou « après enquête, le système s’est avéré fonctionner correctement, voici pourquoi »).

Signalement par les utilisateurs (externe) :
Service d’assistance aux utilisateurs : Pour les utilisateurs de la plateforme (consultants, clients), nous intégrons le signalement des problèmes liés à l’IA dans notre structure d’assistance/de service client. Si un utilisateur rencontre ce qu’il pense être une erreur ou un biais de l’IA (par exemple, « La traduction IA de la plateforme a produit un langage inapproprié » ou « Je soupçonne que l’algorithme de classement a négligé mes qualifications »), il peut contacter le support via l’application ou par e-mail. Le personnel de support est formé pour reconnaître lorsqu’un ticket concerne un problème d’éthique lié à l’IA et le transmettre au spécialiste approprié (gestionnaire du système ou responsable de l’éthique).

– Transparence et résolution : Nous traiterons avec sérieux les problèmes signalés par les utilisateurs et nous nous efforcerons de les résoudre à leur satisfaction dans la mesure du possible. Même s’il s’agit d’un malentendu, nous prenons le temps d’expliquer le fonctionnement de l’IA ou les raisons d’un certain résultat, dans le cadre de notre engagement en faveur de la transparence. Si l’utilisateur a révélé une véritable faille ou un biais, nous présenterons nos excuses et y remédierons, en relançant éventuellement le processus de décision si cela est possible (par exemple, en réexaminant la candidature d’un consultant après avoir corrigé un bug).

Exigences en matière de documentation :
Dossiers de conformité à la politique : HGA conservera les dossiers prouvant la conformité à chaque aspect de la présente politique. Cela comprend les registres de participation aux formations (pour indiquer qui a été formé et quand), les listes de contrôle remplies pour les examens des systèmes d’IA, les rapports d’analyse d’impact relative à la protection des données s’ils ont été réalisés, les résultats des tests de partialité et les rapports d’audit. Ces documents pouvant être demandés par les clients ou les autorités de réglementation, nous les organisons et les stockons de manière systématique (probablement dans le référentiel de notre service de conformité, avec la confidentialité appropriée).

Registres des décisions : Comme indiqué dans la section « Auditabilité », les registres des décisions et des interventions de l’IA font partie de la documentation. Pour toute décision contestée, nous conserverons un enregistrement de l’appel, du processus de révision et de la résolution finale. Cela garantit non seulement la responsabilité, mais peut également servir de preuve si une question se pose ultérieurement (par exemple, si un participant affirme avoir été traité de manière injuste, nous disposons des journaux pour analyser le cas).
Rapports d’incident : Pour chaque incident important (violation de la sécurité, événement confirmé de partialité, etc.), un rapport d’incident officiel sera rédigé. Le rapport décrit l’incident, analyse son impact (qui/quoi a été affecté), en identifie la cause profonde et présente les mesures correctives prises. Ces rapports sont examinés par la direction et conservés dans nos dossiers. Si la loi ou des contrats l’exigent, certains incidents peuvent également être signalés à l’extérieur (voir la section « Gestion des violations » ci-dessous).
– Procès-verbaux des réunions : Les délibérations des réunions de supervision clés, telles que les réunions semestrielles ou annuelles d’examen de l’éthique de l’IA, ou toute réunion du comité d’éthique de l’IA, feront l’objet d’un procès-verbal. Les décisions prises (par exemple, mettre à jour une politique, investir dans un nouvel outil ou porter une question à l’attention du conseil d’administration) seront consignées. Cela permet de conserver une trace écrite de notre gouvernance en action.
Documentation réglementaire : Si nous sommes soumis à un régime réglementaire (par exemple, si certains systèmes d’IA relèvent de la future classification de la loi européenne sur l’IA), nous préparerons et conserverons les documents requis, tels que les évaluations de conformité ou les dossiers techniques. Nous documentons également toute communication avec les autorités chargées de la protection des données ou d’autres régulateurs (par exemple, si nous avons sollicité leur avis ou les avons informés de quelque chose) afin de démontrer notre conformité proactive.
– Conservation des documents : Tous les documents seront conservés pendant une période minimale, généralement conforme aux exigences légales ou aux besoins commerciaux. Par exemple, les documents liés au RGPD (tels que les DPIA) doivent être conservés tant que le traitement se poursuit, puis pendant quelques années après. Les rapports d’incident peuvent être conservés pendant plusieurs années à des fins de référence. HGA définira des calendriers de conservation conformes à la législation (par exemple, conservation des dossiers pendant au moins 5 ans à des fins de conformité, sauf si la législation impose une durée plus longue).

Amélioration continue : Le fait de signaler et de documenter n’est pas seulement une formalité bureaucratique ; HGA utilise ces processus pour apprendre et s’améliorer. Les tendances qui se dégagent des rapports d’incidents peuvent indiquer un problème systémique nécessitant une attention particulière (par exemple, plusieurs plaintes similaires d’utilisateurs pourraient entraîner la refonte d’une fonctionnalité de l’IA). L’examen de la documentation peut révéler des lacunes dans nos politiques ou nos formations (par exemple, si de nombreuses personnes déclarent ne pas comprendre comment faire appel, cela signifie peut-être que notre communication est insuffisante). Nous intégrons ces enseignements dans les mises à jour de la présente politique et de nos pratiques.

En conclusion, grâce à des canaux de reporting robustes et à une documentation exhaustive, HGA garantit la transparence du fonctionnement de notre gouvernance en matière d’IA. Cette ouverture nous permet de détecter les problèmes à un stade précoce, de les traiter de manière transparente et de rendre compte à toutes les parties prenantes de la manière dont nos systèmes d’IA sont gérés. Elle renforce également la confiance, tant en interne qu’en externe, dans le fait que si quelque chose ne fonctionne pas correctement, il existe un mécanisme fiable pour le détecter et le corriger.

Gestion des violations et mesures correctives

Bien que HGA s’efforce de prévenir toute violation de la présente politique ou toute défaillance dans les performances du système d’IA, nous devons être prêts à agir de manière décisive si cela se produit. Dans ce contexte, le terme « violation » peut désigner différents scénarios : une violation des données (accès non autorisé ou perte de données personnelles), une violation de la politique (non-respect des normes éthiques en matière d’IA énoncées ici) ou une violation de la sécurité de l’intégrité du système d’IA. Cette section détaille la manière dont HGA gère ces incidents et les mesures prises pour y remédier et éviter qu’ils ne se reproduisent.

Identification des violations :
– Une violation peut être identifiée grâce à nos systèmes de surveillance, à des audits internes ou externes, à des rapports d’utilisateurs ou de membres du personnel, ou à des alertes (par exemple, un système de détection d’intrusion signalant une activité irrégulière). La première étape après l’identification est le confinement : s’assurer que la violation n’est pas en cours (par exemple, couper tout accès non autorisé, arrêter un processus d’IA défectueux, etc. Le responsable du système et l’équipe de sécurité informatique dirigeront le confinement des violations techniques, tandis que l’équipe de conformité pourra diriger celui des violations de procédures/politiques.

Notification et escalade :
– L’escalade interne se fait immédiatement. Les responsables des services concernés et la direction sont informés par le biais d’une notification d’incident. Si la violation concerne des données à caractère personnel et répond aux critères d’un incident à signaler en vertu du RGPD ou d’autres lois, HGA en informera l’autorité de contrôle compétente (telle que l’autorité de protection des données de l’UE) dans les 72 heures suivant sa prise de connaissance, comme l’exige le RGPD, et documentera les raisons de tout retard au-delà de 72 heures. Si la violation est susceptible d’avoir un impact sur des personnes (par exemple, si leurs données à caractère personnel ont été compromises ou si une erreur de décision a pu leur porter préjudice), nous informerons également ces personnes sans délai injustifié, en leur fournissant des informations sur la nature de la violation et les mesures qu’elles doivent prendre (conformément à la loi). Par exemple, si une violation de la sécurité a entraîné la fuite d’informations personnelles concernant des consultants, ceux-ci seront informés et peut-être invités à prendre des précautions telles que la modification de leurs mots de passe.
– Si la violation concerne des travaux financés par des donateurs (par exemple, une violation éthique dans le cadre d’un projet de la Banque mondiale), nous en informerons également le donateur si cela est requis par contrat ou approprié, conformément à l’obligation de signaler les fraudes, la corruption ou les problèmes importants. La clause des contrats de HGA relative aux directives à l’intention des consultants exige la divulgation des conflits ou des enquêtes, de sorte que nous divulguerions de la même manière les incidents majeurs affectant l’intégrité d’un projet financé par un donateur.

Enquête :
– HGA mettra en place une équipe d’intervention afin d’enquêter de manière approfondie sur la violation. Cette équipe comprend généralement : des responsables système/experts techniques (pour analyser les causes techniques), des responsables de la conformité/juridiques (pour évaluer l’impact juridique, par exemple les obligations liées au RGPD) et des dirigeants (pour évaluer l’impact sur les clients). L’enquête permettra de déterminer : Que s’est-il passé ? Comment cela s’est-il produit ? Qui ou quoi est responsable ? Quelles données ou quels résultats ont été affectés ? Par exemple, dans le cas d’une violation de données, nous identifions les données qui ont été consultées et comment (compte piraté, vulnérabilité logicielle, etc.). Dans le cas d’une violation de l’éthique (comme un système d’IA jugé discriminatoire), nous déterminons comment ce biais s’est produit (était-ce dans les données ou quelqu’un a-t-il contourné les tests ?).
– Les résultats de l’enquête sont consignés dans un rapport d’incident (comme mentionné dans la section « Signalement ») et comprennent une analyse des causes profondes. Nous évaluons également la gravité de l’impact (faible, moyenne, élevée) afin de hiérarchiser les mesures à prendre. Une violation de gravité élevée (par exemple, une fuite de données personnelles à grande échelle ou une pratique d’embauche systématiquement déloyale) fait l’objet d’une attention immédiate de la part de la direction et éventuellement du conseil d’administration.

Mesures correctives :
Sur la base des conclusions de l’enquête, HGA met en œuvre des mesures correctives, qui peuvent être regroupées comme suit :
Corrections techniques : Elles corrigent les failles du système d’IA ou de la sécurité. Elles peuvent inclure la correction de logiciels, l’amélioration du cryptage, la restauration d’un système à partir d’une sauvegarde propre, le réentraînement d’un modèle avec des données corrigées ou l’ajout de nouveaux filtres de données. Par exemple, si une violation était due à un bug logiciel, nous corrigeons le bug et effectuons des tests approfondis pour nous assurer que la vulnérabilité est corrigée. Si une IA produisait des résultats biaisés, nous pouvons ajuster son algorithme, inclure des données plus représentatives ou imposer des contraintes d’équité dans le modèle. Dans certains cas, nous pouvons désactiver complètement une fonctionnalité jusqu’à ce qu’une solution plus robuste soit développée.
– Amélioration des processus : Nous examinons si nos processus ont échoué. Peut-être qu’une étape a été omise (par exemple, un contrôle des biais n’a pas été effectué en raison de contraintes de temps) ou qu’une erreur humaine n’a pas permis de détecter un problème. Nous renforcerons ou modifierons les processus, ce qui pourrait se traduire par la mise à jour de la liste de contrôle du développement, l’introduction d’une étape de révision supplémentaire ou l’augmentation de la fréquence des audits. Nous pourrions également renforcer les contrôles d’accès ou modifier la gestion de la configuration si la violation était due à un accès inapproprié ou à une modification du système.
Mesures disciplinaires : Si la violation implique une faute ou une négligence de la part d’individus, HGA prendra les mesures appropriées. Celles-ci peuvent aller d’une nouvelle formation et d’un accompagnement à des mesures disciplinaires (avertissements, suspension ou licenciement dans les cas graves). Par exemple, si un employé a délibérément ignoré la politique (par exemple, en déployant intentionnellement un modèle d’IA sans l’autorisation requise), il devra en assumer les conséquences. Notre approche est corrective plutôt que punitive, mais les violations délibérées ou répétées peuvent entraîner un licenciement, en particulier si elles compromettent la conformité légale ou la réputation de l’entreprise.
– Recours pour les utilisateurs : Lorsque les utilisateurs ont subi un préjudice, nous leur proposons des recours dans la mesure du possible. En cas de violation des données, cela peut inclure la mise en place d’un suivi du crédit pour les personnes concernées ou toute autre forme d’assistance appropriée. Pour les problèmes liés à la prise de décision, une solution pourrait consister à refaire le processus de sélection de manière équitable ou à offrir au consultant concerné la possibilité de participer à un autre projet, si cela est possible. Bien que ces solutions ne permettent pas d’effacer le problème, elles témoignent d’un effort de bonne foi pour rectifier la situation et atténuer les dommages.

Communication et transparence : Après avoir réglé les problèmes immédiats, HGA communiquera avec les parties prenantes concernées pour leur expliquer ce qui s’est passé et ce que nous avons fait pour y remédier. En interne, nous partageons les leçons apprises, par exemple lors d’une réunion post-mortem ou dans une note de service (sans pointer du doigt qui que ce soit, mais en mettant l’accent sur les améliorations). En externe, si l’incident était public ou connu des clients, nous pouvons publier une déclaration ou un rapport expliquant les mesures prises. La transparence après coup aide à rétablir la confiance.

Suivi et révision :
Après avoir pris des mesures correctives, HGA surveillera la situation de près. Par exemple, si un modèle a été réentraîné en raison d’un biais, ses résultats seront examinés lors des cycles suivants afin de s’assurer que le biais a bien disparu et ne réapparaît pas. Nous pouvons également programmer un audit de suivi spécial axé sur le domaine concerné par la violation (peut-être trois mois plus tard, afin de vérifier que toutes les corrections recommandées ont été mises en œuvre et sont efficaces). Les conclusions tirées de la violation et de son traitement seront prises en compte dans la prochaine révision de la politique, ce qui pourrait donner lieu à de nouvelles dispositions ou à des contrôles plus stricts afin d’éviter que cela ne se reproduise.

Conséquences juridiques :
HGA reconnaît que certaines violations, notamment celles impliquant des données à caractère personnel, ont des conséquences juridiques (amendes, sanctions). Notre approche consiste à coopérer pleinement avec les autorités de réglementation, à assumer nos responsabilités et à rectifier les problèmes afin d’atténuer les sanctions éventuelles. Notre documentation exhaustive des efforts de conformité et nos mesures rapides peuvent servir de preuve de diligence raisonnable, ce qui peut réduire notre responsabilité. Néanmoins, les mesures coercitives prises par les autorités seront respectées et appliquées. Si une violation donne lieu à des poursuites judiciaires de la part de particuliers, HGA y répondra par les voies légales appropriées, en mettant à nouveau l’accent sur nos mesures correctives et notre engagement en faveur de l’équité.

En résumé, bien que notre objectif soit de zéro incident, nous nous préparons au pire afin de minimiser les dommages et de tirer les leçons de nos erreurs. La gestion des violations est le domaine dans lequel nos principes éthiques sont mis à l’épreuve sous pression. En réagissant rapidement, ouvertement et efficacement, HGA vise à maintenir la confiance même lorsque les choses tournent mal. Nos clients et utilisateurs doivent avoir l’assurance que si un problème survient, HGA le traitera de front et en ressortira avec des systèmes et des mesures de protection plus solides.

Application et conformité

La présente politique est une directive contraignante pour toutes les opérations de HGA liées à l’IA, et sa conformité est obligatoire. Des mécanismes d’application garantissent que la politique n’est pas seulement une déclaration d’intention, mais qu’elle est activement respectée, avec des conséquences en cas de violation. En outre, cette section relie les engagements de notre politique à nos obligations légales et contractuelles, soulignant que la conformité est à la fois une question d’éthique et une question de droit.

Application au sein de HGA (employés et sous-traitants) :
Intégration dans les politiques RH : HGA intégrera le respect de la politique en matière d’éthique et d’utilisation responsable de l’IA dans son code de conduite et ses conditions d’emploi. Cela signifie que chaque employé a le devoir, dans le cadre de sa description de poste, de suivre les directives de la politique qui s’appliquent à son rôle. Toute violation délibérée ou par négligence de cette politique par un employé peut être considérée comme une infraction disciplinaire. Par exemple, si un développeur déploie sciemment un algorithme qu’il soupçonne d’être biaisé sans le divulguer, il s’agit d’une violation grave.
Procédure disciplinaire : Les mesures coercitives à l’encontre du personnel peuvent inclure des avertissements verbaux ou écrits, une nouvelle formation obligatoire, la suspension de l’accès à certains systèmes et, dans les cas graves ou répétés, la résiliation du contrat de travail ou du contrat. La sévérité de la mesure correspondra à des facteurs tels que : la violation était-elle intentionnelle ou accidentelle ? A-t-elle causé un préjudice ? A-t-elle été signalée spontanément ou a-t-on tenté de la dissimuler ? Nos procédures disciplinaires (telles que décrites dans les manuels destinés aux employés) seront suivies, afin de garantir l’équité et de donner à la personne concernée la possibilité d’expliquer son cas. Un comité composé de représentants des ressources humaines, du service juridique et d’un cadre supérieur peut examiner les cas importants afin de décider de la suite à donner.
– Évaluations des performances : Afin d’encourager la conformité, HGA fera du respect des normes éthiques et de conformité un facteur pris en compte dans les évaluations des performances pour les postes concernés. Par exemple, un responsable système pourrait avoir pour objectif de maintenir un taux d’incidents de conformité significatifs à zéro, ou un développeur commercial pourrait être évalué sur la base des commentaires des clients/consultants concernant l’équité et la transparence. Cela permet d’aligner les incitations sur les objectifs de la politique.

Application auprès des utilisateurs de la plateforme (consultants et clients) :
Conditions d’utilisation contraignantes : Les principes de la présente politique seront reflétés dans les conditions d’utilisation ou les accords d’utilisation de la plateforme. En utilisant la plateforme, les consultants et les organisations clientes s’engagent à respecter les parties applicables de la présente politique (par exemple, fournir des données véridiques, ne pas se livrer à des comportements interdits, respecter la vie privée). Le non-respect de ces dispositions peut donc constituer une violation du contrat.
Mesures prises à l’encontre des comptes : Si un consultant ou une organisation enfreint les directives éthiques (par exemple, si un consultant tente de pirater le système d’IA ou si un client fait pression sur HGA pour qu’elle enfreigne les règles d’équité), HGA se réserve le droit de prendre des mesures à l’encontre de leurs comptes. Cela peut inclure des avertissements, une suspension temporaire de la plateforme ou, dans les cas les plus graves, la résiliation définitive du compte. En règle générale, nous commençons par avertir et informer les personnes concernées. Par exemple, si un consultant utilise un contenu inapproprié, nous lui demandons de le corriger. Toutefois, les violations graves (telles que la fraude avérée ou l’utilisation abusive de données) peuvent entraîner une suspension immédiate.
– Recours contractuels : Les contrats de HGA (tels que le contrat de représentation des consultants et les contrats de projet avec les clients) contiennent des clauses exigeant un comportement éthique et le respect des règles des bailleurs de fonds. En cas de violation de ces clauses, des recours contractuels s’appliquent. Pour les consultants, HGA peut résilier leur contrat pour motif valable (ce qui est sévère mais possible s’ils se livrent, par exemple, à des actes de corruption dans le cadre d’un projet). Pour les clients, si les actions d’un client entraînent une violation de l’éthique, HGA peut se retirer du projet ou exiger du client qu’il remédie à la situation (bien que dans la pratique, nous cherchions à résoudre les problèmes de manière coopérative). Les directives de la Banque mondiale relatives aux consultants, par exemple, autorisent la résiliation du contrat d’un consultant s’il s’avère qu’il a enfreint les dispositions anti-fraude ; HGA appliquerait des mesures similaires afin de rester éligible aux projets financés par des donateurs.

Action en justice : Dans les cas où la violation de la présente politique par un utilisateur enfreint également la loi (par exemple, un utilisateur qui vole des données ou se livre à du harcèlement via des outils d’IA), HGA n’hésitera pas à faire appel aux forces de l’ordre ou à intenter une action en justice afin de protéger notre plateforme et les autres utilisateurs. Il s’agit bien sûr d’un dernier recours, et toute action de ce type serait menée dans le respect des procédures légales en vigueur.

Conformité aux obligations légales :
RGPD et protection des données : Comme souligné précédemment, HGA se conforme au RGPD et aux autres lois sur la confidentialité. Le non-respect de la présente politique pourrait entraîner une non-conformité juridique (par exemple, le non-respect du droit de contestation d’un utilisateur pourrait constituer une violation de l’article 22 du RGPD, ou une violation de données mal gérée pourrait constituer une violation des règles de notification des violations). Le délégué à la protection des données de HGA (ou la personne remplissant cette fonction) veillera à ce que l’application de la présente politique soit conforme à la protection des données. Par exemple, si un employé enfreint la protection des données en utilisant l’IA de manière abusive, la mesure coercitive doit être documentée dans le cadre de la démonstration de la responsabilité en vertu du RGPD[26]. Nous conservons également les registres de traitement et les AIPD comme requis, et nous mettrions fin à tout traitement par l’IA jugé illégal jusqu’à ce qu’il soit conforme.

– CCPA et droits des consommateurs : Pour nos activités aux États-Unis, en particulier lorsque nous traitons avec des résidents californiens, nous respectons les droits prévus par la CCPA. La conformité signifie que si un utilisateur refuse la vente de ses données ou demande leur suppression, nos systèmes d’IA n’utiliseront pas ses données au-delà de ce qui est autorisé. L’application de cette règle concerne la conformité interne, c’est-à-dire la garantie que nos systèmes et notre personnel respectent ces demandes. Tout manquement à cette obligation peut entraîner des sanctions réglementaires et des poursuites judiciaires. Ainsi, notre application technique comprend la mise en place de mécanismes permettant de respecter les refus, et notre application administrative consiste à sanctionner tout membre du personnel qui ignore ces demandes.
Réglementations relatives aux donateurs et à l’industrie : HGA travaille fréquemment avec des entités telles que la Banque mondiale, les Nations unies, etc. Celles-ci ont souvent leurs propres cadres de conformité (lutte contre la corruption, intégrité des marchés publics). Nous nous engageons explicitement (dans la section 3.2 de notre contrat de consultant) à respecter les directives de la Banque mondiale relatives aux consultants[27], y compris les règles en matière d’éthique et de conflits d’intérêts. Dans ce domaine, cela signifie que si un consultant ou un membre du personnel enfreint les règles éthiques des bailleurs de fonds (par exemple, s’il se livre à des pratiques de collusion ou manipule un système d’IA afin de favoriser un certain résultat à des fins personnelles), HGA appliquera non seulement sa politique, mais pourra également signaler la personne concernée au bailleur de fonds conformément à ces directives. La Banque mondiale ou d’autres organismes peuvent sanctionner les personnes concernées (exclusion) – HGA coopérera avec ces processus et pourra les anticiper en prenant d’abord ses propres mesures.
– Conformité réglementaire : Si de nouvelles lois telles que la loi européenne sur l’IA venaient à être adoptées, ou si notre activité venait à s’étendre à des juridictions dotées de réglementations spécifiques à l’IA, HGA intégrerait ces exigences. La mise en application pourrait inclure la réalisation d’évaluations de conformité obligatoires, l’enregistrement de certains systèmes d’IA auprès des autorités réglementaires ou la cessation de l’utilisation de toute IA jugée inacceptable (comme un cas d’utilisation interdit). Nous nous engageons à ne pas exploiter sciemment une IA en violation de la loi applicable. Si une loi impose des sanctions pour certains comportements de l’IA, nous considérons que le fait d’éviter ces sanctions est une priorité en matière de conformité, conformément à la présente politique.

 

Contrôle de l’application :
– Dans le cadre de nos audits internes et de nos examens annuels, nous évaluerons non seulement les systèmes d’IA, mais aussi l’efficacité de l’application de cette politique. Les personnes signalent-elles les problèmes sans crainte ? Les mesures disciplinaires sont-elles cohérentes et équitables ? Nous pourrions inclure des indicateurs tels que le nombre d’incidents signalés, le délai de résolution, etc. pour évaluer l’efficacité. Si nous constatons des lacunes (par exemple, si les personnes ne signalent pas les problèmes connus par crainte ou par ignorance), nous améliorerons la formation et la culture. Si nous constatons que notre application est trop laxiste ou trop sévère, nous ajusterons les directives à l’intention des responsables.

Conclusion de la section relative à l’application :
La position de HGA est que la gouvernance éthique de l’IA n’est pas négociable. Nous sommes prêts à appliquer ces règles avec fermeté, car les enjeux sont importants : la confiance des utilisateurs, la conformité légale et notre réputation en dépendent. Cependant, l’application de ces règles est équilibrée par l’équité ; notre objectif est davantage d’éduquer et de corriger que de punir. En fin de compte, en liant clairement cette politique aux devoirs de chacun et en la soutenant par des conséquences, nous nous assurons qu’elle est prise au sérieux à tous les niveaux. Cela boucle la boucle de notre programme de gouvernance : des principes généraux aux actions quotidiennes et, si nécessaire, aux sanctions, afin de maintenir l’intégrité de nos services basés sur l’IA.

Références et alignement du cadre (à titre informatif)

(Les sources et cadres suivants ont inspiré l’élaboration de la présente politique. Il ne s’agit pas d’exigences supplémentaires, mais ils illustrent l’alignement de HGA sur les meilleures pratiques mondiales en matière d’éthique et de conformité dans le domaine de l’IA.)

  • UNESCO, Recommandation sur l’éthique de l’intelligence artificielle (2021) – Premier instrument normatif mondial de l’UNESCO sur l’éthique de l’IA, mettant l’accent sur les droits de l’homme, l’équité, la transparence, la responsabilité et la promotion de « principes fondamentaux tels que la transparence et l’équité » avec « l’importance du contrôle humain des systèmes d’IA ». La politique de HGA s’appuie sur les valeurs de l’UNESCO et ses domaines d’action politique, dans le but de les transposer dans le contexte de notre organisation.
  • OCDE, Principes de l’OCDE sur l’intelligence artificielle (2019) – un cadre intergouvernemental composé de cinq principes fondés sur des valeurs (croissance inclusive, valeurs centrées sur l’humain, transparence, robustesse, responsabilité) et de recommandations pour une IA digne de confiance. HGA fait particulièrement écho aux appels de l’OCDE en faveur de la transparence (« Les acteurs de l’IA doivent s’engager à faire preuve de transparence et à divulguer les informations de manière responsable »), de l’équité et de la non-discrimination (« respect de l’égalité, de la diversité, de l’équité et de la justice sociale »), de la robustesse et de la sécurité (« Les systèmes d’IA doivent être robustes, sûrs et sécurisés tout au long de leur cycle de vie ») et la responsabilité (« les acteurs de l’IA doivent être responsables du bon fonctionnement des systèmes d’IA »). Nos contrôles internes et nos structures de responsabilité sont conçus pour refléter ces lignes directrices.
  • RGPD, Règlement général sur la protection des données (2016) de l’UE – Exigences légales relatives au traitement des données à caractère personnel, y compris les dispositions relatives à la prise de décision automatisée et au profilage. L’article 22 du RGPD et les considérants connexes établissent le droit de ne pas être soumis à des décisions uniquement automatisées et de demander une intervention humaine, ce que HGA intègre pleinement (les utilisateurs peuvent obtenir une intervention humaine, exprimer leur point de vue et contester les décisions automatisées). 
  • Nous respectons également les principes du RGPD en matière de traitement des données et d’obligations de notification des violations, garantissant ainsi que nos pratiques en matière d’IA répondent aux normes les plus strictes en matière de protection des données.
  • CCPA/CPRA, California Consumer Privacy Act (2018) et CPRA (2020) – Loi américaine influant sur la confidentialité des données et la transparence des décisions automatisées. Les engagements de HGA visant à permettre les désinscriptions, à garantir la transparence des données et à protéger les informations personnelles sont conformes à ces lois sur les droits des consommateurs.
  • Banque mondiale, Règlement sur les marchés publics et directives relatives aux consultants – Nous respectons les directives des bailleurs de fonds, telles que celles de la Banque mondiale, qui exigent équité, transparence et intégrité dans la sélection des consultants. Par exemple, les directives de la Banque mondiale stipulent que « l’équité et la transparence dans le processus de sélection exigent que les consultants… ne tirent pas un avantage concurrentiel » par rapport aux autres, et que les consultants doivent respecter les « normes éthiques les plus élevées ».
  •  

By grounding our Policy in these r

  • La politique de HGA met en œuvre ces principes dans nos processus basés sur l’IA afin de garantir que nous restions éligibles et en règle pour les contrats financés par des donateurs.
  • Normes industrielles et cadres éthiques : HGA surveille également d’autres cadres pertinents tels que les Lignes directrices éthiques pour une IA fiable (2019) du groupe d’experts de haut niveau de l’UE, les Lignes directrices universelles pour l’IA (2018) élaborées par des groupes de la société civile, et les directives ISO/IEC sur la gestion des risques liés à l’IA. Ces documents renforcent des thèmes similaires – l’action humaine, la robustesse technique, la responsabilité – et la politique de HGA est conçue pour être conforme à ces normes largement consensuelles.

 HGA veille à ce que nous n’agissions pas de manière isolée, mais dans le cadre d’un mouvement plus large en faveur d’une IA responsable. Nous continuerons à mettre à jour nos pratiques à mesure que ces cadres évolueront (par exemple, en nous adaptant aux nouvelles recommandations issues des travaux en cours de l’UNESCO ou aux mises à jour de l’OCDE en 2024 et au-delà). Notre objectif est de montrer comment une entreprise de taille moyenne axée sur le conseil peut mettre en œuvre les principes éthiques mondiaux en matière d’IA de manière pratique et concrète, en donnant l’exemple à nos pairs et en conservant la confiance de ceux que nous servons.

Approbation et gouvernance : La présente politique en matière d’éthique et d’utilisation responsable de l’IA est approuvée par le PDG de Humanics Global Advisors à compter de la date d’entrée en vigueur indiquée. Elle sera révisée selon le calendrier décrit dans les présentes, ou plus fréquemment si nécessaire, et toute modification importante sera communiquée à toutes les parties prenantes. Toutes les questions concernant la présente politique doivent être adressées au responsable du système HGA ou au responsable de la conformité à l’adresse compliance@humanicsgroup.org. En suivant cette politique, nous veillons collectivement à ce que la plateforme numérique HGA reste un environnement fiable, équitable et innovant où la technologie est utilisée de manière responsable dans l’intérêt de tous les participants.