Un chef d’entreprise belge sur trois reconnaît que ses outils d’intelligence artificielle ont probablement déjà pris des décisions contraires à l'éthique

Une étude d’Avanade met en lumière le besoin urgent d’un cadre réglementaire en matière d’intelligence artificielle (IA) pour les dirigeants belges.

  • Neuf dirigeants belges sur dix (88 %) souhaitent définir un cadre éthique pour l'IA.
  • Plus des deux tiers (70 %) déclarent ne pas avoir de politique en place pour garantir la responsabilité éthique de leurs outils d'IA.
  • Un répondant sur trois (33 %) admet qu’une application d’intelligence artificielle utilisée par son entreprise a très probablement pris des décisions contraires à l'éthique dans le passé.

Les entreprises belges n’ont actuellement aucun cadre régissant la responsabilité éthique de leurs outils basés sur l’intelligence artificielle. C’est ce que révèle Avanade, premier intégrateur mondial de solutions Microsoft, d’après une étude menée auprès des dirigeants belges sur l’éthique et l’intelligence artificielle. Un chef d’entreprise belge sur trois reconnaît que les outils d’IA utilisés dans son entreprise ont probablement pris des décisions contraires à l'éthique dans le passé.

« Le coronavirus a accéléré la révolution numérique de nombreuses entreprises et l’intelligence artificielle y occupe une place importante. Les récentes révélations sur le racisme institutionnel prouvent d'autant plus que les dirigeants d'entreprises doivent s'assurer que la technologie ne contient pas de préjugés systémiques. Puisque nous savons que les cadres réglementaires sont souvent à la traîne par rapport aux évolutions technologiques, nous devons être conscients des risques et prioriser l’éthique numérique », explique Johann Corlemeijer, Country Manager chez Avanade Belgique.  

Les inquiétudes principales concernent la sécurité, la vie privée et la responsabilité

L'étude démontre que les chefs d'entreprise belges sont surtout préoccupés par les atteintes à la sécurité (84 %), à la vie privée (82 %) et les questions de responsabilité (74 %). Patrick Tack, responsable Data & AI chez Avanade Belgique, confirme :

« Nous sommes stimulés par l'inquiétude suscitée par les questions de sécurité et de respect de la vie privée. Toutefois, les défaillances de l'éthique numérique peuvent avoir un impact bien plus dévastateur sur les personnes que les atteintes à la sécurité et à la vie privée. Par exemple, nous avons déjà relevé des préjugés systématiques dans le secteur des soins de santé, des services financiers et du recrutement. Le fait qu'une personne n'obtienne pas un emploi en raison de son ethnicité, à cause d'un algorithme erroné, devrait retenir autant notre attention que la possibilité de violation de la vie privée ou de vol d'identité »

Heureusement, l’étude a montré que 7 personnes interrogées sur 10 s'inquiètent de la présence de préjugés sociétaux dans les systèmes d'IA.

Incertitudes et manque d’information

Les résultats de l'enquête révèlent que les chefs d'entreprise belges sont mal informés quant aux risques éthiques relatifs à l'intelligence artificielle. 44 % des répondants ne sont pas conscients du risque de partialité du système d'intelligence artificielle et 33 % n’envisagent pas les questions de transparence, comme le fait qu'une personne puisse ignorer qu’elle interagit avec une intelligence artificielle. En outre, un cinquième (22 %) des interrogés n’est pas conscient des risques liés à la violation de la vie privée, par exemple lorsque les systèmes d'IA collectent et utilisent des données privées à l'insu de la personne concernée ou sans son consentement.

Par conséquent, seule une minorité des personnes interrogées admet maîtriser les principes de base pour garantir une responsabilité éthique dans l’utilisation des outils d'IA. Plus de deux tiers (70 %) reconnaissent ne pas avoir de politique en place pour garantir la responsabilité éthique de leurs outils d'IA. Il n'est donc pas surprenant qu’un tiers (33 %) des répondants qui utilisent l'IA admette qu'il est très probable que les outils aient déjà pris une décision contraire à l'éthique. En outre, la moitié des chefs d’entreprise belge (52 %) pensent qu'ils seront eux-mêmes traités de manière non éthique par un outil IA.

« Ces chiffres montrent l'incertitude qui règne parmi les chefs d'entreprise belges. Il y a un manque de contrôle imminent, » déclare Patrick Tack. « L'intelligence artificielle est une technologie incroyable qui fera avancer de nombreux secteurs. Cependant, il est crucial que les chefs d'entreprise et leur organisation soient formés à la mise en œuvre et à l'usage éthiques de l'intelligence artificielle. Cette responsabilité incombe aux développeurs, et non à l'utilisateur final ».

Un besoin de réglementation

Huit dirigeants sur dix (79 %) ont mentionné l'usage éthique de l'intelligence artificielle comme une priorité pour leur entreprise dans les trois prochaines années. L'enquête a révélé un fort consensus parmi les responsables d’entreprise belges : neuf sur dix (88%) déclarent que l'aspect éthique de l'intelligence artificielle doit être réglementé. Johann Corlemeijer, Country Manager chez Avanade Belgique, poursuit :

"Face à une crise mondiale, la transparence et la confiance sont essentielles. Les citoyens sont déjà suffisamment sous pression dans leur vie personnelle, ils ont besoin d’interactions authentiques et solidaires avec les entreprises. Alors que de plus en plus d'organisations belges adoptent l'IA, il y a un besoin pressant d’avoir un cadre réglementaire pour s'assurer que nous tirons tous les bénéfices de cette technologie tout en abordant les principales implications éthiques. Parallèlement, les chefs d'entreprise doivent prendre des décisions fondées sur les valeurs et les principes fondamentaux de l'entreprise. L'intelligence artificielle doit être digne de confiance, éthiquement et socialement responsable et respecter nos droits individuels".

Milan Vloeberghs

Media contact, Golin

Recevez des mises à jour par e-mail

En cliquant sur « S'abonner », je confirme avoir lu et accepté la Politique de confidentialité.