AI Act : Les réactions contrastées des acteurs de l’IT

Le 1er août 2024, la loi européenne sur l’IA est entrée en vigueur, marquant un tournant dans la régulation de l’intelligence artificielle en Europe. Une législation qui vise à assurer la sécurité, la transparence et l’efficacité des systèmes d’IA, avec un impact direct sur les acteurs de l’IT et de la Tech en France.

ChannelBiz partage les réactions de 3 acteurs de l’IT : Greg Hanson, GVP EMEA Nord chez Informatica. Jérôme Valat, DG et co-fondateur de Cleyrop. Et Stéphane Kamga, Architecte chez Appian. Des prises de positions fortes, et des visions contrastées de ce nouvel enjeu qui s’impose desormais aux entreprises de la Tech en Europe.

« L’heure de la conformité à l’IA a sonné ! »

Greg Hanson, GVP EMEA Nord chez Informatica : « L’heure de la conformité à l’IA a sonné. Bien qu’il faille encore du temps pour que les codes de pratique et les lignes directrices qui sous-tendent la loi européenne sur l’IA soient publiés, les entreprises doivent commencer à planifier et à se préparer dès maintenant.  L’approche progressive privilégiée par l’UE donne à la plupart des entreprises jusqu’à un an pour s’assurer d’avoir mis en place des mécanismes garantissant que l’IA a été intégrée de manière responsable dans leurs activités commerciales. Cependant, de nombreuses entreprises font encore face des obstacles à l’adoption de l’IA – 43 % des entreprises françaises qui ont adopté l’IA déclarent que la qualité des données est le principal obstacle, suivi par la confidentialité et la protection des données (35 %)*.

Il faudra du temps pour que la responsabilité, les garde-fous et les contrôles autour de l’IA soient au bon endroit au fur et à mesure de l’évolution de son utilisation. Mais pour commencer, les organisations devraient se concentrer sur la protection de l’intégrité des systèmes d’IA en s’assurant que les fondements et les contrôles des outils d’IA sont solides. Les données utilisées pour former les modèles d’IA doivent être totalement transparentes. Les organisations doivent mesurer, corriger et rendre compte de la qualité des données introduites dans les modèles d’IA afin de s’assurer que les décisions sont prises sur la base de données fiables et bien gérées. Elles doivent également comprendre les décisions prises par les modèles d’IA et les raisons de ces décisions. »  

« Un texte mal ficelé qui limitera en effet une partie de l’innovation européenne »

Jérôme Valat, DG et co-fondateur de Cleyrop, acteur français spécialisé dans la donnée et l’IA : « Pour résumer, d’une part, on se trompe de nouveau de combat et d’autre part, nous tentons de réguler les monstres que nous avons laissé prospérer. La Commission européenne n’a eu de cesse d’offrir le marché européen digital aux américains, y compris même contre les décisions des tribunaux de la CJUE. (…) À l’instar des DSA et DMA, tentant de limiter les effets délétères des acteurs hégémoniques US, l’IA Act est un arbre qui tente de cacher la forêt funeste de l’innovation européenne. 

L’IA Act est un texte compromis mal ficelé qui limitera en effet une partie de l’innovation européenne mais surtout ne règlera rien des problèmes à venir. À noter que malgré les menaces de Meta, ces derniers modèles sont disponibles en Europe. Nous serons bientôt avec un marché de l’IA entièrement américain. Les éditeurs de modèle sont US (sauf Mistral mais pas pour longtemps). Et pire encore, le nerf de la guerre de l’IA c’est aussi les GPU, les processeurs offrant la puissance nécessaire à l’IA. Un acteur est quasi monopolistique, NVIDIA, américain bien sûr. Et l’Europe brille par son silence sur le sujet. Bref l’IA Act est un texte politique qui servira à la commission européenne à prétendre qu’elle a fait le nécessaire, mais qui loupe l’essentiel. Du classique en somme. »

« Avec cette loi, les entreprises devront redoubler d’efforts ! « 

Stéphane Kamga, Architecte chez Appian : « Depuis longtemps, nous plaidons pour un cadre réglementaire plus strict afin de protéger les utilisateurs et les entreprises des risques potentiels associés à l’IA. Notre approche repose sur l’intégration de l’IA privée, des processus automatisés et des structures de données sophistiquées, permettant une orchestration harmonieuse entre les humains et les systèmes d’IA. Cette combinaison assure non seulement une meilleure gouvernance, mais aussi une protection accrue des données sensibles et une réduction des erreurs grâce à une surveillance humaine continue. Avec la mise en œuvre de cette loi, les entreprises devront redoubler d’efforts pour garantir la transparence dans la prise de décision, la clarté dans l’utilisation de l’IA et la validation des informations avant leur utilisation. Chez Appian, nous avons anticipé ces exigences en développant des solutions qui intègrent la data fabric, une architecture qui unifie les données de systèmes disparates, facilitant ainsi l’entraînement et le déploiement de modèles d’IA tout en assurant une sécurité renforcée.

En centralisant les autorisations et en limitant l’accès aux données aux seules personnes autorisées, nous minimisons les risques de fuites de données et d’accès non autorisé. La législation européenne sur l’IA n’est qu’un premier pas vers un avenir où l’IA sera utilisée de manière responsable et éthique. Ce règlement harmonise les règles pour le développement et l’utilisation des systèmes d’IA, catégorise ces systèmes selon leur niveau de risque, et interdit certains usages préjudiciables. Les systèmes à haut risque doivent respecter des exigences strictes de gestion des risques et de gouvernance des données. Les sanctions pour non-conformité peuvent aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial. Appian est prêt à accompagner les entreprises dans cette transition en leur offrant des outils robustes et conformes pour naviguer dans ce nouvel environnement réglementaire.»

Pour ne rien rater de l’actualité de la distribution IT & Tech, rejoignez notre page Linkedin ChannelBiz.fr : Le média des revendeurs, intégrateurs et MSP en France

*Informatica CDO Insights 2024 : Charting a Course to AI Readiness – enquête réalisée auprès de 600 Chief Data Offices dans le monde. Rapport publié en janvier 2024.