L’intelligence artificielle (IA) doit être analysée au-delà d’une nouvelle vague technique, c’est une question de puissance industrielle, de souveraineté réglementaire et de protection des citoyens. Pour cette raison, l’UNESCO a adopté sa Recommandation sur l’éthique de l’IA pour les 194 États membres en 2021, tandis que l’Organisation de coopération et de développement économiques (OCDE) a mis à jour ses principes en 2024 et maintient un observatoire avec plus de 900 politiques et initiatives publiques sur l’IA. À cela s’ajoute l’avertissement controversé du parrain de l’IA, Geoffrey Hinton, prix Nobel de physique 2024, insistant sur le fait que le développement accéléré de ces systèmes nécessite un encadrement et des règles, plutôt qu’un enthousiasme commercial.
Ces chiffres contribuent à dissiper le brouillard de cette guerre totale de l’IA qui, selon la Conférence des Nations Unies sur le commerce et le développement (Cnuced), a un marché mondial qui passera de 189 milliards de dollars en 2023 à 4 800 milliards en 2033. Cette expansion est née de manière très concentrée puisque seulement 100 entreprises réalisent 40 % des dépenses mondiales des entreprises en R&D en 2022, situées notamment aux États-Unis et en Chine ; En outre, les deux pays détiennent près de 60 % des brevets en IA et un tiers des publications mondiales. En parallèle, l’Université de Stanford rapporte que près de 90 % des modèles notables en 2024 provenaient de l’industrie et non des universités, et que le nombre de formations de pointe continue de doubler environ tous les cinq mois. En moins de mots (et avec très peu de précédents), l’IA progresse en tant que technologie générale, mais elle le fait avec une structure oligopolistique de connaissances, de capital et de capacité de calcul.
Ce contexte explique pourquoi les voies réglementaires divergent. Au nord de la planète, l’Union européenne a choisi la voie la plus exigeante avec la « Loi sur l’IA », entrée en vigueur le 1er août 2024 et qui, progressivement et avec d’autres obligations, sera applicable à partir du 2 août prochain. Le Japon, en revanche, a approuvé une loi visant à promouvoir les technologies de l’IA en 2025 avec une logique beaucoup plus favorable à l’innovation et à un respect flexible. Le contraste est révélateur, puisque l’Europe a privilégié la sécurité juridique et certains droits fondamentaux, ce qui augmente les coûts de mise en conformité, tandis que le Japon réduit les frictions pour innover et laisse plus de place à l’autorégulation et aux lacunes de contrôle.
Dans notre Sud global, il n’y a pas non plus de réponse unique, puisque la Chine fonctionne déjà avec un système sectoriel et à plusieurs niveaux qui comprend des règles sur les recommandations algorithmiques à partir de 2022, des réglementations sur la synthèse profonde en vigueur depuis janvier 2023 et, en outre, des mesures pour l’IA générative à partir d’août 2023. Au Brésil, le projet de loi 2338/2023 sur l’utilisation de l’IA a été approuvé par le Sénat fédéral le 10 décembre 2024, mais doit encore être approuvé par la Chambre des représentants. Députés. L’Inde, pour sa part, a opté pour des lignes directrices en matière de gouvernance basées sur la législation existante et des références volontaires, plutôt que sur une nouvelle loi. En Afrique, l’Union africaine a adopté en 2024 une stratégie continentale axée sur le développement, l’inclusion et la souveraineté. Ces antécédents offrent une leçon comparative claire : la réglementation est plus stricte ex ante dans l’UE, qui offre une plus grande sécurité juridique au citoyen, tandis qu’en Inde ou au Japon, une adoption plus rapide est maintenue avec des protections moins uniformes.
Cependant, la réglementation juridique évolue à un rythme différent et certaines normes transcendent plus rapidement les frontières, comme le nouveau sous-comité IA de l’Organisation internationale de normalisation (ISO/IEC JTC 1/SC 42), qui dispose déjà d’un vaste catalogue de normes techniques sur le cycle de vie, la gestion et la qualité des données pour l’IA. A noter que les principaux contributeurs à l’ISO sont (dans un ordre aléatoire) la France, les Etats-Unis, le Royaume-Uni, l’Allemagne, le Japon et la Chine. De même, Singapour promeut des outils de validation pratiques, tels que le cadre de test Vérification IA.
Ainsi, plutôt qu’un « design dominant », ce qui émerge aujourd’hui est une convergence de fait avec des modèles basés principalement sur l’architecture de modèles de deep learning (utilisant le mécanisme d’auto-attention), déployés dans des cloud hyperscalables et supportés par des GPU et des écosystèmes logiciels très concentrés. La Banque mondiale se joint à cette croisade qui met en avant l’importance de l’écosystème CUDA (acronyme de Architecture de périphérique unifiée de calcul ou architecture de périphérique informatique unifiée) de NVIDIA, Co. En fait, cette société a déclaré un chiffre d’affaires de 216 milliards de dollars au cours du dernier exercice, dont 62 milliards de dollars correspondaient au seul quatrième trimestre dans les centres de données. Lorsque la normalisation technique et les infrastructures propriétaires progressent avant les cadres de droits, il existe un risque que les normes pratiques du marché finissent par être écrites dans le code, les contrats cloud et les chaînes d’approvisionnement, plutôt que dans les sessions plénières des assemblées législatives du monde entier.
Il ne s’agit donc pas de choisir entre innovation et régulation, comme s’il s’agissait de pôles opposés. La vraie question est de savoir qui fixera en premier les règles d’interopérabilité, de responsabilité et d’accès. Si seuls les marchés dominants le font, les citoyens seront en retard. Si les États, les universités, les organisations multilatérales et les systèmes scientifiques et technologiques nationaux le font, l’IA pourra se développer avec plus de légitimité, d’indépendance et d’utilité sociale. C’est précisément le différend stratégique de l’année prochaine.