Coup d’œil
Coup d’œil : les développements qui font des vagues
Gouvernance de l’IA
Sous l’égide de la Chine, l’Assemblée générale des Nations unies a adopté une résolution non contraignante sur le renforcement des capacités d’IA afin d’améliorer celles des pays en développement grâce à la coopération internationale. Elle appelle également au soutien des organisations internationales et des institutions financières. Les ministres africains des TIC et des Communications ont approuvé la Continental AI Strategy et le pacte numérique africain afin de stimuler la transformation numérique du continent. Le communiqué des dirigeants du G7 a mis l’accent sur une stratégie coordonnée pour gérer les opportunités et les défis de l’IA, en introduisant un plan d’action pour l’adoption de l’IA sur le lieu de travail et en soulignant des initiatives telles que l’avancement du code de conduite international du processus d’Hiroshima, le soutien aux PME, et la promotion de l’inclusion numérique et de l’éducation et de la formation tout au long de la vie.
Le Fonds monétaire international a recommandé des politiques fiscales aux gouvernements confrontés à l’impact économique de l’IA, notamment des taxes sur les bénéfices excédentaires et une taxe sur le carbone.
La Chine est en tête du classement mondial des demandes de brevets d’IA générative, dépassant largement les États-Unis. Dans le même temps, les entreprises technologiques américaines dominent la production de systèmes d’IA de pointe, selon l’Organisation mondiale de la propriété intellectuelle (OMPI). Un rapport de la Commission européenne montre que l’UE est à la traîne par rapport à ses objectifs 2030 en matière d’IA, avec seulement 11 % des entreprises utilisant des technologies d’IA désignées, loin de l’objectif de 75 %. Le ministère japonais de la Défense a introduit sa première politique en matière d’IA afin d’améliorer les opérations de défense. Le Brésil s’associe à OpenAI pour moderniser les processus juridiques, réduire les frais de justice et améliorer l’efficacité du bureau du procureur général.
Technologies
Les États-Unis ont présenté un projet de règles visant à réglementer les investissements en Chine, en se concentrant sur les secteurs de l’IA et des technologies de pointe susceptibles de poser des menaces à la sécurité nationale. Les États-Unis prévoient d’étendre les sanctions sur les puces semi-conductrices et d’autres biens vendus à la Russie, en ciblant les vendeurs tiers chinois. Des discussions sont en cours avec les Pays-Bas et le Japon pour restreindre 11 usines chinoises de fabrication de puces et étendre les contrôles à l’exportation d’équipements. Les États-Unis sont confrontés à une pénurie de 90 000 techniciens en semi-conducteurs d’ici à 2030, ce qui a incité l’Administration Biden à lancer un programme de développement de la main-d’œuvre.
La Commission européenne prend connaissance des points de vue de l’industrie sur l’augmentation de la production chinoise de puces informatiques d’ancienne génération.
La Chine va élaborer des normes pour les interfaces neuronales directes (BCI) par l’intermédiaire d’un nouveau comité technique, en se concentrant sur le codage des données, la communication, la visualisation, la collecte de données d’électroencéphalogramme et les applications dans divers domaines.
Infrastructure
Des entreprises de télécommunications du Kazakhstan et de l’Azerbaïdjan vont investir plus de 50 millions d’USD dans la pose de 370 kilomètres de câbles à fibres optiques sous la mer Caspienne. Dans le même temps, le nouveau responsable de l’économie numérique du Sénégal a annoncé son intention de renforcer l’infrastructure numérique, de coordonner les programmes gouvernementaux, d’encourager les collaborations et de s’appuyer sur les réalisations antérieures pour accroître la contribution de l’économie numérique au PIB.
Cybersécurité
Le Conseil de sécurité des Nations unies a tenu un débat ouvert sur la cybersécurité, axé sur l’évolution des cybermenaces et la nécessité de réaliser des avancées numériques positives.
La récente cyberattaque contre la société de stockage en nuage Snowflake s’annonce comme l’une des plus importantes violations de données jamais survenues, touchant des centaines de leurs entreprises clientes et des millions d’utilisateurs individuels. Le centre national de données de l’Indonésie a été touché par une variante du rançongiciel LockBit 3.0, ce qui a perturbé les contrôles d’immigration et les services publics. Les pirates se sont depuis excusés et ont proposé de divulguer les clés des données volées. Le centre hospitalier universitaire de Zagreb, en Croatie, a également été victime d’une cyberattaque par LockBit. Malgré la hausse des attaques de rançongiciels, un rapport de Howden indique que les primes d’assurance cybernétique mondiales sont en baisse, car les entreprises améliorent leurs capacités d’atténuation des pertes. En outre, près de dix milliards de mots de passe uniques ont été divulgués dans une collection appelée RockYou2024, ce qui accroît les risques pour les utilisateurs qui les réutilisent.
L’Australie a demandé aux sociétés Internet de créer des codes applicables dans les six mois pour empêcher les enfants d’accéder à des contenus inappropriés. La Nouvelle-Zélande a transformé l’appel à l’action de Christchurch contre les contenus terroristes en ligne à une ONG, désormais financée par des entreprises technologiques telles que Meta et Microsoft.
Droits numériques
La proposition de loi de l’UE visant à rendre obligatoire l’analyse par l’IA du contenu des applications de messagerie afin de détecter les contenus pédopornographiques fait l’objet de critiques en raison des risques d’atteinte à la vie privée et des faux positifs potentiels. Les régulateurs de l’UE ont accusé Meta d’avoir enfreint les règles en matière de technologie par le biais d’un modèle publicitaire « pay or consent » sur Facebook et Instagram, alléguant qu’il forçait les utilisateurs à consentir au suivi des données. Le ministère américain de la Justice envisage de porter plainte contre TikTok pour violation présumée de la vie privée des enfants. Google est accusé par le groupe européen de défense des données NOYB (none of your business) de suivre les utilisateurs sans leur consentement éclairé par l’intermédiaire de sa fonction Privacy Sandbox (bac à sable de protection de la vie privée).
Juridique
La Cour pénale internationale enquête sur des cyberattaques russes présumées contre des infrastructures ukrainiennes, qu’elle considère comme des crimes de guerre potentiels. En Australie, une action en justice a été engagée contre Medibank pour une violation de données touchant 9,7 millions de personnes. ByteDance et TikTok contestent une loi américaine visant à interdire l’application, en invoquant des préoccupations liées à la liberté d’expression. Les sociétés mondiales de diffusion en continu contestent la nouvelle réglementation canadienne, exigeant que 5 % des revenus soient consacrés aux informations locales, remettant en cause la légalité des actions du gouvernement.
Économie de l’internet
Le ministère chinois du Commerce a présenté un projet de règles visant à soutenir le commerce électronique transfrontalier en encourageant la création d’entrepôts à l’étranger, et en améliorant la gestion des données et la supervision des exportations. Nvidia fait face à des accusations potentielles en France concernant des allégations de comportement anticoncurrentiel. Le premier semestre 2024 a été marqué par une forte augmentation des vols de cryptomonnaies, avec plus de 1,38 milliard de dollars volés au 24 juin.
Développement
La première partie du rapport annuel de la Broadband Commission sur l’état de la large bande, intitulé « Leveraging AI for Universal Connectivity », explore l’impact de l’IA sur l’administration en ligne, l’éducation, les soins de santé, la finance et la gestion de l’environnement, ainsi que son potentiel pour combler ou élargir la fracture numérique. L’Inde imposera le port USB-C comme port de charge standard pour les smartphones et les tablettes à partir de juin 2025, s’alignant ainsi sur les efforts de l’UE pour réduire les déchets électroniques.
Socioculturel
Les législateurs de l’État de New York ont adopté une loi interdisant aux plateformes de médias sociaux d’afficher des contenus algorithmiques addictifs à des utilisateurs de moins de 18 ans sans le consentement de leurs parents. La Commission européenne a demandé à Amazon des détails sur la manière dont elle se conforme aux règles de la loi sur les services numériques, en mettant l’accent sur la transparence de ses systèmes de recommandation. Google Translate ajoute 110 langues, grâce aux progrès de l’IA.
LES CONVERSATIONS DE LA VILLE – GENÈVE
Du 4 au 14 juin, le Conseil de l’Union internationale des télécommunications (UIT) a pris des décisions importantes sur le développement spatial, l’action numérique verte et la coopération numérique mondiale. Il a examiné le rapport de la Secrétaire général de l’UIT sur la mise en œuvre du Programme Espace 2030, en mettant l’accent sur l’exploitation des technologies spatiales au service de la durabilité. Des résolutions ont été rédigées pour souligner le rôle de l’UIT dans l’utilisation des technologies numériques pour la durabilité, avec un rapport sur les initiatives numériques vertes actuelles. L’UIT continuera de participer au Pacte numérique mondial (PMN) afin de renforcer la coopération mondiale dans ce domaine.Le 14 juin, la première Journée des mondes virtuels de l’ONU a présenté des technologies telles que la réalité virtuelle et augmentée, le métavers et l’informatique spatiale pour faire progresser les ODD. L’événement comprenait un segment de haut niveau, des applications réelles, des discussions sur la politique et le lancement de l’Initiative mondiale sur les mondes virtuels – Découvrir le CitiVerse, une plateforme pour développer des cadres, sensibiliser, partager les meilleures pratiques et tester des solutions metaverses dans les villes.
En bref
IA@ONU : naviguer sur la corde raide entre innovation et impartialité
Les Nations unies ne manquent pas de sujets de préoccupation, mais l’IA en ajoute de nouveaux. Étant donné que les systèmes propriétaires d’IA disponibles dans le commerce comportent le caractère biaisé des données et de l’algorithme sur lequel ils sont développés et s’accompagnent de restrictions et de problèmes de transparence, la fiabilité de l’IA propriétaire soulèvera inévitablement des questions quant à l’impartialité de ces systèmes.
Pourquoi l’impartialité est-elle importante pour les Nations unies ? Le principe d’impartialité est la clé de voûte de la crédibilité des Nations unies, garantissant que les conseils politiques restent objectifs, fondés sur des preuves et attentifs à la diversité des points de vue. Cette impartialité sera mise à l’épreuve lorsque les Nations unies réagiront à l’inévitable nécessité d’automatiser l’établissement de rapports, la rédaction et d’autres activités essentielles à leur fonctionnement.
Pour garantir l’impartialité, il faudrait que le cycle complet de l’IA soit transparent et explicable, depuis les données sur lesquelles reposent les modèles fondamentaux jusqu’à l’attribution d’un poids aux différents segments des systèmes d’IA.
Une approche inclusive du développement de l’IA est essentielle au respect du principe d’impartialité. Les trois premiers mots de la Charte des Nations unies, « Nous, les peuples », devraient guider le développement de l’IA à l’ONU. Les contributions des pays, des entreprises et des communautés du monde entier à AI@UN pourraient renforcer le potentiel élevé de l’IA pour soutenir les missions de l’ONU en matière de maintien de la paix mondiale, de promotion du développement et de protection des droits de l’Homme.
IA@ONU a deux objectifs principaux :
- soutenir les discussions politiques sur la transformation durable de l’écosystème de l’ONU en matière d’IA ;
- encourager les contributions des modèles et agents d’IA par les États membres et d’autres acteurs.
Comme point de départ, les principes directeurs suivants sont proposés pour le développement et le déploiement de modèles, de modules et d’agents d’IA au sein des Nations unies.
1. Logiciel libre : respecter les principes, les traditions et les pratiques de la communauté des logiciels libres. L’ouverture et la transparence devraient s’appliquer à toutes les phases et à tous les aspects du cycle de vie de l’IA, y compris la conservation des données et des connaissances pour les systèmes d’IA, la sélection des paramètres, et l’attribution de poids pour développer des modèles fondamentaux, des bases de données vectorielles, des graphes de connaissances et d’autres segments des systèmes d’IA.
2. Modularité : développer des modules autonomes selon des normes et des paramètres communs. IA@ONU devrait commencer par des agents et des modules d’IA pour les activités et les opérations de base de l’ONU.
3. Bien public : faire la promotion du bien public en utilisant l’IA pour codifier les connaissances des Nations unies en tant que telles à l’usage des pays, des communautés et des citoyens du monde entier. Ce faisant, les Nations unies inspireraient la codification par l’IA de diverses sources de connaissances, y compris les textes anciens et la culture orale, en tant que patrimoine commun de l’humanité.
4. Inclusion : permettre aux États membres, aux entreprises et aux universités de contribuer, par leurs capacités et leurs ressources, aux aspects techniques, aux connaissances et à la facilité d’utilisation d’IA@ONU.
5. Multilinguisme : représenter un large éventail de traditions linguistiques et culturelles. Une attention particulière devrait être accordée à la récolte des connaissances et de la sagesse disponibles dans les traditions orales qui ne sont pas disponibles dans le corpus écrit des livres et des publications.
6. Diversité : garantir la contribution d’un large éventail de perspectives professionnelles, générationnelles, culturelles et religieuses. Si IA@ONU doit viser à identifier les convergences entre les différents points de vue et approches, la diversité ne doit pas être supprimée par la démarche du plus petit dénominateur commun que l’on retrouve dans l’IA. La diversité doit être intégrée par la traçabilité transparente des sources à l’origine des résultats générés par l’IA.
7. Accessibilité : adhérer aux normes les plus élevées en matière d’accessibilité, en particulier pour les personnes handicapées. IA@ONU doit accroître la participation des personnes handicapées aux activités de l’ONU, qu’il s’agisse de réunions ou de projets pratiques. Des solutions simples et une faible demande de bande passante devraient rendre le système abordable pour tous.
8. Interopérabilité : aborder le problème des silos organisationnels dans la gestion des connaissances et des données au sein du système des Nations unies. L’interopérabilité devrait être facilitée par des ontologies et des taxonomies de la connaissance, ainsi que par la conservation des données et des normes techniques communes.
9. Professionnalisme : respecter les normes industrielles et éthiques les plus strictes en matière de planification, de codage et de déploiement d’applications logicielles. Pour ce faire, les solutions d’IA seront testées, évaluées et soumises à un processus d’examen par les pairs. L’objectif principal sera de maximiser le développement fiable de solutions d’IA afin d’avoir un impact direct sur la vie et le bien-être des êtres humains.
10. Explicabilité : tracer chaque produit généré par l’IA, tel qu’un rapport ou une analyse, jusqu’aux sources utilisées par l’inférence de l’IA, y compris les textes, les images et les enregistrements sonores. L’explicabilité et la traçabilité garantiraient la transparence et l’impartialité des systèmes IA@ONU.
11. Protection des données et des connaissances : atteindre le plus haut niveau de protection des données, des connaissances et des autres entrées dans les systèmes d’IA.
12. Sécurité : garantir le plus haut niveau possible de sécurité et de fiabilité dIA@ONU. Les logiciels libres, l’équipe rouge (red-teaming) et d’autres méthodes garantiront la protection des systèmes en permettant au plus grand nombre possible d’yeux critiques de tester et d’évaluer le code et les algorithmes de l’IA. Les communautés de l’IA seront encouragées à contribuer au red-teaming (l’équipe rouge) et à d’autres tests du système IA@ONU.
13. Durabilité : la réalisation des ODD et de l’Agenda 2030 par le biais de trois approches principales : premièrement, veiller à ce que les ODD bénéficient d’un poids plus important dans le développement de modèles et d’outils d’IA ; deuxièmement, les systèmes d’IA eux-mêmes devraient être durables, par exemple en partageant le code, en développant des ressources, et en fournissant des documentations et des pistes de développement appropriées ; troisièmement, les solutions d’IA devraient être développées et déployées en gardant à l’esprit la durabilité de l’environnement.
14. Capacité : en développant un système d’IA, l’ONU devrait accroître ses propres capacités en la matière et celles d’un plus grand nombre de personnes. Le développement des capacités devrait être : (a) holistique, impliquant le Secrétariat de l’ONU, les représentants des États membres et d’autres communautés impliquées dans les activités de l’ONU ; et (b) complet, couvrant un large éventail de capacités d’IA, allant d’une compréhension de base de l’IA à des compétences techniques de haut niveau.
15. Protection de l’avenir : planifier et déployer des systèmes adaptés aux futures tendances technologiques. L’expérience et l’expertise acquises dans le cadre d’IAI@ONU devraient être utilisées pour traiter d’autres technologies émergentes, telles que la réalité augmentée/virtuelle et l’informatique quantique.
Opportunités en cas de crises : la transformation de l’IA provoquera inévitablement des tensions en raison de son impact sur les couches les plus profondes du fonctionnement des Nations unies. L’opposition probable fondée sur la peur humaine et l’attachement au statu quo devrait être ouvertement abordée et recadrée autour des opportunités que la transformation de l’IA ouvrira aux niveaux individuel et institutionnel.
Par exemple, l’IA peut aider les petits pays et les pays en développement à participer de manière plus informée et plus efficace aux travaux des Nations unies. L’IA peut contribuer à compenser la taille réduite de leurs missions et services diplomatiques, qui doivent suivre la même dynamique diplomatique que les systèmes plus importants. L’accent mis sur l’IA réduit l’asymétrie actuelle de l’IA.
L’IA peut également aider le Secrétariat des Nations unies à recentrer son temps et ses ressources, et à consacrer moins de temps à la bureaucratie traditionnelle, comme la préparation des rapports, afin de pouvoir travailler davantage sur le terrain dans les États membres, où leur aide est cruciale.
Prochaines étapes : s’engager sur la voie de l’intégration de l’IA dans les opérations des Nations unies n’est pas simplement une étape, mais un saut dans l’avenir, qui exige de l’audace, un esprit de coopération et un dévouement inébranlable aux idéaux qui ont ancré les Nations unies depuis leur création. Le potentiel de l’IA pour soutenir la mission de l’ONU de maintenir la paix dans le monde, de faire progresser le développement et de défendre les droits de l’Homme est immense. En fait, la nécessité d’adopter un cadre d’IA à source ouverte dépasse le besoin d’innovation technologique. En adoptant une approche ouverte de l’IA, les Nations unies seront en mesure d’évoluer, de prendre l’initiative et de rester pertinentes dans un paysage mondial en mutation rapide.
En tirant parti du pouvoir de transformation de l’IA, les Nations unies peuvent transformer un défi imminent en un moment décisif, garantissant ainsi la pertinence et le leadership de l’organisation dans la définition de la voie du progrès humain pour tous.
Ce texte a été adapté de AI@UN : Navigating the tightrope between innovation and impartiality, publié pour la première fois sur le blogroll de Diplo.
Analyse
Comment les dialogueurs d’IA maîtrisent le langage : les enseignements de la linguistique de Saussure
La linguistique, entremêlée à la technologie moderne, suscite des questions sur la façon dont les dialogueurs fonctionnent et répondent de manière cohérente à diverses entrées. Les dialogueurs, alimentés par de grands modèles de langage (LLM), comme ChatGPT, acquièrent une cognition numérique et formulent des réponses en utilisant des principes enracinés dans les théories linguistiques de Ferdinand de Saussure.Les travaux de Saussure, au début du XXe siècle, ont jeté les bases de la compréhension du langage par la syntaxe et la sémantique. La syntaxe désigne les règles qui régissent l’agencement des mots pour former des phrases significatives. Saussure considérait la syntaxe comme un système de conventions au sein d’une communauté linguistique, lié à d’autres éléments linguistiques tels que la sémantique. La sémantique implique l’étude du sens dans la langue. Saussure a introduit le concept de signe, composé du signifiant (son/image) et du signifié (concept), qui est crucial pour comprendre comment les LLM traitent et interprètent le sens des mots.
Comment les LLM traitent le langage. Les LLM tels que ChatGPT traitent et comprennent le langage par le biais de plusieurs mécanismes fondamentaux.
- Entraînement sur de grandes quantités de données textuelles provenant d’Internet pour prédire le mot suivant dans une séquence.
- Segmentation en unités pour diviser le texte en éléments plus petits.
- Apprentissage des relations entre les mots et les phrases pour la compréhension sémantique.
- Utilisation de représentations vectorielles pour reconnaître les similitudes et générer des réponses adaptées au contexte.
- Exploitation de l’architecture des transformateurs pour traiter efficacement les contextes longs et les structures linguistiques complexes.
Les LLM transforment le texte en unités segmentées (signifiants) et les mettent en correspondance avec des enchâssements qui capturent leurs significations (signifiés). Le modèle apprend ces enchâssements en traitant de grandes quantités de texte, en identifiant des modèles et des relations analogues aux structures linguistiques de Saussure.
Sémantique et syntaxe dans les grands modèles de langage (LLM). La compréhension et la production de texte dans les LLM impliquent un traitement à la fois sémantique et syntaxique.
Pour traiter la sémantique, les LLM s’appuient sur (a) des enchâssements de mots contextuels qui saisissent le sens des mots dans différents contextes en fonction de leur utilisation, (b) un mécanisme d’attention qui donne la priorité aux mots importants, et (c) une compréhension contextuelle en couches qui traite les mots ayant plusieurs sens apparentés (polysémie) et différents mots ayant le même sens (synonymie). Le modèle est pré-entraîné sur des modèles de langage généraux et affiné sur des ensembles de données spécifiques pour une meilleure compréhension sémantique.
Concernant la syntaxe, les LLM utilisent (a) l’encodage positionnel pour comprendre l’ordre des mots, (b) les mécanismes d’attention pour maintenir la structure de la phrase, (c) le traitement en couches pour construire des phrases complexes, et (d) l’apprentissage de la grammaire probabiliste à partir de grandes quantités de texte. La segmentation et la modélisation des séquences permettent de suivre les relations entre les mots, et le modèle de transformation intègre à la fois la structure et le sens de la phrase à chaque étape, garantissant ainsi que les réponses sont à la fois significatives et grammaticalement correctes. L’entraînement sur divers ensembles de données améliore encore sa capacité à généraliser les différentes façons d’utiliser le langage, faisant du Dialogueur un puissant outil de traitement du langage naturel.
L’intégration des théories linguistiques de Saussure aux mécanismes cognitifs des grands modèles de langage éclaire le fonctionnement interne des systèmes d’IA contemporains et renforce également la pertinence des théories linguistiques classiques à l’ère de l’IA.
Ce texte a été adapté de Au commencement était le mot, et le mot était avec le Dialogueur, et le mot était le Dialogueur, publié pour la première fois sur le site web du Digital Watch Observatory.
En Bref
Les géants des médias sociaux obtiennent gain de cause dans l’affrontement sur la liberté d’expression devant la Cour suprême des États-Unis
Les plateformes de médias sociaux jouent un rôle prépondérant dans la vie des gens, non seulement pour la communication, mais aussi pour la réception et la diffusion d’informations. Dans le même temps, le contenu des médias sociaux peut présenter certains risques, tels que la possibilité de discours haineux, la diffusion de fausses informations et de désinformation, et le harcèlement.
Cette situation a soulevé des questions sur leurs responsabilités dans la régulation de ces contenus, ainsi que sur le rôle des gouvernements dans la prise de mesures.
Les plateformes de médias sociaux ont-elles le droit de s’exprimer librement ? Les gouvernements peuvent-ils mettre en œuvre des politiques à leur encontre et à l’encontre de leurs propres politiques de contenu ? La Cour suprême des États-Unis s’est penchée sur ces questions dans ses arrêts Moody vs NetChoice et NetChoice, LLC vs Paxton.
NetChoice et la Computer and Communications Industry Association (CCIA), une association réunissant des entreprises de médias sociaux et des plateformes Internet, ont contesté les lois de deux États américains, la Floride et le Texas. Ces lois ont été adoptées en 2021 alors que le Parti républicain critiquait de plus en plus l’application par les entreprises de médias sociaux de leurs propres politiques. Les tensions se sont aggravées lorsque de grandes plateformes comme Twitter, YouTube et Meta, de Facebook, ont suspendu les comptes de l’ancien président Trump à la suite de ses remarques sur l’émeute du 6 janvier 2021 au Capitole.
NetChoice et CCIA ont affirmé que les lois de la Floride et du Texas violaient les droits du premier amendement des entreprises privées et que les gouvernements ne devraient pas être autorisés à intervenir dans les politiques d’expression des entreprises privées. Un groupe de politologues a déposé un mémoire d’amicus curiae indiquant que ces deux lois ne fixent pas de seuil quant à ce qu’elles considèrent comme un discours haineux, et quant aux discours dangereux et violents liés aux élections qui pourraient empêcher les plateformes de médias sociaux de modérer les menaces à l’encontre des responsables électoraux.
Par ailleurs, les représentants du Texas et de la Floride affirment que ces lois visent à réglementer la responsabilité des plateformes de médias sociaux plutôt qu’à restreindre le discours en ligne, tout en soulignant que le premier amendement ne s’applique pas aux entreprises privées. Une cour d’appel fédérale américaine a invalidé la loi de la Floride, tandis qu’une autre a confirmé la loi du Texas. Toutefois, les deux lois ont été suspendues dans l’attente de la décision finale de la Cour suprême des États-Unis.
La Cour suprême a décidé que les décisions des tribunaux de première instance n’étaient pas suffisantes pour garantir le droit à la liberté d’expression en vertu du premier amendement et que les deux lois étaient inconstitutionnelles.
En conclusion de sa décision, la Cour suprême a estimé que les plateformes de médias sociaux sont protégées par le premier amendement lorsqu’elles créent du contenu. La Cour suprême a également statué que la présentation d’une collection de discours d’autrui est considérée comme une activité expressive. La Cour suprême a notamment déclaré que :
« Dans la mesure où les plateformes de médias sociaux créent des produits expressifs, elles bénéficient de la protection du premier amendement. Et bien que ces affaires soient ici à un stade préliminaire, le dossier actuel suggère que certaines plateformes, au moins dans certaines fonctions, sont engagées dans une activité d’expression. En outre, “l’activité expressive inclut la présentation d’une compilation de discours créés à l’origine par d’autres”. »
Pour l’essentiel, cette décision crée un précédent en établissant des droits à la liberté d’expression au titre du premier amendement pour les plateformes de médias sociaux et les entreprises privées aux États-Unis. En effet, les États américains ne peuvent pas mettre en œuvre des politiques limitant leur capacité à réglementer le contenu diffusé sur leurs plateformes. Cela pourrait empêcher les gouvernements de promulguer des lois conduisant à la perte d’indépendance des plateformes de médias sociaux dans la régulation de leur contenu.
Les gouvernements avancent à grands pas dans la surveillance du marché de la concurrence numérique
En 1996, John Perry Barlow a rédigé une « Déclaration d’indépendance du cyberespace ». Ce document d’anthologie, qui reflétait la culture libertaire de l’internet de l’époque, s’opposait à l’intervention gouvernementale et à la réglementation du secteur technologique en plein essor. En conséquence, les gouvernements du monde entier ont adopté une approche non interventionniste, partant du principe que la réglementation risquait d’étouffer l’innovation.
Près de 30 ans plus tard, cette vision des choses a radicalement changé. Ces dernières années, des rapports publiés par plusieurs organisations, telles que la Banque mondiale, l’Internet Society et la CNUCED, ont montré une concentration croissante de la richesse et du pouvoir dans l’économie numérique. Les fractures liées aux données sont particulièrement pertinentes dans ce contexte, car elles entraînent une concentration en amont, dans les secteurs technologiques à forte intensité de données, tels que l’IA. Dans ce contexte, les enquêtes sur les comportements potentiellement anticoncurrentiels adoptés par les entreprises technologiques se multiplient.
Dans l’UE, des enquêtes récentes ont abouti à la première accusation portée par la Commission européenne contre une entreprise technologique en vertu de la loi sur les marchés numériques (Digital Markets Act, DMA), une loi conçue pour limiter la domination des grandes entreprises technologiques et favoriser une concurrence loyale. Selon les conclusions préliminaires d’une enquête lancée en mars, Apple serait en infraction avec la loi sur les marchés numériques. L’App Store, d’Apple, évincerait les places de marché concurrentes en rendant plus difficile pour les utilisateurs le téléchargement d’applications à partir d’autres magasins, et en ne permettant pas aux développeurs d’applications de communiquer librement et de conclure des contrats avec leurs utilisateurs finaux. Apple a eu la possibilité d’examiner les conclusions préliminaires et peut encore éviter une amende si elle présente une proposition satisfaisante pour résoudre le problème.
Certains pays durcissent également leur législation en matière de concurrence. L’« effet Bruxelles » et l’influence de la DMA sont visibles dans le projet de loi sur la concurrence numérique, proposé par le gouvernement indien pour compléter les lois antitrust existantes. Comme la DMA, la loi viserait les grandes entreprises et pourrait prévoir des amendes aussi lourdes. Il serait notamment interdit aux géants de la technologie d’exploiter les données non publiques des utilisateurs et de favoriser leurs propres produits ou services sur leurs plateformes. Il leur serait également interdit de restreindre la capacité des utilisateurs à télécharger, installer ou utiliser des applications tierces.
Le projet de loi suscite l’inquiétude des entreprises technologiques. Un groupe de défense américain s’y est opposé, craignant son incidence sur les entreprises. Inspirées par la croyance commune qui a dominé le secteur technologique dans les années 1990, les entreprises technologiques affirment que le projet de loi indien pourrait étouffer l’innovation. Toutefois, il est peu probable que cette affirmation prospère.
Les inquiétudes concernant la concurrence dans le secteur technologique se font de plus en plus vives aux États-Unis, traditionnellement partisans d’une réglementation minimale. Les États-Unis renforcent les contrôles de l’industrie de l’IA, le DOJ et la Federal Trade Commission (FTC) se partageant la surveillance : la FTC réglementera OpenAI et Microsoft, tandis que le DOJ supervisera Nvidia. Bien que moins actifs que l’UE en matière de réglementation de la concurrence, les États-Unis surveillent de près les fusions et les acquisitions. Ce récent accord entre les deux organes gouvernementaux a ouvert la voie au lancement d’enquêtes sur la concurrence.
La concurrence devient de plus en plus un terrain de jeu où l’activité et la surveillance des gouvernements sont importantes. Alors que les pays réaffirment leur compétence, les revendications de cyberindépendance semblent être un lointain écho du passé.
Ce texte a été publié pour la première fois sur le blog de Diplo. Lire la version originale.
Actualités de la Francophonie
Francophones, hispanophones et lusophones plaident pour plus de diversité linguistique et culturelle dans le PNM
A l’initiative de l’OIF et du Groupe des Ambassadeurs francophones de New York, un atelier de discussion sur la diversité culturelle et linguistique à l’ère du numérique et des technologies émergentes s’est tenu aux Nations unies le 18 juin 2024, dans le contexte des négociations du Pacte numérique mondial.
L’évènement organisé en partenariat avec les Représentations permanentes à l’ONU de la République démocratique du Congo – qui préside le GAF-NY, du Brésil – qui coordonne la Communauté des pays de langue portugaise, du Mexique – membre du Groupe des amis de l’Espagnol, de la Roumanie et du Cabo Verde, a permis d’alerter sur les menaces et de mettre en lumière le potentiel des développements numériques pour la préservation, la promotion et le respect de la diversité des langues et des cultures.
Les Ambassadeurs présents ont collectivement réaffirmé leur engagement en faveur de l’inclusion numérique, mettant en garde contre le risque d’élargir les fractures numériques à travers un Pacte qui n’adresserait qu’insuffisamment les défis liés à la diversité. De nombreuses idées ont été partagées sur les moyens de renforcer les formulations relatives à la diversité culturelle et linguistique dans le texte du Pacte.
L’OIF avait convié plusieurs experts à apporter leur point de vue. Ainsi, le Président de l’Observatoire de la diversité linguistique et culturelle dans l’Internet, Daniel Pimienta, est revenu sur la présence et les évolutions des langues sur la toile. Pour sa part, Hannah Taieb, Directrice du développement chez Spideo, entreprise spécialisée dans la fourniture d’algorithmes de recommandation sur internet, a replacé l’enjeu de la découvrabilité des contenus culturels dans un contexte de prolifération des plateformes numériques, dont l’offre de plus en plus diversifiée est guidée par l’expérience utilisateur. Elle a ainsi plaidé pour plus de transparence des plateformes sur le fonctionnement de leurs algorithmes de recommandation.
Cet atelier de haut niveau s’inscrit dans l’action multiforme que l’OIF mène pour appuyer ses pays membres engagés dans les négociations actuelles du Pacte numérique mondial à New York. Ainsi, la Représentation
de l’OIF à Genève a fait circuler des analyses détaillées des propositions de texte après qu’aient été publiées la 1e révision puis la 2e révision du document constituant le Pacte numérique. Ces analyses, complétées par le compte-rendu des prises de parole des délégations lors des sessions se déroulant à New York, permettent aux pays francophones d’avoir une bonne compréhension du contexte et des enjeux derrière les évolutions des formulations.
Les experts numériques francophones de Genève échangent avec M. Zavazava, Directeur du bureau du développement des télécommunications de l’Union internationale des Télécommunications (UIT)
La Représentation permanente de l’OIF à Genève (RPGV) a hébergé le 21 juin dans ses locaux une rencontre entre les experts numériques des missions diplomatiques francophones à Genève et M. Cosmos Zavazava, Directeur du Bureau du développement des télécommunications à l’Union internationale des Télécommunications (UIT)
Ce dernier a présenté les actions de son bureau en faveur des pays en développement et notamment des pays francophones. La question de l’aide que l’UIT peut apporter en matière de transition numérique et de développement des infrastructures d’intelligence artificielle pour combler le fossé numérique existant entre pays, a été particulièrement évoquée.
Déclaration conjointe du Groupe des Ambassadeurs Francophones (GAF) de Genève autour des technologies émergentes lors de la session du Conseil des droits de l’Homme
Les coordinations thématiques « Droits de l’Homme » et « numérique » du GAF de Genève ont travaillé de concert pour élaborer une Déclaration conjointe qui a été lue par l’Ambassadeur de Belgique, S.E.M. Marc Pecsteen de Buytswerve, au nom du GAF dans le cadre du Dialogue interactif sur le rapport du Haut-Commissaire aux droits de l’Homme « Les technologies nouvelles et émergentes » qui s’est tenu lundi 1er juillet à Genève.
Cette Déclaration a mis en relief le soutien des pays francophones au développement d’un cadre multilatéral de gouvernance des technologies numériques et de l’intelligence artificielle, sur la base d’une approche multidimensionnelle et multi-acteurs, et basée sur les droits humains, l’universalité ainsi que la diversité culturelle et linguistique.
Ateliers en collaboration avec l’UNIDIR autour des enjeux d’IA dans le domaine militaire et des cybermenaces
La Représentation de l’OIF à Genève a lancé avec l’Institut des Nations unies pour la recherche sur le désarmement (UNIDIR) et la Mission permanente de la France auprès de la Conférence pour le désarmement, une série de six séances d’information en langue française sur des questions liées au désarmement. La première de ces séances, organisée le 19 juin, a porté sur « l’intelligence artificielle dans le domaine militaire : enjeux et gouvernance », Ont été examinées les capacités et potentialités de l’IA appliquées au domaine militaire, les bénéfices et les risques qu’elles entraînent, les questions juridiques et éthiques qu’elles soulèvent, ainsi que la gouvernance qui pourrait être établie pour assurer le développement d’une IA maitrisée et responsable. Puis le 24 juin, c’est la thématique des cybermenaces, son paysage et les évolutions récentes, notamment dans le contexte de conflits armés, qui a fait l’objet d’échanges animés lors du deuxième atelier de cette série.