Home | Newsletters & Shorts | Numéro 85 de la lettre d’information Digital Watch – décembre 2023

Numéro 85 de la lettre d’information Digital Watch – décembre 2023

Téléchargez votre copie

FR
 Advertisement, Poster, Page, Text, Person, Head, Face

Observatoire

Coup d’œil : quelles sont les nouveautés en matière de politique numérique ?

Gouvernance de l’IA

Google et Anthropic ont annoncé un partenariat élargi prévoyant des efforts conjoints sur les normes de sécurité de l’IA, l’engagement à respecter les normes de sécurité de l’IA les plus élevées et l’utilisation de puces TPU pour le traitement des données de l’IA.

Google a dévoilé « The AI Opportunity Agenda », qui propose des lignes directrices aux décideurs politiques, aux entreprises et aux sociétés civiles afin qu’ils collaborent à l’adoption de l’IA et à l’exploitation de ses avantages.

L’OCDE a lancé l’Observatoire des politiques relatives à l’IA, qui propose une analyse complète des politiques et des données sur les incidents liés à l’IA, mettant en lumière les impacts de l’IA afin de contribuer à l’élaboration de stratégies avisées en matière d’IA. Le président américain Joe Biden et le président chinois Xi Jinping, en marge de la semaine des dirigeants de la Coopération économique pour l’Asie-Pacifique (APEC), ont convenu de la nécessité « d’aborder les risques des systèmes d’IA avancés et d’améliorer la sécurité de l’IA dans le cadre de discussions entre le gouvernement américain et le gouvernement chinois ».

L’autorité italienne de protection des données (DPA) a lancé une enquête pour déterminer si les plateformes en ligne ont mis en œuvre des mesures suffisantes afin d’empêcher les plateformes d’IA de récupérer des données personnelles pour former des algorithmes d’IA.

Le Conseil fédéral suisse a chargé le Département de l’environnement, des transports, de l’énergie et de la communication (DETEC) de présenter, d’ici fin 2024, une synthèse des approches réglementaires possibles en matière d’IA. L’objectif du Conseil est d’utiliser cette analyse comme base pour une proposition de réglementation de l’IA en 2025.

Technologies 

Yangtze Memory Technologies Co (YMTC), le plus grand fabricant chinois de puces mémoire, a intenté une action en justice contre Micron Technology et sa filiale pour violation de huit brevets. Dans le cadre du Conseil du commerce et de la technologie (CCT) UE-Inde, l’UE et l’Inde ont signé un protocole d’accord sur les modalités de travail dans l’écosystème des semi-conducteurs, sa chaîne d’approvisionnement et l’innovation. Les fabricants de taxis aériens Joby Aviation et Volocopter ont présenté leurs avions électriques à New York. Amazon a présenté Q, un chatbot piloté par l’IA et conçu pour ses clients Amazon Web Services, Inc. (AWS), qui constitue une solution polyvalente répondant aux besoins en matière d’intelligence économique et de programmation.

Sécurité

Le Royaume-Uni, les États-Unis et 16 autres partenaires ont publié les premières lignes directrices mondiales visant à renforcer la cybersécurité tout au long du cycle de vie d’un système d’intelligence artificielle. Ces lignes directrices couvrent quatre domaines clés du cycle de vie du développement d’un système d’IA : la sécurisation de la conception, du développement, du lancement, de l’exploitation et de la maintenance.

Le Parlement européen et le Conseil de l’UE sont parvenus à un accord politique sur la loi relative à la cyber-résilience. L’accord va maintenant être soumis à l’approbation formelle du Parlement et du Conseil.

Infrastructure

Le Gigabit Infrastructure Act (GIA) de l’UE connaît une modification importante, puisque le « principe d’approbation tacite », conçu pour accélérer le déploiement des réseaux à large bande, a été exclu du dernier texte de compromis diffusé par la présidence espagnole du Conseil de l’UE. L’ICANN a lancé son service de demande de données d’enregistrement (RDRS) afin de simplifier les demandes d’accès aux données d’enregistrement non publiques relatives aux domaines génériques de premier niveau (gTLD).

L’Union internationale des télécommunications (UIT) a adopté la résolution 65 de l’UIT-R, qui vise à orienter l’élaboration d’une norme 6G. Cette résolution permet de réaliser des études sur la compatibilité des réglementations actuelles avec les technologies d’interface radio des télécommunications mobiles internationales (IMT) de la sixième génération pour 2030 et au-delà. 

Le gouvernement indien a lancé son référentiel mondial des infrastructures publiques numériques et créé le Fonds d’impact social pour faire progresser les infrastructures publiques numériques dans le Sud, dans le cadre des initiatives du G20.

Juridique

Le Conseil de l’UE a adopté la loi sur les données, qui définit les principes d’accès, de portabilité et de partage des données pour les utilisateurs de produits IdO. OpenAI a lancé le Copyright Shield, un programme qui couvre les frais juridiques de ses clients commerciaux confrontés à des plaintes pour violation de droits d’auteur à la suite de l’utilisation de la technologie d’IA d’OpenAI.

Économie de l’Internet

Apple, TikTok et Meta ont fait appel pour contester leur catégorisation en tant que « garde-barrière » en vertu de la loi européenne sur les marchés numériques (DMA), qui vise à permettre la mobilité des utilisateurs entre des services rivaux tels que les plateformes de médias sociaux et les navigateurs web. À l’inverse, Microsoft et Google ont choisi de ne pas contester l’étiquette de « garde-barrière ». Le ministère des Finances des États-Unis a conclu un accord record de 4,2 milliards de dollars avec Binance, la plus grande Bourse d’échange de monnaies virtuelles au monde, pour non-respect des lois contre le blanchiment d’argent et les sanctions, imposant une période de surveillance de cinq ans et des mesures rigoureuses de mise en conformité. Le régulateur australien a demandé une nouvelle loi sur la concurrence pour les plateformes numériques en raison de leur influence croissante.

Droits numériques

La Cour de justice de l’UE (CJUE) a statué que les personnes concernées ont le droit de faire appel de la décision de l’autorité de contrôle nationale concernant le traitement de leurs données personnelles.

Politique de contenu

Le Népal a décidé d’interdire TikTok, invoquant la dégradation de la cohésion sociale causée par l’utilisation abusive de l’application vidéo populaire. YouTube a introduit une nouvelle politique qui oblige les créateurs à divulguer l’utilisation de l’IA générative. OpenAI et Anthropic ont rejoint l’appel à l’action de Christchurch, un projet lancé par le président français Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern pour supprimer les contenus terroristes. X (anciennement Twitter) est dans le collimateur de la Commission européenne pour avoir beaucoup moins de modérateurs de contenu que ses rivaux.

Développement

Le rapport « Faits et chiffres 2023 » de l’UIT révèle des progrès inégaux en matière de connectivité à l’Internet dans le monde, ce qui exacerbe les disparités de la fracture numérique, en particulier dans les pays à faible revenu. La Suisse a annoncé des projets pour un nouveau système d’identité numérique géré par l’État, dont le lancement est prévu en 2026, après que les électeurs ont rejeté une initiative privée en 2021 en raison de craintes liées à la protection des données personnelles. Le ministère indonésien de la Communication et de l’Information a introduit une nouvelle politique en matière d’identité numérique, qui exigera plus tard que tous les citoyens disposent d’une carte d’identité numérique.

LES CONVERSATIONS DE LA VILLE – GENÈVE

Le Forum économique mondial (WEF) a tenu sa réunion annuelle sur la cybersécurité 2023 du 13 au 15 novembre, réunissant plus de 150 experts de premier plan en matière de cybersécurité. Basée sur le rapport Global Security Outlook 2023 du WEF publié en janvier 2023, la réunion annuelle a permis aux experts d’aborder les cyber-risques croissants avec des approches stratégiques et systémiques, et des collaborations multipartites.

Le 12e Forum des Nations unies sur les entreprises et les droits de l’Homme s’est déroulé du 27 au 29 novembre, et s’est concentré sur les changements réels apportés par les États et les entreprises pour mettre en œuvre les principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’Homme (UNGP). Parmi les sujets abordés figuraient l’amélioration de la mise en œuvre des droits des personnes handicapées grâce aux progrès des technologies d’assistance, de l’IA et de la numérisation, ainsi que d’autres systèmes de soins et d’aide. 

Organisé conjointement avec le 12e Forum des Nations unies sur les entreprises et les droits de l’Homme, le Sommet B-Tech Generative du 30 novembre a examiné la mise en œuvre d’une diligence raisonnable en matière de droits de l’Homme lors de la mise en pratique de l’IA. Ce sommet d’une journée a présenté les documents du projet B-Tech sur les droits de l’Homme et l’IA générative, et a permis à toutes les parties prenantes de discuter de l’utilisation pratique des principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’Homme (UNGP), et d’autres approches basées sur les droits de l’Homme dans l’analyse des impacts de l’IA générative.

En bref

Les quatre saisons de l’IA

ChatGPT, une innovation révolutionnaire d’OpenAI lancée le 30 novembre 2022, a non seulement captivé le monde de la technologie, mais a également marqué l’histoire de l’IA. Le premier anniversaire de ChatGPT nous incite à prendre un peu de recul pour réfléchir au chemin parcouru et à ce qui nous attend. 

Un voyage symbolique à travers les saisons a servi de toile de fond à la trajectoire de l’IA depuis novembre dernier. La frénésie hivernale a permis une adoption rapide par les utilisateurs, dépassant même les géants des médias sociaux par sa rapidité. En 64 jours, ChatGPT a atteint le chiffre stupéfiant de 100 millions d’utilisateurs, un exploit qu’Instagram, par exemple, a mis 75 jours à réaliser. L’intérêt soudain pour l’IA générative a pris les grandes entreprises technologiques par surprise. Outre ChatGPT, plusieurs autres modèles d’IA générative notables, tels que Midjourney, Stable Diffusion et Google’s Bard, ont été publiés.

Le printemps des métaphores qui a succédé a donné lieu à une vague de comparaisons et de discussions imaginatives sur la gouvernance de l’IA. Des descriptions anthropomorphiques et des scénarios apocalyptiques ont vu le jour, reflétant les tentatives de la société de faire face aux implications de l’IA avancée.

Alors que ChatGPT entrait dans son été de réflexion contemplative, une période d’introspection est née. S’inspirant des philosophies anciennes et des différents contextes culturels, le discours s’est élargi au-delà des simples avancées technologiques. L’exploration de la sagesse de la Grèce antique, à Confucius, de l’Inde, et du concept Ubuntu en Afrique, a cherché des réponses aux défis complexes posés par l’IA, allant au-delà des simples solutions technologiques.

Aujourd’hui, en cet automne de lucidité, le battage médiatique initial s’est apaisé, laissant place à des formulations politiques précises. L’IA a trouvé sa place dans les agendas des parlements nationaux et des organisations internationales. Dans les documents d’orientation de divers groupes tels que le G7, le G20, le G77 et les Nations unies, l’équilibre entre les opportunités et les risques s’est déplacé vers une plus grande concentration sur les risques. Les menaces existentielles à long terme de l’IA ont occupé le devant de la scène lors de conférences telles que le Sommet de Londres sur l’IA, les propositions de gouvernance s’inspirant d’entités telles que l’Agence internationale de l’énergie atomique (AIEA), le CERN et le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC).

Qu’est-ce qui nous attend ? Nous devrions nous concentrer sur les deux principales questions qui émergent : comment aborder les risques liés à l’IA et quels sont les aspects de l’IA qui devraient être régis ?

Pour gérer les risques liés à l’IA, il est essentiel, pour concevoir des réglementations efficaces, de bien comprendre les trois catégories suivantes : les risques à court terme, les risques à moyen terme et les risques à long terme. Si les risques à court terme, tels que la perte d’emploi et la protection des données, sont familiers et peuvent être traités avec les outils existants, les risques à moyen terme impliquent des monopoles potentiels contrôlant les connaissances de l’IA, ce qui exige une attention particulière pour éviter les scénarios dystopiques. Les risques à long terme, qui englobent les menaces existentielles, dominent le discours public et l’élaboration des politiques, comme le montre la déclaration de Bletchley. Pour naviguer dans le débat sur la gouvernance de l’IA, il est nécessaire d’aborder les risques de manière transparente et de hiérarchiser les décisions en fonction des réactions de la société.

En ce qui concerne la gouvernance des aspects de l’IA, les discussions actuelles tournent autour du calcul, des données, des algorithmes et des applications. Les aspects liés au calcul impliquent la course au matériel puissant, avec des implications géopolitiques entre les États-Unis et la Chine. Les données, souvent appelées « le pétrole de l’IA », exigent une transparence accrue quant à leur utilisation. La gouvernance algorithmique, axée sur les risques à long terme, se concentre sur la pertinence des paramètres de mesure dans les modèles d’IA. Au niveau des applications et des outils, le passage actuel d’une réglementation algorithmique à une réglementation axée sur les applications pourrait avoir un impact significatif sur les progrès technologiques. Les débats négligent souvent la gouvernance des données et des applications, des domaines détaillés dans la réglementation, mais non alignés sur les intérêts des entreprises technologiques.

Ce texte s’inspire de la série de blogs Recycling Ideas, du Dr J. Kurbalija. Il s’agit d’une série de textes, de concepts, de traditions et de réflexions visant à construire un contrat social adapté à l’ère de l’IA.

Les législateurs de l’UE s’affrontent au sujet de la loi sur l’IA

Après plus de 22 heures de négociations en trilogue dans l’UE les 6 et 7 décembre, portant sur un ordre du jour de 23 points, l’accord relatif à la loi sur l’IA reste difficile à atteindre. Voici ce que les rapports indiquent.

Types de fondations. Les négociations ont connu un sérieux revers lorsque la France, l’Allemagne et l’Italie se sont opposées à l’approche par paliers initialement envisagée dans la loi européenne sur l’IA pour les modèles de base (modèles de base pour les développeurs). L’approche par paliers consisterait à classer l’IA dans différentes catégories de risques, avec une réglementation plus ou moins stricte en fonction du niveau de risque. La France, l’Allemagne et l’Italie souhaitent réglementer uniquement l’utilisation de l’IA plutôt que la technologie elle-même, car elles veulent s’assurer que l’innovation en matière d’IA dans l’UE ne soit pas freinée. Ils ont proposé une « autorégulation obligatoire par le biais de codes de conduite » pour les modèles de fondation. Les fonctionnaires du Parlement européen ont interrompu une réunion pour signifier qu’il n’était pas politiquement acceptable d’exclure les modèles de fondation du champ d’application de la loi.

Selon un document de synthèse examiné par Euractiv, l’approche différenciée a été conservée dans le texte de la loi. Toutefois, la législation ne s’appliquerait pas aux systèmes d’IA à usage général (GPAI) proposés sous des licences libres et gratuites. Cette exemption peut être annulée si le modèle à code source ouvert est utilisé à des fins commerciales. Dans le même temps, les législateurs ont convenu que les codes de conduite serviront de lignes directrices supplémentaires jusqu’à ce que les normes techniques soient harmonisées.

Selon l’accord préliminaire, tout modèle formé à l’aide d’une puissance de calcul supérieure à 10^25 opérations en virgule flottante (FLOP) sera automatiquement considéré comme présentant des risques systémiques. Ces modèles seront soumis à de nombreuses obligations, notamment en matière d’évaluation, d’appréciation des risques, de cybersécurité et de consommation d’énergie.

Un bureau européen de l’IA sera créé au sein de la Commission pour faire appliquer les règles fondamentales du modèle, les autorités nationales supervisant les systèmes d’IA par l’intermédiaire du Bureau européen de l’intelligence artificielle.

Le Conseil de l’intelligence économique (EAIB) veillera à l’application correcte de la loi. Un forum consultatif recueillera les réactions des parties prenantes. Un groupe scientifique d’experts indépendants donnera des conseils sur l’application de la loi, identifiera les risques systémiques et contribuera à la classification des modèles d’IA.

Sujets à controverse. Si une dizaine de questions restent en suspens, les principaux obstacles concernent les interdictions, l’identification biométrique à distance et les exemptions pour raisons de sécurité nationale.

Interdictions. Jusqu’à présent, les législateurs se sont provisoirement mis d’accord sur les interdictions des techniques de manipulation, des systèmes exploitant les vulnérabilités, de l’évaluation sociale et de l’extraction sans discernement d’images faciales. Dans le même temps, le Parlement européen a proposé une liste beaucoup plus longue de pratiques interdites et se heurte à une forte résistance de la part du Conseil.

Identification biométrique à distance. Les membres du Parlement européen (MEP) font pression pour une interdiction générale des systèmes de catégorisation biométrique basés sur des traits personnels délicats, y compris la race, les opinions politiques et les croyances religieuses. Dans le même temps, les États membres font pression pour obtenir des dispenses leur permettant d’utiliser la surveillance biométrique en cas de menace pour la sécurité nationale.
Exemptions au titre de la sécurité nationale. La France, en tête des pays de l’UE, plaide pour une large exemption de la sécurité nationale dans les réglementations sur l’IA, en soulignant la discrétion des États membres dans les domaines de la défense, de l’armée et de la sécurité nationale. Toutefois, cette proposition se heurtera probablement à la résistance des législateurs progressistes, qui préconiseront probablement une interdiction pure et simple.

Mise à jour : après 36 heures de négociations réparties sur trois jours (dont 22 consécutifs), un accord provisoire a finalement été conclu. Découvrez les détails dans notre Hebdo #139.

In focus

Des enjeux plus importants dans la course à l’IAG ?

Le suspens autour de la saga du mois de novembre d’OpenAI a été tout simplement captivant, et nous avons été au cœur de l’action, en suivant chaque rebondissement.

En résumé, le P.-D. G. d’OpenAI, Sam Altman, a été démis de ses fonctions parce qu’il « n’était pas toujours franc dans ses communications » avec le conseil d’administration. La plupart des employés d’OpenAI, environ 700 sur 750, ont exprimé leur intention de quitter l’entreprise et de rejoindre M. Altman chez Microsoft, ce qui a entraîné sa réintégration en tant que P.-D. G. En outre, le conseil d’administration d’OpenAI a remplacé certains de ses membres.

Les rapports (et les spéculations) sur Q* se sont rapidement répandus. Selon Reuters, M. Altman a été licencié en partie à cause de Q*, un projet d’IA prétendument si puissant qu’il pourrait menacer l’humanité.

Q* est censé pouvoir résoudre certains problèmes mathématiques. Bien que ses prouesses soient du niveau des élèves de l’école primaire (les six ou huit premières années), il pourrait s’agir d’une percée potentielle dans le domaine de l’intelligence artificielle générale (AGI), car cela suggère une capacité de raisonnement plus élevée. OpenAI considère l’AGI comme une IA visant à surpasser les capacités humaines dans des tâches à valeur économique.

À son retour en tant que P.-D. G., M. Altman a déclaré à propos de Q* : « Pas de commentaire particulier sur cette malheureuse fuite. »

La nouvelle a fait grand bruit, beaucoup se demandant ce qu’est exactement Q*, et si cela existe vraiment. Certains observateurs avisés pensent que Q* pourrait être lié à un projet d’OpenAI du mois de mai, qui se vantait de la « supervision de processus », une technique qui entraîne les modèles d’IA à résoudre les problèmes étape par étape.

Certains pensent que le projet Q* pourrait combiner l’apprentissage-Q (c’est-à-dire un type d’apprentissage par renforcement dans lequel un modèle apprend de manière itérative et s’améliore au fil du temps en étant récompensé pour avoir pris la bonne décision) avec un algorithme que les ordinateurs peuvent utiliser pour déterminer comment se rendre rapidement d’un point à un autre (recherche A*).

D’autres ont avancé que le nom Q* pourrait faire référence à l’algorithme de recherche Q*, qui a été développé pour contrôler les recherches déductives dans un système expérimental.

Google entre dans la course. Début décembre, Google a lancé Gemini, un modèle d’IA qui, selon la firme de Mountain View, a surpassé les experts humains dans le domaine de la compréhension du langage multitâche massif ; une mesure conçue pour évaluer les connaissances de l’IA en matière de mathématiques, d’histoire, de droit et d’éthique. Ce modèle serait capable de surpasser GPT-4 en mathématiques de niveau primaire. Google a toutefois refusé de commenter le nombre de paramètres de Gemini.

Tout cela est-il vraiment lié à l’AGI ? C’est difficile à dire. D’une part, l’IA qui dépasse les capacités humaines semble être une dystopie (pourquoi personne ne pense-t-il jamais qu’il pourrait s’agir d’une utopie ?). D’autre part, les experts affirment que même si une IA pouvait résoudre des équations mathématiques, cela ne se traduirait pas nécessairement par des percées plus importantes de l’AGI.

Quel est l’objet réel de toutes ces spéculations ? La transparence – et pas uniquement chez OpenAI et Google. Nous devons comprendre qui (ou quoi) façonnera notre avenir. Sommes-nous les acteurs principaux ou de simples spectateurs qui attendent de voir ce qui va se passer ?

 Art, Doodle, Drawing, Person, Animal, Bird, Penguin, Head, Face, Canine, Dog, Mammal, Pet

Équilibrer le discours en ligne : lutter contre la haine tout en préservant la liberté

La bataille en cours sur la prévention et la lutte contre les discours haineux en ligne tout en garantissant la protection de la liberté d’expression a amené l’Agence des droits fondamentaux de l’UE (FRA) à préconiser une « modération appropriée et précise des contenus ».

La FRA a publié un rapport sur les défis liés à la détection des discours de haine en ligne contre les personnes originaires d’Afrique, les Juifs, les Roms et d’autres personnes sur les plateformes numériques, notamment Telegram, X (anciennement connu sous le nom de Twitter), Reddit et YouTube. Des données ont été recueillies auprès de la Bulgarie, de l’Allemagne, de l’Italie et de la Suède afin de fournir une analyse comparative basée sur leurs politiques nationales actuelles. La FRA a appelé les régulateurs et les plateformes numériques à garantir un espace plus sûr pour les personnes d’ascendance africaine, les juifs et les Roms, car il a été constaté qu’ils subissent des niveaux très élevés de discours de haine et de cyberharcèlement. En outre, la FRA a attiré l’attention sur la nécessité d’une réglementation efficace en matière de modération des contenus pour les femmes, car les niveaux d’incitation à la violence à leur encontre sont plus élevés que dans d’autres groupes.

image 33

Le DSA est-il suffisant pour garantir la modération du contenu dans l’UE ? Bien que la loi sur la sécurité numérique (DSA) soit considérée comme un grand pas en avant dans la lutte contre le discours haineux en ligne, la FRA affirme que ses effets ne sont pas encore visibles. Selon la FRA, il est nécessaire de clarifier ce qui est considéré comme un discours de haine, notamment en formant les forces de l’ordre, les modérateurs de contenu et les indicateurs aux normes juridiques permettant d’identifier les discours de haine. Cette formation devrait également permettre de s’assurer que les plateformes ne suppriment pas trop de contenu.

Directives de l’UNESCO. La directrice générale de l’UNESCO, Audrey Azoulay, a tiré la sonnette d’alarme face à la montée de la désinformation et des discours de haine en ligne, les qualifiant de « menace majeure pour la stabilité et la cohésion sociale ». En conséquence, l’UNESCO a publié des lignes directrices pour la gouvernance des plateformes numériques afin de lutter contre la désinformation et les discours de haine en ligne tout en protégeant la liberté d’expression. Ces lignes directrices prévoient notamment la mise en place de régulateurs publics indépendants dans les pays du monde entier, la présence de modérateurs de différentes langues sur les plateformes numériques, la priorité à la transparence dans le financement des médias et la promotion de la pensée critique.

L’importance de la société civile. Depuis le début de la guerre israélo-palestinienne, les messages sur la Palestine et les suppressions de contenu ont atteint une « ampleur sans précédent », a déclaré Jillian York, directrice de la liberté d’expression internationale à l’Electronic Freedom Foundation (EFF). Plusieurs groupes palestiniens de défense des droits de l’Homme ont donc lancé la pétition « Meta: Let Palestine Speak » (Laissez la Palestine s’exprimer), demandant au géant de la technologie de remédier à la suppression injuste de contenus palestiniens.
Et, bien sûr, l’IA. Comme l’indique le rapport de la FRA, l’évaluation du contenu basée sur les personnes utilise souvent des paramètres biaisés et discriminatoires. Toutefois, cela ne signifie pas que l’on puisse empêcher l’IA de le faire, comme le montre la traduction automatique de Meta, qui a appliqué le terme « terroriste » aux utilisateurs palestiniens dont la biographie contenait une phrase en arabe, et pour laquelle Meta a présenté des excuses publiques en octobre 2023.

Lancement du Geneva Manual sur le comportement responsable dans le cyberespace

Le Geneva Manual récemment publié se concentre sur les rôles et les responsabilités des parties prenantes non étatiques dans la mise en œuvre de deux normes cybernétiques des Nations unies relatives à la sécurité de la chaîne d’approvisionnement et au signalement responsable des failles dans les technologies de l’information et de la communication.

Le manuel a été rédigé par le Dialogue de Genève sur le comportement responsable dans le cyberespace, une initiative établie par le Département fédéral suisse des affaires étrangères et dirigée par DiploFoundation, avec le soutien de la République et de l’État de Genève, du Center for Digital Trust (C4DT) de l’École polytechnique fédérale de Lausanne (EPFL), de Swisscom et de l’UBS.

Le Dialogue de Genève prévoit d’étendre le manuel en étudiant la mise en œuvre de normes supplémentaires dans les années à venir.
Le manuel est un document vivant, ouvert à la participation et à l’enrichissement. Visitez le site genevadialogue.ch pour faire part de vos réflexions, de vos idées et de vos suggestions, alors que nous traçons la voie vers un cyberespace plus sûr et plus stable.

Cartoon schematic shows a flow from a contentions oral meeting on cyber norms to a more detailed research analysis with exclamations changing to realisation and agreement, to a summary schematic superimposed over a turtle, alongside a report on cyber norms and a book with a bookmark labelled Geneva manual, ending in a drawing of a turtle with a world globe on its back, with the word ‘Secure!’

Actualités de la Francophonie

 Logo, Text

Le Réseau francophone des régulateurs des médias (REFRAM) réuni à Nouakchott les 16 et 17 novembre 2023 sur le thème « l’audiovisuel à l’ère du numérique : acquis et défis »

La Haute Autorité de la presse et de l’audiovisuel de Mauritanie (HAPA) a organisé les 16 et 17 novembre 2023 un colloque sur « l’audiovisuel à l’ère du numérique : acquis et défis ». Cette rencontre réunissait des représentants de haut niveau des régulateurs membres du REFRAM, et des experts venant de 11 pays. 

La conférence a été introduite par Houssein OULD MEDDOU, président de la HAPA, hôte de l’événement, suivie par une allocution vidéo de Roch-Olivier MAISTRE, le président du REFRAM et de l’Arcom, retenu à Paris et représenté par Hervé Godechot, membre du Collège.

Le forum a été le lieu de réflexion où les acteurs du domaine de l’audiovisuel ont pu discuter des nouvelles méthodes nécessaires pour s’adapter à l’évolution technologique rapide de l’industrie numérique. Les travaux étaient répartis sur les deux journées en cinq sessions. La première journée du 16 novembre a été, outre la traditionnelle session d’ouverture, divisée en trois sessions thématiques. La première a abordé les questions de diffusion et distribution des contenus audiovisuels ; la deuxième s’est plus particulièrement intéressée aux grands enjeux techniques, économiques et culturels. Une troisième session consacrée à un retour d’expériences de plusieurs régulateurs en matière télévisuelle est venue conclure cette première journée de travaux.

La matinée du 17 novembre s’est ouverte par une session relative aux relations entre régulateurs et opérateurs. Elle s’est poursuivie par une session sur les stratégies à adopter pour entretenir un espace audiovisuel pluraliste, notamment au travers d’une réglementation adaptée et réactualisée, face à l’évolution de l’offre numérique.

Lors de la session de clôture, les membres se sont félicités de la richesse des travaux et de l’excellence de l’organisation et de l’accueil réservé par la HAPA et les autorités mauritaniennes.

En marge de la Conférence, des chefs de délégations des autorités membres du réseau ont eu l’honneur d’être reçus vendredi 17 novembre par Son Excellence Monsieur Mohamed Ould Cheikh El Ghazouani, président de la République de Mauritanie. Lors de cette audience, Mme Latifa Akharbach, présidente de la Haute Autorité de la communication audiovisuelle du Maroc et présidente du Réseau des instances africaines de la communication (RIARC), a mis en exergue la mobilisation des régulateurs africains pour la garantie du droit du citoyen à l’accès à l’information et à la liberté d’expression en même temps que la protection des sociétés contre la désinformation, les théories complotistes et les contenus nuisibles à la cohésion sociale dont la transformation numérique des médias et de la communication a renforcé la prévalence dans l’espace public médiatique.

En savoir plus : https://www.refram.org/

 Groupshot, Person, Adult, Female, Woman, Clothing, Formal Wear, Suit, Coat, People
Crédit photo : REFRAM

L’OIF contribue activement au programme de la Conférence eWeek 2023 (Genève, 4-8 décembre 2023)

La Conférence des Nations Unies sur le commerce et le développement (CNUCED) a organisé à Genève la semaine eWeek sur le thème « Façonner l’avenir de l’économie numérique », du 4 au 8 décembre 2023, avec plus de 150 sessions axées sur les questions urgentes liées à la numérisation.

L’ eWeek de la CNUCED est une plateforme pour un dialogue constructif et inclusif dont l’objectif est de susciter des idées et des actions contribuant aux efforts mondiaux, en particulier le processus en cours du Pacte numérique mondial des Nations unies visant à promouvoir un avenir numérique ouvert, libre et sûr pour tous, en vue du Sommet de l’avenir des Nations unies de 2024. Cet événement réunit des gouvernements, des chefs d’entreprise, des dirigeants d’organisations internationales, des représentants de la société civile et d’autres parties prenantes.

Les principaux sujets abordés portent sur la gouvernance des plateformes, l’impact de l’intelligence artificielle (IA) sur le développement, les pratiques numériques respectueuses de l’environnement, l’autonomisation des femmes grâce à l’entrepreneuriat numérique et l’accélération de la préparation au numérique dans les pays en développement.

L’Organisation internationale de la Francophonie a contribué activement à l’organisation de 3 sessions au programme de cette manifestation internationale sur les thèmes suivants : « Vers un indice de vulnérabilité numérique », « La découvrabilité des contenus numériques, un impératif pour garantir la diversité culturelle » et « Comment répondre aux besoins de compétences numériques en Afrique francophone ? ». 

Dans cette dernière session, l’OIF, à travers sa Directrice de la Francophonie économique et numérique, Madame Florence BRILLOUIN, a présenté la démarche du projet Phare D-CLIC pour relever le défi de la mise en place de compétences numériques adaptées aux besoins spécifiques des pays francophones africains. S’appuyant sur une cartographie des métiers du numérique dans l’espace francophone, cette initiative de l’Organisation développe des formations répondant aux besoins des Etats africains francophones, telles que des formations professionnalisantes courtes de 3 à 9 mois les plus demandées sur le marché du travail ainsi que favoriser l’entrepreneuriat. Les mécanismes de suivi et d’évaluation de D-CLIC, dont la mise en place de dispositifs d’accompagnement à l’insertion professionnelle et d’un outil de pilotage (cadre logique), ont été aussi évoqués, la finalité étant de mesurer la qualité, l’atteinte des objectifs et l’impact du projet, gage d’efficacité et de redevabilité.

L’OIF forme les experts des missions diplomatiques francophones auprès des Nations unies à New York en prélude aux négociations du Pacte numérique mondial (PNM) 

Dans le cadre de l’élaboration du Pacte numérique mondial, et afin de capitaliser sur la Contribution de la Francophonie au PNM, l’Organisation internationale de la Francophonie a mis en place différentes actions de sensibilisation et d’appropriation de cette Contribution à destination des diplomates en charge de négocier ce futur Pacte. 

Ainsi, l’OIF a organisé une « formation des négociateurs aux enjeux du Pacte numérique mondial » les 4 et 5 décembre à New York, en présentiel. Cette formation de deux demi-journées s’est adressée aux experts francophones en charge du numérique au sein des Missions permanentes des Nations unies à New York. Visant à renforcer leurs capacités de négociation sur le PNM et proposer des clés de compréhension des enjeux au cœur des consultations intergouvernementales sur le PNM afin de maximiser l’implication et la coordination des pays francophones dans ce processus, cette initiative a été développée en partenariat avec l’ISOC – Internet Society et avec la contribution du Bureau de l’Envoyé pour les technologies du Secrétaire général de l’ONU.

Deux évènements parallèles ont également été organisés les 4 et 5 décembre. Le premier est un déjeuner-débat, à l’initiative de la Mission permanente du Canada en partenariat avec les Représentations permanentes de la Tunisie et l’OIF, sur le thème : « La gouvernance de l’Internet et de l’intelligence artificielle ». Cette manifestation a été l’occasion d’un débat passionnant d’éminents experts sur l’avenir de la gouvernance de l’Intelligence Artificielle à l’aune des modèles qui ont fait le succès de la gouvernance de l’Internet. Le lendemain s’est tenu un déjeuner – discussion, à l’initiative de l’AFFIN (Association des Français Fonctionnaires Internationaux de New York), sur le thème « L’élaboration d’une réglementation nationale pour le numérique : enjeux, stratégies et perspectives ». Cela a permis de croiser les regards d’un parlementaire français et d’un Conseiller du Département des Affaires juridiques de l’ONU, sur les implications et les défis en matière de régulation du secteur du numérique au niveau national, régional et mondial. 

Ces actions s’inscrivent dans les objectifs du volet n°3 de l’initiative « D-CLIC, Formez-vous au numérique avec l’OIF » qui comprend le renforcement des capacités des pouvoirs publics, dont les agents publics, autour des enjeux liés à la gouvernance du numérique.

 People, Person, Indoors, Crowd, Adult, Male, Man, Architecture, Building, Chair, Furniture, Face, Head, Audience
Crédit photo : OIF