Weekly #239 Digital draught: When the cloud goes offline

 Logo, Text

14-21 November 2025


HIGHLIGHT OF THE WEEK

Digital draught: When the cloud goes offline

On 18 November, Cloudflare — the invisible backbone behind millions of websites — went down in what the company calls its most serious outage since 2019. Users around the world saw internal-server-error messages as services like X and ChatGPT temporarily went offline.

The culprit was an internal misconfiguration. A routine permissions change in a ClickHouse database led to a malformed ‘feature file’ used by Cloudflare’s Bot Management tool. That file unexpectedly doubled in size and, when pushed across Cloudflare’s global network, exceeded built‑in limits — triggering cascading failures. 

As engineers rushed to isolate the bad file, traffic slowly returned. By mid‑afternoon, Cloudflare halted propagation, replaced the corrupted file, and rebooted key systems; full network recovery followed hours later.

 Book, Comics, Publication, Person, Advertisement, Poster, Face, Head, People, Octagón

The bigger picture. The incident is not isolated. Only last month, Microsoft Azure suffered a multi-hour outage that disrupted enterprise clients across Europe and the US, while Amazon Web Services (AWS) experienced intermittent downtime affecting streaming platforms and e-commerce sites. These events, combined with the Cloudflare blackout, underscore the fragility of global cloud infrastructure.

The outage comes at a politically sensitive moment in Europe’s cloud policy debate. Regulators in Brussels are already probing AWS and Microsoft Azure to determine whether they should be designated as ‘gatekeepers’ under the EU’s Digital Markets Act (DMA). These investigations aim to assess whether their dominance in cloud infrastructure gives them outsized control — even though, technically, they don’t meet the Act’s usual size thresholds. 

This recurring pattern highlights a major vulnerability in the modern internet, one born from an overreliance on a handful of critical providers. When one of these central pillars stumbles, whether from a misconfiguration, software bug, or regional issue, the effects ripple outward. The very concentration of services that enables efficiency and scale also creates single points of failure with cascading consequences.

IN OTHER NEWS LAST WEEK

This week in AI and data governance

Singapore. Singapore has launching a Global AI Assurance Sandbox, now open to companies worldwide that want to run real-world pilot tests for AI systems. 

This sandbox is guided by 11 governance principles aligned with international standards — including NIST’s AI Risk Management Framework and ISO/IEC 42001. By doing this, Singapore hopes to bridge the gap between fragmented national AI regulations and build shared benchmarks for safety and trust. 

Russia. At Russia’s premier AI conference (AI Journey), President Vladimir Putin announced the formation of a national AI task force, framing it as essential for minimising dependence on foreign AI. The plan includes building data centres (even powered by small-scale nuclear power), and using these to host generative AI models that protect national interests. Putin also argued that only domestically developed models should be used in sensitive sectors — like national security — to prevent data leakage. 

The USA. The shadow of regulation-limiting politics looms large in the USA. Trump-aligned Republicans have again pushed for a moratorium on state-level AI regulation. The idea is to block states from passing their own AI laws, arguing that a fragmented regulatory landscape would hinder innovation. 

One version of the proposal would tie federal broadband funding to states’ willingness to forego AI rules — effectively punishing any state that tries to regulate. Yet this pushback isn’t unopposed: more than 260 state lawmakers from across the US, Republican and Democrat alike, have decried the moratorium. 

The EU. A big political storm is brewing in the EU. The European Commission has rolled out what it calls the Digital Omnibus, a package of proposals aimed at simplifying its digital lawbook — a move welcomed by some as needed to improve the competitiveness of the EU’s digital actors, and criticised by others over potentially negative implications in areas such as digital rights. The package consists of the Digital Omnibus Regulation Proposal and the Digital Omnibus on AI Regulation Proposal.

What’s making waves., The Digital omnibus on AI Regulation Proposal delays the implementation of ‘high-risk’ rules under the EU’s AI Act until 2027, giving Big Tech more time before stricter oversight takes effect. The entry into force of high-risk AI rules will now align with the availability of support tools, giving companies up to 16 months to comply. SMEs and small mid-cap companies will benefit from simplified documentation, broader access to regulatory sandboxes, and centralised oversight of general-purpose AI systems through the AI Office.

Cybersecurity reporting is also being simplified with a single-entry interface for incidents under multiple laws, while privacy rules are being clarified to support innovation without weakening protections under the GDPR. Cookie rules will be modernised to reduce repetitive consent requests and allow users to manage preferences more efficiently.

Data access will be enhanced through the consolidation of EU data legislation via the Data Union Strategy, targeted exemptions for smaller companies, and new guidance on contractual compliance. The measures aim to unlock high-quality datasets for AI and strengthen Europe’s innovation potential, while saving businesses billions and improving regulatory clarity.

The Digital Omnibus Regulation Proposal has implications for data protection for the EU. Proposed changes to the General Data Protection Regulation (GDPR) a would redefine the definition of personal data, weakening the safeguards on when companies can use it — especially for AI training. Meanwhile, cookie-consent is being simplified into a ‘one click’ model that lasts up to six months. 

Ring the alarm. Privacy and civil rights groups expressed concern that the proposed GDPR changes disproportionately benefit large technology firms. A coalition of 127 organisations has issued a public warning that this could become ‘the biggest rollback of digital fundamental rights in EU history.’ 

These proposals must go through the EU’s co-legislative process — Parliament and Council will debate, amend, and negotiate them. Given the controversy (support from industry, pushback from civil society), the final outcome could look very different from the Commission’s initial proposal.


Privacy in motion

In the EU, policymakers are making adjustments to improve the implementation of the General Data Protection Regulation (GDPR). The Council of the EU has adopted new measures to accelerate the handling of cross-border data protection complaints. Among the key changes is the introduction of harmonised criteria for determining whether a complaint is admissible, ensuring that citizens receive the same treatment no matter where they file a GDPR complaint. The rules also strengthen the rights of both complainants and companies under investigation, including clearer procedures for participation in the case and access to preliminary findings. To reduce administrative burdens, the regulation introduces a simplified cooperation procedure for straightforward cases, allowing authorities to close cases more quickly without relying on the full cooperation framework. 

India has begun implementing its new national data protection system, marking a significant step toward a more structured privacy framework. The Digital Personal Data Protection Act 2023 is now in force, following the approval of implementing rules that outline how the law will be applied. These rules establish initial institutional and procedural requirements, including the creation of a Data Protection Board, while giving organisations additional time to comply with other obligations such as consent management and breach reporting.

The common thread. Regulators in the EU and India are moving from writing the data protection rules to the rather complex task of implementing them.


Europe’s push for digital independence 

France and Germany jointly hosted the Summit on European Digital Sovereignty in Berlin to accelerate action on Europe’s digital independence. The two countries introduced a joint roadmap highlighting seven strategic priorities:

  1. Regulatory simplification: A more innovation-friendly EU framework, including a proposed 12-month postponement of AI Act high-risk requirements and targeted GDPR simplification.
  2. Fairer digital markets: Continued efforts to ensure contestable cloud and digital markets, including the European Commission’s market investigation into cloud hyperscalers.
  3. Data sovereignty: Stronger safeguards for sensitive data, protection from non-EU extraterritorial risks, and mandatory privacy-enhancing technologies aligned with cybersecurity rules.
  4. Digital commons: Advancement of the Digital Commons-EDIC initiative with partner countries.
  5. Digital public infrastructure & open source: Support for the European Digital Identity Wallet and wider deployment of open-source tools in public administrations.
  6. Digital Sovereignty Task Force: A new Franco-German body to define sovereignty indicators and propose concrete policy measures by 2026.
  7. Frontier AI: Actions to create a world-leading European environment for breakthrough AI innovation.

The summit also served as a catalyst for major private-sector commitments, with more than €12 billion in investment pledged toward key digital technologies.

German Chancellor Friedrich Merz called the summit ‘an important milestone’ toward a more sovereign and competitive digital Europe, while French President Emmanuel Macron emphasised a ‘historic convergence’ of European digital ambition.

A major development accompanying the summit was the launch of the European Network for Technological Resilience and Sovereignty (ETRS). This new coalition of leading think tanks and experts aims to enhance Europe’s capacity for innovation and reduce its reliance on foreign technologies. Founding members include Bertelsmann Stiftung (Germany), CEPS (Belgium), the AI & Society Institute (France), and the Polish Economic Institute.

The ETRS will act as a shared knowledge engine connecting academia, civil society, industry, and public institutions to support evidence-driven policymaking. From 2026 onward, it will launch expert workshops, strategic mapping of technology dependencies, and an international pool of specialists focused on digital sovereignty. The network is open to new participants, with more than a dozen already joining.

The gist of it. ‘Europe currently relies on the United States and China for more than 80 percent of its critical digital technologies, ranging from cloud computing and artificial intelligence to semiconductors,’ ETRS noted in a statement. That figure illustrates why the EU is taking this approach. For years, the EU has been a world leader in rule-making — but it has also been playing a high-stakes game of catch-up in developing the technologies it regulates. Now, the bloc is aiming to become a master of both.


Cotonou Declaration sets ambitious 2030 digital goals for West and Central Africa

West and Central African digital economy ministers have launched an ambitious initiative for digital transformation with the Cotonou Declaration, adopted at a regional summit in Cotonou, Benin, on November 17–18, 2025. The Declaration sets targets for 2030, including a Single African Digital Market, 90% broadband coverage, interoperable digital infrastructures like IDs and payments, doubled intra-African e-commerce, and harmonised frameworks for cybersecurity, data governance, and AI.

Human capital is central: 20 million people are expected to gain basic digital skills, and two million new digital jobs or entrepreneurial opportunities will be created, especially for youth and women. Ministers also pledged to strengthen innovation ecosystems and promote African-led AI, building regional cloud and data infrastructure to drive economic growth.

Investment coordination will be facilitated through national digital compacts aligning reforms, funding, and partnerships.


Dutch retreat calms Nexperia chip dispute with China

The Dutch government has suspended its takeover of Nexperia, a Netherlands-based chipmaker owned by China’s Wingtech, following constructive talks with Chinese authorities.

Dutch Economy Minister Vincent Karremans stated that the pause in the takeover is intended as a goodwill gesture, and that dialogue with China will continue — the decision was made in consultation with the EU and international partners.

The EU’s trade chief, Maroš Šefčovič, welcomed the move, saying it could help stabilise chip supply chains.

China has also begun releasing stockpiled chips to ease the shortage.

The heart of the matter. The episode underscored the fragility of global semiconductor supply chains.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

The UN Commission on Science and Technology for Development (CSTD) held its 2025–2026 inter-sessional panel on 17 November at the Palais des Nations in Geneva. The agenda focused on science, technology and innovation in the age of AI, with expert contributions from academia, international organisations, and the private sector. Delegations also reviewed progress on WSIS implementation ahead of the WSIS+20 process, and received updates on the implementation of the Global Digital Compact (GDC) and ongoing data governance work within the dedicated CSTD working group. The findings and recommendations of the panel will be considered at the twenty-ninth session of the Commission in 2026.

The CSTD’s multi-stakeholder working group on data governance at all levels met for the fourth time from 18 to 19 November. Delegates reviewed recent inputs, discussed principles, interoperability, benefit-sharing, and secure data flows, and planned next steps for the Working Group’s progress report to the UN General Assembly.

LOOKING AHEAD
 Person, Face, Head, Binoculars

The G20 Leaders’ Summit is scheduled for 22 and 23 November in Johannesburg, South Africa. This annual meeting brings together the heads of state and government from the 19 member countries, plus the African Union and the EU. Expected on the agenda: AI. data governance, and critical minerals. Not expected: the USA’s attendance.

The second half of ITU’s World Telecommunication Development Conference 2025 (WTDC‑25) in Baku, Azerbaijan, will be held next week. The conference brings together governments, regulators, industry, civil society, and other stakeholders to discuss strategies for universal, meaningful, and affordable connectivity. Participants are also reviewing policy frameworks, investment priorities, and digital development initiatives. They will also adopt a Declaration, Strategic Plan, and Action Plan to guide global ICT development through 2029.

On 24 November, UNIDIR will host its Innovations Dialogue on neurotechnologies and their implications for international peace and security in Geneva and online. Experts from neuroscience, law, ethics, and security policy will discuss developments such as brain-computer interfaces and cognitive enhancement tools, exploring both their potential applications and the challenges they present, including ethical and security considerations. The event includes a poster exhibition on responsible use and governance approaches.

Several national and regional IGFs will also be held next week: the Polish IGF (24-25 November), the North African IGF (24-26 November), and the Nigerian IGF (24-27 November).

DiploFoundation is inviting civil society organisations to apply by 30 November 2025 for the CADE Capacity Development Programme 2025–2026. The programme helps CSOs strengthen their role in digital governance through a mix of technical courses, diplomatic skills training, and expert guidance. Participants can specialise in AI, cybersecurity, or infrastructure policy, receive on-demand helpdesk support, and the most engaged will join a study visit to Geneva. Fully funded by the EU, the programme offers full scholarships to selected organisations, with a special welcome to those from the Global South and women-led groups.



READING CORNER
FF2025 Social share

ITU’s Measuring digital development: Facts and Figures 2025 offers a snapshot of the most important ICT indicators, including estimates for the current year.

gdpr general data protection regulation concept computer with a gdpr icon on the digital tablet screen stockpack istock scaled 1

EU data protection law and competitiveness are struggling to work cohesively, according to senior Union leaders. That is why the GDPR and ePD are next on the digital omnibus’ chopping…

AI in schools

Is AI destroying the value of learning? From elementary classrooms to universities, educators face a new reality: students using AI to bypass critical thinking. Read Part 1 of this series

650 312

The alarmism that followed the 1972 ‘Limits of Growth’ report, which predicted civilisation’s collapse by c. 2040, pushed policy towards centralisation, token gestures, and factional debate. Aldo Matteucci analyses.

Lettre d’information du Digital Watch – Numéro 104 – Mensuelle Octobre 2025

Rétrospective d’octobre 2025

Les articles de ce mois-ci retracent l’évolution des règles du monde numérique, de la protection en ligne des enfants à la lutte mondiale pour les terres rares, en passant par l’intelligence artificielle et la cybercriminalité.

Voici ce que nous avons décrypté dans cette édition.

Nouvelles règles pour l’espace numérique : Les pays renforcent les mesures de sécurité en ligne et redéfinissent les limites numériques pour les jeunes utilisateurs.

La lutte mondiale pour contrôler l’IA : Nous avons examiné comment les États et les géants de la technologie se font concurrence pour façonner l’avenir de l’IA.

Répit pour les terres rares : Des couloirs commerciaux aux interdictions d’exportation, les nations recalibrent leur approche pour sécuriser les minéraux qui sous-tendent l’économie numérique.

Quand le cloud vacille : Ce que les pannes d’AWS et de Microsoft révèlent sur la résilience, la dépendance et les risques d’un Internet de plus en plus centralisé.

Promesses et dangers : le monde signe le nouveau traité des Nations unies sur la cybercriminalité à Hanoï —

Une étape importante pour la politique numérique mondiale, mais qui soulève de profondes questions sur les droits, la juridiction et l’application.

Le mois dernier à Genève — Découvrez les discussions, les événements et les conclusions qui façonnent la gouvernance numérique internationale.


GOUVERNANCE NUMÉRIQUE

Les co facilitateurs du processus SMSI+20 ont publié la révision 1 du document final pour l’examen de la mise en œuvre du Sommet mondial sur la société de l’information après vingt ans, qui reflète les contributions et les propositions recueillies auprès des parties prenantes et des États membres tout au long du processus consultatif mené jusqu’à présent.

INTELLIGENCE ARTIFICIELLE

Le président chinois Xi Jinping a réitéré la proposition de la Chine de créer un organisme mondial dédié à l’IA, intitulé World Artificial Intelligence Cooperation Organisation (WAICO), afin de coopérer sur les stratégies de développement, les règles de gouvernance et les normes technologiques.

La Commission européenne envisage de suspendre ou d’assouplir certains éléments de la loi européenne sur l’IA, la législation phare de l’Union européenne visant à réglementer les systèmes d’IA à haut risque. Les ajustements potentiels pourraient inclure des délais de mise en conformité reportés, des obligations moins strictes pour les applications à haut risque et une approche progressive de la mise en application.

La Commission européenne évalue actuellement si ChatGPT doit être classé comme un très grand moteur de recherche en ligne (VLOSE) au titre de la loi sur les services numériques (DSA), une mesure qui entraînerait des obligations étendues en matière de transparence, d’audit et d’évaluation des risques et qui pourrait potentiellement empiéter sur les exigences de la future loi sur l’IA.

La Déclaration sur la superintelligence, approuvée par des chercheurs et des technologues de renom, préconise une surveillance et une gouvernance rigoureuses des systèmes d’IA avancés afin de prévenir tout préjudice involontaire, faisant écho aux préoccupations des régulateurs et des gouvernements du monde entier.

TECHNOLOGIES

Le prix Nobel de physique 2025 a été décerné à John Clarke, Michel H. Devoret et John M. Martinis pour avoir démontré que des effets quantiques clés, tels que l’effet tunnel et la quantification de l’énergie, peuvent se produire dans des circuits supraconducteurs de la taille d’une main, faisant ainsi progresser la physique fondamentale et jetant les bases des technologies quantiques modernes.

L’UNESCO a approuvé le premier cadre mondial sur l’éthique des neurotechnologies, établissant de nouvelles normes pour garantir que les progrès de la science du cerveau respectent les droits et la dignité humains.

La feuille de route scientifique et technologique entre les États-Unis et la Corée élargit la coopération dans les domaines de l’IA, de la quantique, de la 6G, de la sécurité de la recherche et de l’espace civil, dans le but d’harmoniser les politiques en faveur de l’innovation et de favoriser les « exportations rouillées ».

Le président américain Donald Trump et le président chinois Xi Jinping ont signé un accord qui annule effectivement les récentes mesures de contrôle des exportations de Pékin sur les terres rares et autres minéraux critiques.

Le cadre américano-japonais pour la sécurité de l’approvisionnement en minéraux critiques et en terres rares engage les deux nations à mener des activités conjointes d’extraction, de traitement et de stockage, dans le but de réduire leur dépendance vis-à-vis de la Chine et de renforcer la résilience de la chaîne d’approvisionnement indo-pacifique.

Les ministres de l’Énergie du G7 ont convenu de créer une alliance pour la production de minéraux critiques, soutenue par plus d’une vingtaine de nouveaux investissements et partenariats.

Le ministère chinois du Commerce a assoupli sa position dans l’affaire Nexperia et a décidé d’accorder des dérogations au cas par cas à ses restrictions à l’exportation des produits Nexperia, tandis que les Pays-Bas ont indiqué qu’ils pourraient suspendre leurs mesures de contrôle d’urgence si l’approvisionnement redevenait normal.

La Maison Blanche a confirmé que les puces IA les plus avancées restaient interdites aux acheteurs chinois. Les responsables américains ont également indiqué qu’ils pourraient bloquer les ventes de modèles réduits, renforçant ainsi les contrôles à l’exportation. La Chine renforcerait les contrôles douaniers sur les processeurs IA de Nvidia destinés au marché chinois dans les principaux ports, soulignant ainsi que les contrôles à l’exportation et les contre-mesures font désormais partie intégrante de la chaîne d’approvisionnement.

INFRASTRUCTURE

La Commission européenne a approuvé la création du Consortium pour une infrastructure numérique européenne (EDIC), qui rassemble la France, l’Allemagne, les Pays-Bas et l’Italie afin de développer des systèmes numériques ouverts et interopérables qui renforcent la souveraineté de l’Europe et soutiennent les gouvernements et les entreprises.

CYBERSÉCURITÉ

La Convention des Nations Unies contre la cybercriminalité, premier traité mondial visant à lutter contre la cybercriminalité, a été ouverte à la signature lors d’une cérémonie de haut niveau au cours de laquelle 72 pays l’ont ratifiée.

Le Brésil fait progresser sa première loi nationale sur la cybersécurité, le Cadre juridique de la cybersécurité, afin de centraliser la surveillance et de renforcer la protection des citoyens et des entreprises dans un contexte marqué par de récentes cyberattaques très médiatisées contre des hôpitaux et des données personnelles.

Discord a confirmé une cyberattaque contre un fournisseur tiers de vérification de l’âge qui a exposé les images d’identité officielles et les données personnelles d’environ 70 000 utilisateurs, y compris des informations partielles sur les cartes de crédit et les échanges avec le service client, bien qu’aucun numéro de carte complet, mot de passe ou activité plus large n’ait été compromis ; la plateforme elle-même est restée sécurisée.

Le rapport annuel sur les risques liés aux infrastructures critiques en Australie, publié par le ministère de l’Intérieur, met en garde contre la vulnérabilité croissante de secteurs essentiels tels que l’énergie, la santé, la banque, l’aviation et les systèmes numériques en raison des tensions géopolitiques, des perturbations de la chaîne d’approvisionnement, des cybermenaces, des risques climatiques, du sabotage physique, des initiés malveillants et de l’érosion de la confiance du public.

Le Comité international de la Croix-Rouge (CICR) et l’Académie de Genève ont publié un rapport conjoint analysant l’application du droit international humanitaire (DIH) à la participation des civils aux activités cybernétiques et numériques pendant les conflits armés, en s’appuyant sur des recherches mondiales et des contributions d’experts.

Le Danemark, qui assure actuellement la présidence du Conseil de l’UE, a retiré sa proposition visant à exiger l’analyse des messages privés cryptés à la recherche de contenus pédopornographiques (CSAM), abandonnant ainsi la proposition dite « Chat Control ». À la place, le Danemark soutiendra désormais un régime volontaire de détection des CSAM.

Un nombre croissant de pays s’apprêtent à interdire l’accès des mineurs aux principales plateformes, le Danemark se préparant à exclure les moins de 15 ans, et la Nouvelle-Zélande et l’Australie les moins de 16 ans.

La présidence danoise du Conseil de l’UE a fait progresser la déclaration du Jutland, plaçant la vérification de l’âge au cœur de la sécurité en ligne et soutenant un système européen lié au portefeuille d’identité numérique européen. Les ministres de l’UE ont approuvé un système commun de vérification tout en permettant à chaque pays de fixer sa propre limite d’âge.

ÉCONOMIE

Une coalition d’États d’Afrique, des Caraïbes et du Pacifique, menée par la Barbade, a présenté une proposition à l’Organisation mondiale du commerce (OMC) visant à prolonger le moratoire de longue date sur les droits de douane appliqués aux transmissions électroniques.

L’Assemblée nationale française a approuvé l’augmentation de 3 % à 6 % de la taxe sur les services numériques appliquée aux géants américains de la technologie tels que Google, Apple, Meta et Amazon, malgré les avertissements du ministre de l’Économie Roland Lescure quant à d’éventuelles représailles commerciales de la part des États-Unis et le fait qu’il ait qualifié cette augmentation de « disproportionnée ».

Les législateurs français ont approuvé à une faible majorité l’amendement du député centriste Jean-Paul Matteï visant à étendre l’impôt sur la fortune aux « actifs improductifs » tels que les produits de luxe, l’immobilier et les monnaies numériques. L’amendement a été adopté par 163 voix contre 150 à l’Assemblée nationale, avec le soutien des socialistes et des membres d’extrême droite.

L’Agence des services financiers du Japon soutiendra un projet pilote mené par MUFG, Sumitomo Mitsui et Mizuho Bank visant à émettre conjointement des monnaies stables adossées au yen pour les paiements des entreprises.

DROITS DE L’HOMME

Le Bureau de l’UNESCO pour les Caraïbes a lancé une enquête régionale sur le genre et l’IA afin de documenter la violence en ligne, les préoccupations en matière de confidentialité et les biais algorithmiques affectant les femmes et les filles, dont les résultats seront intégrés dans une note d’orientation régionale.

Un briefing des Nations unies met en garde contre les graves violations des droits humains résultant d’une coupure des télécommunications pendant 48 heures à l’échelle nationale en Afghanistan, qui a gravement perturbé l’accès aux soins de santé, aux services d’urgence, aux services bancaires, à l’éducation et aux communications quotidiennes, exacerbant les vulnérabilités existantes de la population.

La Tanzanie a imposé une coupure nationale d’Internet pendant ses élections générales tendues, perturbant gravement la connectivité et bloquant des plateformes telles que X, WhatsApp et Instagram, comme l’a confirmé NetBlocks, empêchant les journalistes, les observateurs électoraux et les citoyens de partager des informations alors que des manifestations et des troubles étaient signalés ; le gouvernement a déployé l’armée, suscitant des inquiétudes quant au contrôle de l’information.

Le Défenseur des droits français a jugé que l’algorithme Facebook de Meta discriminait indirectement les sexes dans les offres d’emploi, violant ainsi les lois anti-discrimination, à la suite d’une plainte déposée par Global Witness et les associations de défense des droits des femmes Fondation des Femmes et Femmes Ingénieures.Les défenseurs de la vie privée ont proposé une charte américaine des droits sur Internet afin de protéger les libertés numériques contre l’expansion des lois sur la censure en ligne, telles que la loi britannique sur la sécurité en ligne, la loi européenne sur les services numériques et les projets de loi américains tels que le KOSA et le STOP HATE Act, qui, selon eux, portent atteinte aux libertés civiles en permettant au gouvernement et aux entreprises de contrôler la liberté d’expression sous prétexte de sécurité.

JURIDIQUE

Une décision historique rendue par un tribunal fédéral américain a définitivement interdit à la société israélienne de logiciels espions NSO Group de cibler les utilisateurs de WhatsApp, empêchant ainsi NSO d’accéder aux systèmes de WhatsApp et limitant de fait les activités de la société sur la plateforme.

Un avocat général de la CJUE a estimé que les autorités nationales de concurrence pouvaient légalement saisir les courriels des employés lors d’enquêtes sans autorisation judiciaire préalable, à condition qu’un cadre juridique strict et des garanties efficaces soient mis en place.

Le gouvernement australien d’Albanese a rejeté l’introduction d’une exception relative à l’exploration de textes et de données dans sa législation sur le droit d’auteur, donnant la priorité à la protection des créateurs locaux malgré les demandes du secteur technologique en faveur d’une exemption pour l’IA qui permettrait l’utilisation sans licence de contenus protégés par le droit d’auteur.Un tribunal britannique s’est largement rallié à Stability AI dans son litige avec Getty Images, jugeant que l’utilisation par l’entreprise des images de Getty pour entraîner ses modèles d’IA ne violait pas le droit d’auteur ni le droit des marques.

SOCIOCULTUREL

La Commission européenne a publié des conclusions préliminaires selon lesquelles Meta et TikTok ont enfreint les obligations de transparence et d’accès des chercheurs prévues par le DSA, notamment en rendant difficile pour les utilisateurs le signalement de contenus illégaux et en limitant le contrôle indépendant des données de la plateforme.

Aux Pays-Bas, un tribunal a accordé à Meta jusqu’au 31 décembre 2025 pour mettre en œuvre des options de désactivation plus simples pour les fils d’actualité basés sur des algorithmes sur Facebook et Instagram, à la suite d’une décision antérieure selon laquelle la conception du fil d’actualité de Meta enfreignait les obligations de la DSA.

L’Australie exigera des services de streaming comptant plus d’un million d’abonnés locaux qu’ils investissent au moins 10 % de leurs dépenses locales dans de nouveaux contenus australiens, notamment des séries, des émissions pour enfants, des documentaires, des programmes artistiques et éducatifs.

DÉVELOPPEMENT

Le Bureau des applications de l’intelligence artificielle, de l’économie numérique et du travail à distance des Émirats arabes unis, en partenariat avec Google, a lancé l’initiative   « AI for All » le 29 octobre 2025, afin de fournir une formation complète aux compétences en IA dans tout le pays jusqu’en 2026, ciblant les étudiants, les enseignants, les universitaires, les fonctionnaires, les PME, les créatifs et les créateurs de contenu.

KEPSA et Microsoft ont lancé la Kenya AI Skilling Alliance (KAISA) à Nairobi, une plateforme nationale réunissant le gouvernement, le monde universitaire, le secteur privé et des partenaires afin de favoriser l’adoption inclusive et responsable de l’IA dans un contexte de fragmentation de l’écosystème de l’IA au Kenya.

Le Programme des Nations unies pour le développement (PNUD) a élargi sa Blockchain Academy, en partenariat avec la Fondation Algorand, afin de former 24 000 personnes dans le monde entier issues du PNUD, des Volontaires des Nations unies et du Fonds d’équipement des Nations unies (FENU), renforçant ainsi les connaissances et les applications de la blockchain pour les objectifs de développement durable.


Une nouvelle vague de protectionnisme numérique se profile à l’échelle mondiale, cette fois au nom de la sécurité des enfants.

Un petit groupe de pays, de plus en plus nombreux, cherche à interdire l’accès des mineurs aux principales plateformes. Le Danemark se joint à cette tendance en se préparant à interdire les réseaux sociaux aux utilisateurs de moins de 15 ans. Le gouvernement n’a pas encore communiqué tous les détails, mais cette mesure reflète une prise de conscience croissante dans de nombreux pays que les coûts liés à l’accès illimité des enfants aux réseaux sociaux, qu’il s’agisse de problèmes de santé mentale ou d’exposition à des contenus préjudiciables, ne sont plus acceptables.

La Nouvelle-Zélande va également présenter un projet de loi au Parlement visant à restreindre l’accès aux réseaux sociaux pour les enfants de moins de 16 ans, obligeant les plateformes à vérifier l’âge des utilisateurs avant de leur permettre d’utiliser leurs services.

Pour trouver l’inspiration, Copenhague et Wellington n’ont pas besoin de chercher bien loin. L’Australie a déjà présenté l’un des projets les plus détaillés pour une interdiction nationale des moins de 16 ans, qui devrait entrer en vigueur le 10 décembre 2025.La loi oblige les plateformes à vérifier l’âge des utilisateurs, à supprimer les comptes des mineurs et à bloquer les réinscriptions. Les plateformes devront également communiquer clairement avec les utilisateurs concernés, même si des questions subsistent, notamment celle de savoir si les contenus supprimés seront restaurés lorsque l’utilisateur aura 16 ans. 

Bien qu’elles aient publiquement exprimé leur opposition, Meta Platforms (propriétaire de Facebook/Instagram), TikTok et Snap Inc. ont annoncé qu’elles se conformeraient à la loi australienne.Les entreprises technologiques affirment que l’interdiction pourrait involontairement pousser les jeunes vers des coins moins réglementés d’Internet et soulèvent des préoccupations pratiques quant à la mise en œuvre d’une vérification fiable de l’âge.

Le commissaire australien à la sécurité électronique a officiellement notifié aux principales plateformes de réseaux sociaux, notamment Facebook, Instagram, TikTok, Snapchat et YouTube, qu’elles doivent se conformer aux nouvelles restrictions d’âge minimum en vigueur à partir du 10 décembre.

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

Au sein de l’UE, la présidence danoise a proposé la déclaration du Jutland, une initiative politique visant à renforcer les mesures de protection qui place la vérification de l’âge au cœur de la sécurité en ligne des mineurs. La déclaration soutient que les plateformes accessibles aux mineurs doivent garantir « un niveau élevé de confidentialité, de sûreté et de sécurité » et qu’une vérification efficace de l’âge est « l’un des outils essentiels » pour limiter l’exposition à des contenus illégaux ou préjudiciables et à des conceptions manipulatrices. Elle soutient explicitement les solutions à l’échelle de l’UE liées au portefeuille d’identité numérique européen (EUDI), présenté comme un moyen de vérifier l’âge avec une divulgation minimale de données, et appelle à un contrôle plus strict des fonctionnalités addictives (défilement infini, lecture automatique, séries) et des monétisations risquées (certaines loot boxes, micro-transactions). Le texte met également l’accent sur les paramètres par défaut « sécurité dès la conception », le soutien aux parents et aux enseignants, et la participation significative des enfants au processus politique.

Deux jours plus tard, les ministres ont soutenu en partie le plan danois: ils se sont ralliés au système commun européen de vérification de l’âge, mais ont résisté à l’idée d’une limite d’âge unique à l’échelle de l’UE. Le compromis qui se profile consiste à normaliser la « méthode de vérification » au niveau européen tout en laissant le « choix de l’âge » à la législation nationale, afin d’éviter la fragmentation des systèmes techniques tout en respectant les choix nationaux. Des projets pilotes pour l’approche européenne sont en cours dans plusieurs États membres et s’alignent sur le déploiement du portefeuille électronique européen (EUDI Wallet) prévu pour fin 2026.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

Cependant, le Danemark a officiellement renoncé à sa campagne au sein de l’UE visant à rendre obligatoire l’analyse des messages privés sur les plateformes cryptées, une proposition souvent appelée « Chat Control ». Les responsables ont invoqué la résistance politique et publique croissante, en particulier les préoccupations relatives à la vie privée et à la surveillance, comme catalyseur de ce revirement. Cette mesure visait à obliger les plateformes technologiques à détecter automatiquement les contenus pédopornographiques dans les communications privées et cryptées de bout en bout. À la place, le Danemark va désormais soutenir un dispositif volontaire de détection des contenus pédopornographiques, renonçant à son insistance précédente sur le balayage obligatoire.

Ajoutant une dimension mondiale, le 7 novembre, la Commission européenne, le commissaire australien à la sécurité électronique et l’Ofcom britannique se sont engagés à renforcer la sécurité des enfants en ligne. Les trois régulateurs ont notamment convenu de créer un groupe de coopération technique sur les solutions de vérification de l’âge (méthodes permettant de vérifier l’âge en toute sécurité), de partager des preuves, de mener des recherches indépendantes et de tenir les plateformes responsables des décisions de conception et de modération qui affectent les enfants. Si chaque région conserve son propre processus législatif, cet accord témoigne d’un alignement transnational croissant sur la manière dont les enfants sont protégés dans les espaces numériques.

Parallèlement la pression réglementaire s’intensifie . La Commission européenne a envoyé de nouvelles demandes d’informations relatives à la DSA aux principales plateformes, notamment Snapchat, YouTube, Apple et Google, afin de déterminer comment elles protègent les mineurs contre les contenus préjudiciables et comment fonctionnent leurs systèmes de vérification de l’âge. Cette enquête fait suite aux lignes directrices finales de la Commission sur la protection des mineurs dans le cadre de la DSA, publiées en juillet, qui définissent des mesures « appropriées et proportionnées » pour les services accessibles aux mineurs (article 28, paragraphe 1, de la DSA), allant des mesures de protection de la vie privée par défaut à l’atténuation des risques pour les systèmes de recommandation. Les infractions peuvent entraîner des amendes substantielles.

Les poursuites judiciaires se multiplient également. En Italie, des familles ont intenté une action en justice contre Facebook, Instagram et TikTok, affirmant que ces plateformes n’ont pas protégé les mineurs contre des algorithmes exploitants et des contenus inappropriés.

De l’autre côté de l’Atlantique, la ville de New York a intenté un procès contre les principales plateformes de réseaux sociaux, les accusant d’avoir délibérément conçu des fonctionnalités qui rendent les enfants dépendants et nuisent à leur santé mentale.

La date d’un procès historique sur la sécurité des enfants en ligne a été fixée. En janvier 2026, la Cour supérieure du comté de Los Angeles examinera une affaire regroupant des centaines de plaintes déposées par des parents et des districts scolaires contre Meta, Snap, TikTok et YouTube. Les plaignants affirment que ces plateformes créent une dépendance et exposent les jeunes à des risques pour leur santé mentale, tout en offrant des contrôles parentaux inefficaces et des fonctionnalités de sécurité insuffisantes. Le fondateur de Meta, Mark Zuckerberg, le directeur d’Instagram, Adam Mosseri, et le PDG de Snap, Evan Spiegel, ont été convoqués pour témoigner en personne, malgré les arguments des entreprises selon lesquels cela serait trop contraignant. Le juge a souligné que le témoignage direct des PDG était essentiel pour évaluer si les entreprises avaient fait preuve de négligence en ne prenant pas de mesures pour atténuer les dommages.

Les plateformes de jeux en ligne, en particulier celles qui sont populaires auprès des enfants, font également l’objet d’un réexamen. La plateforme Roblox (qui permet aux utilisateurs de créer des mondes et des chats) a été critiquée pour ne pas avoir protégé ses plus jeunes utilisateurs. Aux États-Unis, par exemple, le procureur général de Floride a émis des citations à comparaître accusant Roblox d’être un « terrain fertile pour les prédateurs » d’enfants. Aux Pays-Bas, la plateforme fait l’objet d’une enquête par les autorités de protection de l’enfance sur la manière dont elle protège ses jeunes utilisateurs. En Irak, le gouvernement a interdit Roblox à l’échelle nationale, invoquant « des contenus sexuels, des blasphèmes et des risques de chantage en ligne ». Aux Pays-Bas, la plateforme fait l’objet d’une enquête des autorités chargées de la protection de l’enfance sur la manière dont elle protège les jeunes utilisateurs. En Irak, le gouvernement a interdit Roblox à l’échelle nationale, invoquant « des contenus à caractère sexuel, des propos blasphématoires et des risques de chantage en ligne à l’encontre de mineurs ».

Les réseaux sociaux et les jeux vidéo ne sont pas les seuls concernés. Les chatbots basés sur l’intelligence artificielle sont désormais surveillés de près quant à leur interaction avec les mineurs. En Australie, le commissaire à la sécurité en ligne a envoyé des notifications à quatre entreprises de chatbots basés sur l’intelligence artificielle, leur demandant de détailler leurs mesures de protection des enfants.

Les réseaux sociaux et les jeux vidéo ne sont pas les seuls concernés. Les chatbots IA font désormais l’objet d’une surveillance étroite quant à leur interaction avec les mineurs. En Australie, le commissaire à la sécurité électronique a envoyé des notifications à quatre entreprises de chatbots IA leur demandant de détailler leurs mesures de protection des enfants, en particulier la manière dont elles les protègent contre l’exposition à des contenus sexuels ou incitant à l’automutilation.

Parallèlement, Meta a annoncé de nouvelles mesures de contrôle parental : les parents pourront désactiver les discussions privées de leurs adolescents avec des personnages IA, bloquer certains bots et consulter les sujets abordés par leurs adolescents, mais pas l’intégralité des transcriptions. Ces règles devraient être mises en place au début de l’année prochaine aux États-Unis, au Royaume-Uni, au Canada et en Australie. Ces changements font suite aux critiques selon lesquelles les chatbots IA de Meta permettaient des conversations suggestives ou inappropriées pour l’âge des mineurs.

Une vue d’ensemble. Pour les jeunes, le monde numérique est un espace essentiel pour leur développement social, émotionnel et cognitif, façonné par le contenu et les interactions qu’ils y trouvent. Cette nouvelle réalité exige des parents qu’ils dépassent la simple question du temps passé devant les écrans pour comprendre la nature des expériences en ligne de leurs enfants. Elle envoie également un message clair aux entreprises technologiques en matière de responsabilité et met les régulateurs au défi de créer des règles à la fois applicables et adaptables à l’innovation rapide.

Ensemble, ces développements suggèrent que l’ère de l’autorégulation des médias sociaux touche peut-être à sa fin. Le débat mondial ne porte pas sur la question de savoir si l’espace numérique a besoin de gardiens, mais sur la conception finale de ses dispositifs de sécurité. Alors que les gouvernements envisagent des interdictions, des poursuites judiciaires et des mandats de surveillance, ils s’efforcent de trouver un équilibre entre deux impératifs : protéger les enfants contre les dangers tout en préservant les droits fondamentaux à la vie privée et à la liberté d’expression.

La lutte mondiale pour diriger l’IA

Le monde débat sans cesse de l’avenir et de la gouvernance de l’IA. Voici quelques-unes des dernières initiatives dans ce domaine.

Mesures réglementaires 

L’Italie est entrée dans l’histoire en devenant le premier État membre de l’UE à adopter sa propre loi nationale sur l’IA, allant au-delà du cadre de la loi européenne sur l’intelligence artificielle. Cette loi entrera en vigueur le 10 octobre et introduira des règles spécifiques aux secteurs de la santé, de la justice, du travail et de l’administration publique. Parmi ses dispositions figurent des obligations de transparence, des sanctions pénales en cas d’utilisation abusive de l’IA (telles que les deepfakes préjudiciables), de nouveaux organismes de contrôle et des mesures de protection des mineurs (par exemple, le consentement parental pour les moins de 14 ans).

Cependant, selon certaines informations, la Commission européenne envisagerait de suspendre ou d’assouplir certains éléments de la loi européenne sur l’IA, la législation phare de l’Union européenne visant à réglementer les systèmes d’IA à haut risque. Les ajustements potentiels pourraient inclure un report des délais de mise en conformité, un assouplissement des obligations relatives aux applications à haut risque et une approche progressive de la mise en application, probablement en réponse au lobbying des autorités américaines et des entreprises technologiques.

Ajoutant une couche de complexité réglementaire de plus, la Commission européenne évalue actuellement si ChatGPT doit être classé comme un très grand moteur de recherche en ligne (VLOSE) au titre de la loi sur les services numériques (DSA). Cette désignation entraînerait des obligations, notamment des évaluations des risques systémiques, des rapports de transparence, des audits indépendants et l’accès des chercheurs aux données, ce qui pourrait créer des exigences réglementaires qui se chevauchent avec celles de la loi sur l’IA.

Pendant ce temps, outre-Atlantique, la Californie a adopté une loi ambitieuse en matière de transparence et de protection des lanceurs d’alerte, destinée aux développeurs d’IA de pointe, c’est-à-dire ceux qui déploient des modèles volumineux et gourmands en ressources informatiques. En vertu de la loi SB 53 (Transparency in Frontier Artificial Intelligence Act), les entreprises doivent publier leurs protocoles de sécurité, surveiller les risques et divulguer les « incidents de sécurité critiques ». Il est essentiel de noter que les employés qui estiment qu’il existe un risque catastrophique (même sans preuve irréfutable) sont protégés contre les représailles. La Californie a également adopté la première loi dédiée à la « sécurité des chatbots IA », ajoutant des exigences en matière de divulgation et de sécurité pour les systèmes conversationnels.

En Asie, lors du sommet 2025 de la Coopération économique Asie-Pacifique (APEC), le président chinois Xi Jinping a réitéré sa proposition de créer un organisme mondial chargé de coordonner le développement et la gouvernance de l’IA à l’échelle internationale. Cet organisme, provisoirement baptisé « Organisation mondiale de coopération en matière d’intelligence artificielle », n’est pas mentionné dans l’Initiative de l’APEC sur l’intelligence artificielle (IA) (2026-2030).

Une impulsion en faveur de la souveraineté en matière d’IA

À Bruxelles, la Commission européenne élabore simultanément une stratégie pour la souveraineté numérique, en essayant de mettre fin à la dépendance de l’UE vis-à-vis des infrastructures étrangères en matière d’IA. Sa nouvelle stratégie « Apply AI » vise à consacrer 1 milliard d’euros au déploiement de plateformes européennes d’IA, à leur intégration dans les services publics (santé, défense, industrie) et au soutien de l’innovation technologique locale. La Commission a également lancé une initiative intitulée « AI in Science » afin de consolider la position de l’Europe à la pointe de la recherche en IA, grâce à un réseau appelé RAISE.

Le Japon accordera la priorité aux technologies d’intelligence artificielle développées localement dans sa nouvelle stratégie nationale, visant à renforcer la sécurité nationale et à réduire la dépendance vis-à-vis des systèmes étrangers. Le gouvernement affirme que le développement d’une expertise nationale est essentiel pour éviter une dépendance excessive vis-à-vis des modèles d’intelligence artificielle américains et chinois.

IA, contenu et avenir de la recherche

Alors que l’IA continue de transformer la manière dont les individus accèdent à l’information et interagissent avec elle, les gouvernements et les entreprises technologiques sont confrontés aux opportunités et aux dangers des outils de recherche et de contenu basés sur l’IA.

En Europe, l’organisme néerlandais de surveillance électorale a récemment mis en garde les électeurs contre le recours aux chatbots IA pour obtenir des informations électorales, soulignant le risque que ces systèmes induisent involontairement les citoyens en erreur avec des contenus inexacts ou biaisés.

Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

De même, l’Inde a proposé de nouvelles règles informatiques strictes exigeant que les deepfakes et les contenus générés par l’IA soient clairement identifiés, dans le but de limiter les abus et d’accroître la transparence dans l’écosystème numérique.

Parallèlement, les moteurs de recherche, qui constituent traditionnellement les portes d’accès à la connaissance en ligne, connaissent une vague d’innovation. OpenAI a dévoilé son nouveau navigateur, ChatGPT Atlas, qui réinvente la manière dont les utilisateurs interagissent avec le web. Atlas introduit un « mode agent », une fonctionnalité premium qui permet d’accéder à l’ordinateur portable d’un utilisateur, de naviguer sur des sites web et d’explorer Internet à sa place, en exploitant l’historique de navigation et les requêtes de l’utilisateur pour fournir des résultats guidés et explicables. Altman l’a décrit simplement : « Il utilise Internet à votre place. » Deux jours plus tard, Microsoft a dévoilé une offre équivalente : son mode Copilot dans Edge, au sein du navigateur Microsoft Edge. La conception, les fonctions et le timing étaient remarquablement similaires, soulignant la convergence rapide des principales plateformes vers ce paradigme de navigateur IA de nouvelle génération.

En résumé. En fin de compte, chaque nouvelle loi et chaque nouvelle proposition internationale sont confrontées au même défi, presque paradoxal : comment établir un ensemble de règles pour une technologie qui redéfinit continuellement ses propres capacités au fil des mois. La question fondamentale est la suivante : un cadre de gouvernance peut-il être suffisamment agile ?

Une accalmie dans le domaine des terres rares : la lutte pour les ressources stratégiques se poursuit

Début octobre, la Chine a renforcé son emprise sur la chaîne d’approvisionnement technologique mondiale en élargissant considérablement ses restrictions sur les exportations de terres rares. Les nouvelles règles ne concernent plus uniquement les minerais bruts, mais englobent désormais les matériaux transformés, les équipements de fabrication et même le savoir-faire utilisé pour raffiner et recycler les terres rares.

Les exportateurs doivent obtenir l’autorisation du gouvernement non seulement pour expédier ces éléments, mais aussi pour tout produit qui en contient à un niveau supérieur à 0,1 %. Les licences seront refusées si les utilisateurs finaux sont impliqués dans la production d’armes ou des applications militaires. Les semi-conducteurs ne seront pas épargnés non plus : les fabricants de puces seront désormais soumis à un examen minutieux au cas par cas, Pékin exigeant une visibilité totale sur les spécifications techniques et les utilisateurs finaux avant d’accorder son autorisation.

La Chine restreint également l’expertise humaine. Les ingénieurs et les entreprises chinois ne sont pas autorisés à participer à des projets liés aux terres rares à l’étranger, sauf autorisation expresse du gouvernement.

Le contexte géopolitique dans lequel cette évolution s’inscrit est essentiel : alors que les tensions entre les États-Unis et la Chine s’intensifient, Pékin fait valoir son influence, à savoir sa domination sur les minéraux qui alimentent les technologies de pointe.

À titre d’information, la Chine contrôle actuellement jusqu’à 70 % de l’extraction mondiale de terres rares, environ 85 % du raffinage et environ 90 % de la production d’alliages et d’aimants. Cette position lui sert depuis longtemps de levier stratégique, qui, selon certains analystes chinois, reste intacte malgré l’accord actuel.

 Person, Head, Face

Fin octobre, Trump et Xi ont annoncé une avancée décisive concernant les minéraux de terres rares. « La question des terres rares est réglée, et cela pour le monde entier », a déclaré Trump, signalant ainsi la suppression de l’un des derniers obstacles majeurs dans les chaînes d’approvisionnement mondiales. La réunion a également ouvert la voie à des réductions tarifaires et à la reprise du commerce agricole.

En vertu de cet accord, la Chine suspendra la réglementation restrictive annoncée le 9 octobre et délivrera des licences d’exportation générales pour les terres rares, le gallium, le germanium, l’antimoine et le graphite, garantissant ainsi un accès continu aux acheteurs américains et à leurs fournisseurs. Cette mesure supprime de facto les contrôles renforcés par la Chine depuis 2023 et fait suite à la déclaration de Trump selon laquelle il n’y a désormais « plus aucun obstacle » à la circulation des terres rares.

Cette pause offre un répit aux industries mondiales qui dépendent de ces minéraux, sur lesquels reposent des secteurs aussi variés que les véhicules électriques, les smartphones, les systèmes de défense avancés et les technologies liées aux énergies renouvelables. Elle ne contribue toutefois guère à apaiser les préoccupations structurelles qui motivent les efforts de diversification.

En Europe, la Commission européenne prépare un plan, qui pourrait être prêt dans quelques semaines, visant à réduire la dépendance vis-à-vis des minéraux critiques chinois. La quasi-totalité de l’approvisionnement européen en 17 minéraux rares provient actuellement de Chine, une dépendance que Bruxelles considère comme insoutenable malgré les concessions temporaires de Pékin. La stratégie émergente de l’UE devrait refléter le plan de diversification énergétique REPowerEU, en mettant l’accent sur le recyclage, le stockage et le développement de voies d’approvisionnement alternatives.

L’UE exprime toutefois sa frustration face aux signaux contradictoires envoyés par Washington et Pékin sur la question des terres rares. Bruxelles reste incertaine quant à la mesure dans laquelle les concessions récemment annoncées par la Chine s’appliqueront aux entreprises européennes, et les observateurs avertissent que le bloc manque de moyens de pression à court terme pour influencer la politique de Pékin. Cette incertitude souligne le délicat exercice d’équilibre auquel se livre l’Europe : pousser à la diversification des fournisseurs tout en restant dépendante d’eux.

Une dynamique similaire se développe parmi les gouvernements du G7. Réunis à Toronto, les ministres de l’Énergie du G7 ont convenu de créer une alliance pour la production de minéraux essentiels, soutenue par plus d’une vingtaine de nouveaux investissements et partenariats. Le groupe, composé du Canada, de la France, de l’Allemagne, de l’Italie, du Japon, du Royaume-Uni et des États-Unis, a également convenu d’investir jusqu’à 20,2 millions de dollars canadiens dans la collaboration internationale en matière de recherche et développement sur ces matières premières. Le secrétaire américain à l’Énergie, Chris Wright, a présenté l’accord du G7 comme un engagement à « développer notre propre capacité à extraire, traiter, raffiner et créer des produits ». Ces mesures « envoient un message très clair au monde entier », a déclaré le ministre canadien de l’Énergie, Tim Hodgson, ajoutant : « Nous sommes déterminés à réduire la concentration du marché et les dépendances ».

Au-delà du triangle États-Unis-Chine-Europe, Moscou s’est également lancé dans la course. Le président russe Vladimir Poutine a ordonné au gouvernement d’élaborer une feuille de route pour augmenter la production russe de minéraux rares et renforcer les liaisons de transport avec la Chine et la Corée du Nord d’ici le 1er décembre. La Russie revendique des réserves de plusieurs centaines de millions de tonnes de minéraux critiques, mais ne fournit actuellement qu’une petite partie de la demande mondiale, un écart qu’elle cherche désormais à combler.

En Asie du Sud-Est, la Malaisie trace sa propre voie. Le gouvernement a confirmé qu’il maintiendrait son interdiction d’exporter des terres rares brutes malgré l’accord entre les États-Unis et la Chine, signalant ainsi qu’il continuerait à mettre l’accent sur la transformation à valeur ajoutée au niveau national. Taipei a minimisé l’impact des restrictions imposées par Pékin sur les terres rares, affirmant que Taïwan pouvait s’approvisionner ailleurs pour la plupart de ses besoins.

Quelle est la prochaine étape ? La trêve sur les contrôles à l’exportation pourrait apaiser les marchés à court terme. Cependant, avec le G7 qui forge de nouvelles alliances, l’Europe qui accélère sa diversification et Pékin qui est déterminée à maintenir son contrôle sur les terres rares comme levier stratégique, la concurrence mondiale pour les minéraux critiques ne fait que s’intensifier. La lutte sous-jacente pour la résilience de la chaîne d’approvisionnement est loin d’être terminée.

Lorsque le cloud rencontre des difficultés : ce que les pannes d’AWS et de Microsoft révèlent sur la résilience du cloud

En l’espace de seulement dix jours, deux des plus grands fournisseurs de services cloud au monde, Amazon Web Services (AWS) et Microsoft Azure, ont subi des pannes majeures qui ont eu des répercussions dans le monde entier, soulignant à quel point l’infrastructure numérique de la vie moderne est devenue fragile.

Pendant quelques heures lundi, une grande partie de l’Internet est devenue inaccessible. Ce qui a été un problème dans un centre de données Amazon Web Services (AWS) — la région US-East-1 en Virginie — s’est rapidement transformé en une panne mondiale. Une erreur de configuration apparemment mineure du système de noms de domaine (DNS) a déclenché une réaction en chaîne, mettant hors service les systèmes qui gèrent le trafic entre les serveurs.

La cause principale a été identifiée comme une défaillance de la résolution DNS pour les points de terminaison internes, affectant en particulier les points de terminaison API DynamoDB. (Remarque : DynamoDB est une base de données cloud qui stocke des informations pour les applications et les sites web, tandis que les points de terminaison API sont les points d’accès où ces services lisent ou écrivent ces données. Pendant la panne d’AWS, ces points de terminaison ont cessé de fonctionner correctement, empêchant les applications de récupérer ou d’enregistrer des informations.)

Étant donné que de nombreux sites Web, applications et services (des plateformes de réseaux sociaux et jeux aux portails bancaires et gouvernementaux) dépendent d’AWS, la panne a affecté les foyers, les bureaux et les gouvernements du monde entier.

Les ingénieurs d’AWS se sont empressés d’isoler la panne et ont finalement rétabli le fonctionnement normal en fin d’après-midi. Cependant, le mal était déjà fait. Cette panne a révélé une réalité préoccupante du monde numérique actuel : lorsqu’un fournisseur rencontre des difficultés, une grande partie d’Internet est également affectée. On estime qu’un tiers des services en ligne mondiaux fonctionnent sur l’infrastructure AWS.

Le 29 octobre 2025, une panne généralisée affectant les services cloud de Microsoft a perturbé les principaux sites web et services dans le monde entier, notamment l’aéroport d’Heathrow, NatWest, Asda, M&S, Starbucks et Minecraft. Le problème, également attribué à la configuration DNS d’Azure, a duré plusieurs heures avant que les services ne reviennent progressivement à la normale.

Selon les données de suivi de Downdetector, des milliers de signalements provenant de plusieurs pays ont été enregistrés lorsque les sites web et les services en ligne ont cessé de fonctionner pendant plusieurs heures. Microsoft a déclaré que la cause principale résidait dans sa plateforme de cloud computing Azure, attribuant la dégradation à des problèmes DNS et à un changement de configuration involontaire.

Considérées conjointement, ces deux pannes révèlent une vulnérabilité structurelle plus profonde. Elles ont mis en évidence plusieurs risques systémiques dans l’infrastructure numérique actuelle.

Premièrement, cette panne a souligné la dépendance mondiale vis-à-vis d’un petit nombre de fournisseurs de cloud de très grande envergure. Cette dépendance constitue un point de défaillance unique : une perturbation chez un seul fournisseur peut perturber des milliers de services qui en dépendent.

Deuxièmement, la cause profonde, à savoir une erreur de résolution DNS, a révélé comment un composant d’un système complexe peut être le catalyseur d’une perturbation massive.

Troisièmement, bien que les fournisseurs de cloud proposent plusieurs « zones de disponibilité » à des fins de redondance, cet événement a démontré qu’une défaillance dans une région critique peut toujours avoir des conséquences à l’échelle mondiale.

La leçon à en tirer est claire : alors que le cloud computing occupe une place de plus en plus centrale dans l’économie numérique, la résilience et la diversification ne peuvent être des considérations secondaires. Pourtant, il existe peu de véritables alternatives à l’échelle d’AWS et d’Azure, hormis Google Cloud, les petits concurrents tels que IBM et Alibaba, et les nouveaux acteurs européens, loin derrière.

Promesses et risques : le monde ratifie le nouveau traité des Nations unies sur la cybercriminalité à Hanoï

Le premier traité mondial visant à prévenir et à lutter contre la cybercriminalité, la Convention des Nations Unies contre la cybercriminalité, a été ouvert à la signature lors d’une cérémonie de haut niveau co-organisée par le gouvernement vietnamien et le Secrétariat des Nations Unies les 25 et 26 octobre.

À l’issue des deux jours de signature, 72 États avaient signé la convention à Hanoï, ce qui constitue un signe fort de soutien initial qui témoigne de la nécessité perçue d’une meilleure coopération transfrontalière sur des questions allant des rançongiciels et de la fraude en ligne à l’exploitation sexuelle et à la traite des enfants. La convention établit un cadre pour harmoniser le droit pénal, normaliser les pouvoirs d’enquête et accélérer l’entraide judiciaire et l’échange de preuves électroniques.

Cependant, la cérémonie n’a pas été sans controverse. Des groupes de défense des droits humains et des coalitions de la société civile ont émis des avertissements publics avant la signature, soulignant que des définitions vagues de la cybercriminalité et des pouvoirs d’enquête étendus pourraient permettre aux gouvernements de justifier la surveillance ou de réprimer des activités en ligne légitimes, telles que le journalisme, l’activisme ou la recherche en matière de cybersécurité. Sans limites juridiques précises et sans contrôle indépendant, des mesures telles que l’interception de données, le décryptage forcé ou la surveillance en temps réel pourraient porter atteinte à la vie privée et à la liberté d’expression.

Les grandes entreprises technologiques et plusieurs organisations de défense des droits ont demandé des garanties plus solides et plus claires, ainsi qu’une rédaction précise afin d’éviter tout abus. L’ONUDC, l’agence des Nations unies qui a mené les négociations, a répondu en soulignant les garanties intégrées et les dispositions visant à soutenir le renforcement des capacités des États disposant de moins de ressources.

Concrètement, la signature n’est que la première étape de la procédure : le traité n’entrera en vigueur que 90 jours après sa ratification par 40 États conformément à leurs procédures nationales, une exigence qui déterminera la rapidité avec laquelle la convention deviendra opérationnelle.

Les observateurs qui suivent les développements se concentrent sur trois questions immédiates : quels signataires procéderont rapidement à la ratification, comment les différents pays transposeront les obligations de la convention dans leur législation nationale (et s’ils y intégreront des garanties solides en matière de droits humains), et quels mécanismes régiront la coopération technique et le partage transfrontalier des preuves dans la pratique.

La signature à Hanoï marque une étape importante : elle crée un ancrage juridique pour une coopération internationale plus approfondie en matière de cybercriminalité, à condition que sa mise en œuvre respecte les droits fondamentaux et les principes de l’État de droit.

Le mois dernier à Genève

Le mois d’octobre a été riche en événements dans le domaine de la gouvernance numérique à Genève. Voici ce que nous avons tenté de retenir.

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Semaine de la paix à Genève 2025

L’édition 2025 de la Semaine de la paix à Genève réunira des artisans de la paix, des décideurs politiques, des universitaires et des représentants de la société civile afin de discuter et de faire progresser les initiatives de consolidation de la paix. Le programme couvre un large éventail de sujets, notamment la prévention des conflits, l’aide humanitaire, la consolidation de la paix environnementale et la cohésion sociale. Les sessions de cette année exploreront les nouvelles technologies, la cybersécurité et l’IA, y compris la polarisation alimentée par l’IA, l’IA pour la prise de décision dans des contextes fragiles, l’utilisation responsable de l’IA dans la consolidation de la paix et les approches numériques pour soutenir le retour volontaire et digne des communautés déplacées.

Sommet GESDA 2025

Le sommet GESDA 2025 rassemble des scientifiques, des diplomates, des décideurs politiques et des leaders d’opinion afin d’explorer les liens entre la science, la technologie et la diplomatie. Organisé au CERN à Genève avec une participation hybride, le programme de trois jours comprend des sessions sur les percées scientifiques émergentes, les technologies à double usage et l’accès équitable à l’innovation. Les participants prendront part à des discussions interactives, des ateliers et des démonstrations afin d’examiner comment la science de pointe peut éclairer la prise de décision au niveau mondial, soutenir la diplomatie et relever des défis tels que le changement climatique et le développement durable.

151e Assemblée de l’UIP

La 151e Assemblée de l’UIP s’est tenue à Genève, en Suisse, du 19 au 23 octobre 2025. Sous le thème « Défendre les normes humanitaires et soutenir l’action humanitaire en temps de crise », l’Assemblée a tenu son débat général et examiné les progrès réalisés dans la mise en œuvre des résolutions précédentes.

Les discussions ont également porté sur la protection des victimes d’adoptions internationales illégales, examiné les modifications apportées aux statuts et au règlement de l’UIP et fixé les priorités pour les travaux à venir des commissions. La réunion a fourni une plateforme de dialogue sur les questions humanitaires, démocratiques et de gouvernance entre les parlements nationaux.

16e session de la Conférence des Nations unies sur le commerce et le développement (CNUCED 16)

La 16e Conférence des Nations unies sur le commerce et le développement (CNUCED 16) s’est tenue du 20 au 23 octobre 2025 à Genève, réunissant des dirigeants mondiaux, des ministres et des experts de 170 pays autour du thème « Façonner l’avenir : stimuler la transformation économique pour un développement équitable, inclusif et durable ».

Au cours de quatre jours et de 40 sessions de haut niveau, les délégués ont discuté du commerce, de l’investissement, de la technologie et de la durabilité, définissant ainsi l’orientation de la CNUCED pour les quatre prochaines années.

La transformation numérique a été un thème récurrent tout au long de la conférence. Les délégués ont souligné que si les progrès technologiques ouvrent de nouvelles perspectives, ils risquent également d’aggraver les inégalités.

L’événement s’est conclu par l’adoption du Consensus de Genève pour un ordre économique juste et durable. Cet accord réaffirme l’engagement en faveur d’un développement mondial plus équitable et plus inclusif, en mettant fortement l’accent sur la réduction de la fracture numérique.

Le Consensus de Genève invite la CNUCED à aider les pays en développement à renforcer leurs infrastructures numériques, à développer leurs compétences et à créer des cadres politiques pour tirer parti de l’économie numérique.

Des initiatives concrètes ont été annoncées : la Suisse s’est engagée à verser 4 millions de francs suisses pour soutenir les travaux de la CNUCED dans le domaine du commerce électronique et de l’économie numérique, tandis qu’un nouveau partenariat avec l’Organisation de coopération numérique permettra de faire progresser la mesure des données numériques, la participation des femmes et le soutien aux PME.

Le CICR et l’Académie de Genève publient un rapport conjoint sur la participation des civils aux activités cybernétiques pendant les conflits

Le Comité international de la Croix-Rouge (CICR) et l’Académie de Genève pour le droit international humanitaire et les droits de l’Homme ont publié conjointement un rapport examinant comment le droit international humanitaire (DIH) s’applique à la participation des civils aux activités cybernétiques et autres activités numériques pendant les conflits armés. Le rapport s’appuie sur des recherches approfondies menées à l’échelle mondiale et sur des consultations d’experts dans le cadre de leur initiative.

La publication aborde des questions juridiques clés, notamment la protection des civils et des entreprises technologiques pendant les conflits armés, et les circonstances dans lesquelles ces protections peuvent être compromises. Elle analyse en outre les obligations du DIH à l’égard des civils, tels que les personnes se livrant à des activités de piratage informatique, lorsqu’ils sont directement impliqués dans les hostilités, ainsi que les responsabilités des États en matière de protection des civils et des infrastructures civiles et de garantie du respect du DIH par les populations sous leur contrôle.

Le rapport du CICR et de l’Académie de Genève propose également des recommandations pratiques à l’intention des gouvernements, des entreprises technologiques et des organisations humanitaires visant à limiter la participation des civils aux hostilités, à minimiser les dommages et à soutenir le respect du droit international humanitaire.


Weekly #238 Strengthening democracy in the digital age: The EU’s New ‘Democracy Shield’

 Logo, Text

10-14 November 2025


HIGHLIGHT OF THE WEEK

Strengthening democracy in the digital age: The EU’s new ‘Democracy Shield’

The EU Commission has unveiled the European Democracy Shield, a new initiative aimed at strengthening and protecting democracies across the European Union. The Shield lays out a wide range of measures designed to empower citizens, safeguard institutions, and promote resilience against emerging threats to democratic processes. 

The announcement is accompanied by a detailed 30-page document, but a one-page factsheet is also available for a quick overview. We’ll endeavour to keep our breakdown somewhere in the middle. 

As ever, the focus of our newsletter is on the digital dimension, so we will highlight the aspects of the initiative that intersect with technology, online information, and the digital space.

 Armor, Shield

The new measures that make up the Democracy Shield fall into three priority areas:

  • reinforcing situational awareness and support response capacity to safeguard the integrity of the information space,
  • strengthening democratic institutions, free and fair elections and free and independent media,
  • boosting societal resilience and citizens’ engagement.

Measures in the first priority area include:

  • The Commission and the European Board for Digital Services will prepare a Digital Services Act (DSA) incidents and crisis protocol. The protocol will help authorities coordinate and respond quickly to major disruptions or information operations, including those that span multiple countries. The protocol will work alongside existing EU crisis tools, such as the Cybersecurity Blueprint, to keep actions aligned and consistent. The European Centre for Democratic Resilience and its stakeholder platform may help support cooperation between these mechanisms.
  • The Commission will continue its engagement with signatories of the Code of Conduct on Disinformation to strengthen measures to tackle manipulative techniques online. This may include working with platforms to make recommender systems more transparent and to demonetise disinformation (including removing financial incentives for disinformation, such as advertising revenue) and to develop new indicators to track the platforms’ progress. The Commission will also explore additional steps with signatories, such as improving the detection and labelling of AI-generated or manipulated content and developing voluntary user-verification tools. These efforts would complement the AI Act and other EU rules. The upcoming EU Digital Identity Wallets, available by the end of 2026, could help support these measures by enabling secure online identification.
  • An independent European Network of Fact-Checkers will be set up with the Commission’s support. The network will strengthen independent fact-checking across all EU languages and neighbouring countries, especially during crises. The network will also set up an independent repository that gathers fact-checks from trusted organisations, making it easier for journalists, platforms, researchers, and civil society to access verified information and coordinate across borders. It will also support cross-border cooperation and offer legal and psychological protection for fact-checkers, helping boost Europe’s overall resilience to disinformation. 
  • The mandate of the European Digital Media Observatory will be expanded. It will develop stronger monitoring tools, especially for elections and crises, covering all EU member states and candidate countries. 
  • The Commission will support setting up a common research support framework to strengthen monitoring of information manipulation and disinformation campaigns. This will include giving academics and researchers better access to data and advanced technology, including data available through the DSA and the Political Advertising Regulation. This work will also help develop tools to detect AI-generated or manipulated content—like deepfake audio, images, and videos—and track new forms of coordinated online manipulation, including bots, cross-platform tactics, and algorithm-driven amplification.

Measures in the second priority area include:

  • The Commission, supported by ECNE and the European AI Office, will work with member states and stakeholders to create guidance on using AI responsibly in elections. It will encourage political actors to adopt voluntary commitments on the responsible use of new technologies (notably AI) in political activities and share best practices. 
  • The Commission will update the DSA Elections Toolkit, with support from national Digital Services Coordinators and ECNE. The aim is to incorporate lessons from recent elections and help very large online platforms and very large search engines (VLOPs and VLOSEs) manage risks to civic debate and elections, as is their DSA obligation.
  • The Commission will support the setting up of a voluntary EU network of influencers to raise awareness about relevant EU rules on engaging in political campaigning and promote the exchange of best practices. The Commission will also encourage ethical standards and voluntary commitments, including regarding information integrity, and support work by influencers to promote digital literacy.  
  • The EU will reinforce cooperation with international election observers to strengthen capacities to monitor disinformation on social media during election observation outside the EU.
  • The Commission will review the Audiovisual Media Services Directive (AVMSD). It will assess ways to support media sustainability under the Audiovisual Media Services Directive, including boosting the prominence of media of general interest and modernising advertising rules. The role of influencers will be considered in the AVMSD review and the forthcoming Digital Fairness Act to complement existing rules.
  • The Commission will address challenges to the media ecosystem in the context of the review of the Directive on copyright in the Digital Single Market. The aim is to address challenges from generative AI, including online piracy and the unauthorised use of copyrighted material to train AI models, which threaten media revenues, quality, and diversity.
  • The Commission will provide guidance to maintain competition and foster media plurality and diversity in the context of the revision of the Merger Guidelines. Under the Digital Markets Act, the Commission will prioritise promoting independent and diverse media, including through greater transparency in online advertising. 
  • The Commission will support the digital transformation of media. Efforts will focus on pan-European platforms for real-time news in multiple languages, innovative content formats, and exploring the future pathways for the EU’s tech environment, with an initial focus on the future of social networking platforms to strengthen EU digital sovereignty.
  • The Commission will support quality independent media and journalism beyond the EU border. It will scale up rapid-response measures with partners to provide tools that counter digital censorship, surveillance, and shutdowns, ensuring that citizens, civil society, and journalists under authoritarian regimes can access reliable information.

Measures in the third priority area include:

  • The Commission will develop the 2026 Basic Skills Support Scheme for Schools, which will include citizenship and digital skills. Part of this package will be a 2030 Roadmap on the future of digital education and skills, building on the review of the Digital Education Action Plan, focusing on digital skills, AI literacy and critical thinking and boosting democratic resilience in the digital world. 
  • The Commission will update the Guidelines for teachers and educators on disinformation and digital literacy. These guidelines will address issues like generative AI, misinformation, and social media. It will also develop an EU citizenship competence framework and guidelines to strengthen citizenship education, support media literacy, and inform curricula and training programmes.
  • The Commission will set up a European civic tech hub to support the civic tech sector. It will stimulate innovation in online platforms that enable participation in democracy, leveraging AI for participation. It will also organise a civic tech hackathon to showcase innovative projects.

The bottom line. This is the EU’s most direct attempt yet to hard-code democratic values into its digital infrastructure. By targeting everything from recommender algorithms to AI deepfakes and influencer networks, the Shield aims to change the very environment where opinion is formed. The goal is clear: to ensure that in the battle for attention, integrity has a fighting chance.

IN OTHER NEWS LAST WEEK

Recalibrating the digital agenda: Highlights from the WSIS+20 Rev 1 document

A revised version of the WSIS+20 outcome document – Revision 1 – was published on 7 November by the co-facilitators of the intergovernmental process. The document will serve as the basis for continued negotiations among UN member states ahead of the high-level meeting of the General Assembly on 16–17 December 2025.

While maintaining the overall structure of the Zero Draft released in August, Revision 1 introduces several changes and new elements. 

The new text includes revised – and in several places stronger – language emphasising the need to close rather than bridge digital divides, presented as multidimensional challenges that must be addressed to achieve the WSIS vision. At the same time, some issues were deprioritised: for instance, references to e-waste and the call for global reporting standards on environmental impacts were removed from the environment section.

Several new elements also appear. In the enabling environments section, states are urged to take steps towards avoiding or refraining from unilateral measures inconsistent with international law. There is also a new recognition of the importance of inclusive participation in standard-setting. The financial mechanisms section introduces an invitation for the Secretary-General to consider establishing a task force on future financial mechanisms for digital development, with outcomes to be reported to the UNGA at its 81st session. The internet governance section now includes a reference to the NetMundial+10 Guidelines.

Language on the Internet Governance Forum (IGF) remains largely consistent with the Zero Draft, including with regard to making the forum a permanent one and requesting the Secretary-General to make proposals concerning the IGF’s future funding. New text invites the IGF to further strengthen the engagement of governments and other stakeholders from developing countries in discussions on internet governance and emerging technologies. 

Several areas saw shifts in tone. Language in the human rights section has been softened in parts (e.g. references to surveillance safeguards and threats to journalists now being removed). And there is a change in how the interplay between WSIS and the GDC is framed – the emphasis is now on alignment (rather than integration) – a shift reflected in the revised language on the joint WSIS-GDC implementation roadmap, and updates to the described roles of ECOSOC and the CSTD.


EU’s revised Chat Control: A step back from mass scanning, but privacy worries persist

After more than three years of difficult negotiations, the EU’s Regulation to Prevent and Combat Child Sexual Abuse (CSAR) — also known as the ‘Chat Control’ proposal — has returned in a significantly revised form. In a dramatic shift, the latest version proposed by Denmark abandons mandatory scanning obligations, instead making CSAM detection voluntary for messaging providers.

Under the new text, platforms are no longer legally required to scan every link, image, or video shared by users. Rather, they may choose to opt into CSAM scanning. This change is being framed as a compromise — a way to preserve encryption and user privacy while still giving space for abuse-detection tools.

But the reform comes with caveats. Article 4 introduces what’s called a ‘mitigation measure,’ targeted at services deemed high risk. For those platforms, the law could demand that they take ‘all appropriate risk mitigation measures.’ The language is vague, and critics argue it’s a back door to re-imposing scanning obligations down the line. Indeed, the Danish Presidency’s proposal includes a review clause: the European Commission could, in the future, reassess whether detection duties should be mandatory — potentially proposing new legislation to reintroduce them. 

On the targeting front, the European Parliament continues to push for court-ordered scanning. Their vision would restrict detection orders to specific people or groups suspected of involvement in child sexual abuse — a more precise and rights-sensitive approach. 

The Danish compromise, by contrast, lacks this kind of suspect-based targeting. According to the Council’s draft, detection orders may be issued only to “identifiable parts or components” of a service — like certain channels or user groups — but it doesn’t explicitly limit orders only to those under suspicion. 

A particularly controversial provision strikes at anonymity. In the new draft, users may no longer be able to create fully anonymous chat or email accounts. To register, they might have to provide ID or even their face — potentially making users more identifiable. Critics warn that it could seriously chill sensitive use cases: think LGBTQ+ conversations, whistle-blowers talking to journalists, or political activists operating under pseudonyms. 

There are also strong obligations on service providers to build age-verification systems to protect minors. But how exactly these systems would work — without violating privacy, creating data risk, or excluding users — remains unclear. Several digital-rights groups have raised alarms that mandatory age checks could undermine anonymity or force providers to collect more data than necessary.

The crux of the matter. While the new proposal marks a step back from mandatory mass scanning, the voluntary framework could evolve over time into something more coercive.

What’s next? Tough negotiations, in a short period of time – Denmark will likely be keen to finalise the file before the Cypriot presidency begins in January.

New trilateral alliance to protect kids online

A new cooperation is underway between three major regulators: eSafety Commissioner (Australia), Ofcom (UK) and the European Commission’s DG CNECT, aimed at protecting children’s rights, safety and privacy online. 

The regulators will enforce online safety laws, require platforms to assess and mitigate risks to children, promote privacy-preserving technologies such as age verification, and partner with civil society and academia to keep regulatory approaches grounded in real-world dynamics. 

A new trilateral technical group will be established to explore how age-assurance systems can work reliably and interoperably, strengthening evidence for future regulatory action. 

The overall goal is to support children and families in using the internet more safely and confidently — by fostering digital literacy, critical thinking and by making online platforms more accountable.

The bottom line.  While growing alignment on child online safety is welcomed, and regulatory enforcement broadly supported, the push for age verification remains contested. All eyes will be on the trilateral technical group’s output.


OpenAI pushes back as NYT seeks millions of ChatGPT conversations

OpenAI is pushing back against a major legal request from The New York Times for access to millions of ChatGPT conversation records, citing privacy concerns and the potential erosion of user trust. 

What began as a request for 1.4 billion chats has now been narrowed to around 20 million conversations spanning December 2022 through November 2024, but OpenAI maintains that even sharing this reduced set could expose sensitive user information.

While the company previously allowed the automatic deletion of user chats within 30 days, a court preservation order from May 2025 now requires that deleted conversations be retained indefinitely in many cases. OpenAI has said it will attempt to “de-identify” the data before sharing, but privacy experts caution that anonymised chats can often be re-identified, leaving users exposed.

The case highlights a growing tension between content owners seeking enforcement or accountability and AI platform providers, balancing user privacy with legal obligations

In perspective. This dispute may set precedents for how large-scale AI conversation data is governed, influencing future policies on data retention, deletion, and user privacy. This shifts the paradigm of digital permanence; it’s no longer just about data being stored forever, but about it being used to build the next generation of technology.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

CERN unveils AI strategy to advance research and operations

CERN has approved a comprehensive AI strategy to guide its use across research, operations, and administration. The strategy unites initiatives under a coherent framework to promote responsible and impactful AI for science and operational excellence.

It focuses on four main goals: accelerating scientific discovery, improving productivity and reliability, attracting and developing talent, and enabling AI at scale through strategic partnerships with industry and member states.

Common tools and shared experiences across sectors will strengthen CERN’s community and ensure effective deployment.

Implementation will involve prioritised plans and collaboration with EU programmes, industry, and member states to build capacity, secure funding, and expand infrastructure. Applications of AI will support high-energy physics experiments, future accelerators, detectors, and data-driven decision-making.

LOOKING AHEAD
 Person, Face, Head, Binoculars

The UN Commission on Science and Technology for Development (CSTD) will hold its 2025–2026 inter-sessional panel on 17 November at the Palais des Nations in Geneva. The agenda focuses on science, technology and innovation in the age of AI, with expert contributions from academia, international organisations, and the private sector. Delegations will also review progress on WSIS implementation ahead of the WSIS+20 process, and receive updates on the Global Digital Compact (GDC) and data governance work within the CSTD.

A day later, the CSTD’s multi-stakeholder working group on data governance at all levels will meet for the fourth time. Over two days (18 and 19 November), delegates will review recent inputs, discuss principles, interoperability, benefit-sharing, and secure data flows, and plan next steps for the Working Group’s progress report to the UN General Assembly. The meeting will also address leadership and scheduling of future sessions, aiming to strengthen international cooperation on data governance for sustainable development.

The International Telecommunication Union (ITU) will hold the World Telecommunication Development Conference 2025 (WTDC‑25) in Baku, Azerbaijan, from 17–28 November 2025. The conference will bring together governments, regulators, industry, civil society, and other stakeholders to discuss strategies for universal, meaningful, and affordable connectivity. Participants will review policy frameworks, investment priorities, and digital‑development initiatives, and adopt a Declaration, Strategic Plan, and Action Plan to guide global ICT development through 2029.



READING CORNER
Books and diplomacy

What can fiction teach us about diplomacy? Explore how 2024-2025 bestsellers reveal real-world hard power, soft power, and economic diplomacy.

Digital Watch newsletter – Issue 104 – October 2025

October 2025 in retrospect

This month’s stories trace the shifting rules of the digital world — from child protection online to the global tug-of-war over rare earths, AI and cybercrime.

Here’s what we unpacked in this edition.

New rules for the digital playground — Countries are tightening online safety measures and redefining digital boundaries for young users.

The global struggle to steer AI — We examined how states and tech giants are competing to shape AI’s future.

Rare-earth respite — From trade corridors to export bans, nations are recalibrating their approach to securing the minerals that underpin the digital economy.

When the cloud falters — What the AWS and Microsoft outages reveal about resilience, dependence, and the risks of an increasingly centralised internet.

Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi — A milestone moment for global digital policy, but one raising deep questions about rights, jurisdiction, and enforcement.

Last month in Geneva — Catch up on the discussions, events, and takeaways shaping international digital governance.

GLOBAL GOVERNANCE

The Co-Facilitators of the WSIS+20 process released Revision 1 of the outcome document for the twenty-year review of the implementation of the World Summit on the Information Society, reflecting the input and proposals gathered from stakeholders and member states throughout the consultative process to date.

ARTIFICIAL INTELLIGENCE

Chinese President Xi Jinping reiterated China’s proposal to establish a global AI body, titled World Artificial Intelligence Cooperation Organisation (WAICO), to cooperate on development strategies, governance rules and technological standards.

The European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement.

The European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA), a move that would trigger extensive transparency, audit, and risk-assessment duties and potentially overlap with forthcoming AI Act requirements.

The Superintelligence Statement, endorsed by leading researchers and technologists, urges careful oversight and governance of advanced AI systems to prevent unintended harms—echoing the concerns of regulators and governments worldwide.

TECHNOLOGIES

The 2025 Nobel Prize in Physics was awarded to John Clarke, Michel H. Devoret, and John M. Martinis for proving that key quantum effects—tunnelling and energy quantisation—can occur in hand-sized superconducting circuits, advancing fundamental physics and laying foundations for modern quantum technologies.

UNESCO has approved the world’s first global framework on the ethics of neurotechnology, setting new standards to ensure that advances in brain science respect human rights and dignity. 

The US–Korea Science and Technology Roadmap broadens cooperation on AI, quantum, 6G, research security, and civil space, aiming for pro-innovation policy alignment and “rusted exports.

US President Donald Trump and Chinese President Xi Jinping signed a deal that effectively rolls back Beijing’s recent export controls on rare earth elements and other critical minerals.

The US–Japan Framework for Securing the Supply of Critical Minerals and Rare Earths commits both nations to joint mining, processing, and stockpiling—an effort to reduce reliance on China and strengthen Indo-Pacific supply-chain resilience. 

G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships.

China’s commerce ministry signalled a softened position in the Nexperia case and moved to issue case-by-case exemptions to its export curbs on Nexperia products, while the Netherlands indicated it could suspend its emergency control measures if normal supplies resume.

The White House confirmed the most advanced AI chips remain off-limits to Chinese buyers. US officials also signalled they may block sales of scaled-down models, further tightening export controls. China is reportedly tightening customs checks on Nvidia’s China-market AI processors at major ports, underscoring how export controls and counter-measures are now a permanent feature of the supply chain.

INFRASTRUCTURE

The European Commission has approved the creation of the Digital Commons European Digital Infrastructure Consortium, bringing together France, Germany, the Netherlands, and Italy to develop open, interoperable digital systems that enhance Europe’s sovereignty and support governments and businesses.

CYBERSECURITY

The UN Convention against Cybercrime, the first global treaty to tackle cybercrime, was opened for signature in a high-level ceremony during which 72 countries signed.

Brazil is advancing its first national cybersecurity law, the Cybersecurity Legal Framework, to centralise oversight and bolster protections for citizens and businesses amid recent high-profile cyberattacks on hospitals and personal data.

Discord confirmed a cyberattack on a third-party age-verification provider that exposed official ID images and personal data of approximately 70,000 users, including partial credit card details and customer service chats, although no full card numbers, passwords, or broader activity were compromised; the platform itself remained secure.

Australia’s Critical Infrastructure Annual Risk Review, released by the Department of Home Affairs, warns of growing vulnerabilities in essential sectors like energy, healthcare, banking, aviation, and digital systems due to geopolitical tensions, supply chain disruptions, cyber threats, climate risks, physical sabotage, malicious insiders, and eroding public trust.

The International Committee of the Red Cross (ICRC) and the Geneva Academy have released a joint report analysing the application of international humanitarian law (IHL) to civilian involvement in cyber and digital activities during armed conflicts, drawing on global research and expert input.

Denmark, currently holding the EU Council presidency, has withdrawn its proposal to require scanning of private encrypted messages for child sexual abuse material (CSAM), abandoning the so-called ‘Chat Control’ proposal. Instead, Denmark will now support a voluntary regime for CSAM detection.

A growing number of countries are moving to ban minors from major platforms, with Denmark preparing to bar under-15s, and New Zealand and Australia under-16s.
The Danish EU Council presidency advanced the Jutland Declaration, making age verification central to online safety and backing an EU-wide system linked to the European Digital Identity Wallet, and EU ministers endorsed a common verification layer while allowing each country to set its own age limit.

ECONOMIC

A coalition of African, Caribbean and Pacific states led by Barbados has submitted a proposal to the World Trade Organization (WTO) seeking to extend the longstanding moratorium on customs duties applied to electronic transmissions. 

France’s National Assembly has approved raising its digital services tax on major US tech giants like Google, Apple, Meta, and Amazon from 3% to 6%, despite Economy Minister Roland Lescure’s warnings of potential US trade retaliation and labelling the hike ‘disproportionate’.

French lawmakers narrowly approved centrist MP Jean-Paul Matteï’s amendment to expand the wealth tax to ‘unproductive assets’ like luxury goods, property, and digital currencies, passing 163-150 in the National Assembly with backing from socialists and far-right members.

Japan’s Financial Services Agency will support a pilot by MUFG, Sumitomo Mitsui, and Mizuho Bank to jointly issue yen-backed stablecoins for corporate payments.

HUMAN RIGHTS

UNESCO’s Office for the Caribbean has launched a regional survey on gender and AI to document online violence, privacy concerns, and algorithmic bias affecting women and girls, with results feeding into a regional policy brief.

A UN briefing warns of the profound human rights violations from a 48-hour nationwide telecommunications shutdown in Afghanistan, which severely disrupted access to healthcare, emergency services, banking, education, and daily communications, exacerbating the population’s existing vulnerabilities.

Tanzania imposed a nationwide internet shutdown during its tense general election, severely disrupting connectivity and blocking platforms like X, WhatsApp, and Instagram, as confirmed by NetBlocks, hampering journalists, election observers, and citizens from sharing updates amid reports of protests and unrest; the government deployed the army, raising alarms over information control.

France’s Défenseur des Droits ruled that Meta’s Facebook algorithm indirectly discriminates by gender in job advertising, violating anti-discrimination laws, following a complaint by Global Witness and women’s rights groups Fondation des Femmes and Femmes Ingénieures.

Privacy advocates have proposed a US Internet Bill of Rights to safeguard digital freedoms against expanding online censorship laws like the UK’s Online Safety Act, the EU’s Digital Services Act, and US bills such as KOSA and the STOP HATE Act, which they argue undermine civil liberties by enabling government and corporate speech control under safety pretexts.

LEGAL

A landmark US federal court ruling has permanently barred the Israeli spyware company NSO Group from targeting WhatsApp users, prohibiting NSO from accessing WhatsApp’s systems, effectively restricting the company’s operations on the platform. 

An Advocate General of the CJEU has opined that national competition authorities can lawfully seize employee emails during investigations without prior judicial approval, provided a strict legal framework and effective safeguards are in place.

Australia’s Albanese Government has rejected introducing a Text and Data Mining Exception to its copyright laws, prioritising protections for local creators despite the tech sector’s demands for an AI exemption that would allow unlicensed use of copyrighted materials.

A UK court largely sided with Stability AI in its legal battle with Getty Images, ruling that the company’s use of Getty’s images to train its AI models did not violate copyright or trademark law.

SOCIOCULTURAL

The European Commission has issued preliminary findings that Meta and TikTok breached transparency and researcher-access obligations under the DSA, specifically by making it difficult for users to flag illegal content and limiting independent scrutiny of platform data.

In the Netherlands, a court has granted Meta until 31 December 2025 to implement simpler opt-out options for algorithm-driven timelines on Facebook and Instagram, following an earlier ruling that Meta’s timeline design breached DSA obligations. 

Australia will require streaming services with over 1 million local subscribers to invest at least 10% of their local spending in new Australian content, including drama, children’s shows, documentaries, arts, and educational programs.

DEVELOPMENT

The UAE’s Artificial Intelligence, Digital Economy, and Remote Work Applications Office, in partnership with Google, launched the ‘AI for All’ initiative on 29 October 2025, to provide comprehensive AI skills training across the country through 2026, targeting students, teachers, university learners, government employees, SMEs, creatives, and content creators.

KEPSA and Microsoft launched the Kenya AI Skilling Alliance (KAISA) in Nairobi, a national platform uniting the government, academia, private sector, and partners to foster inclusive and responsible AI adoption amid Kenya’s AI ecosystem fragmentation.

The UN Development Programme (UNDP) has expanded its Blockchain Academy, in partnership with the Algorand Foundation, to train 24,000 personnel worldwide from UNDP, UN Volunteers, and the UN Capital Development Fund (UNCDF), enhancing blockchain knowledge and application for sustainable development goals.

A new wave of digital protectionism is taking shape around the world — this time in the name of children’s safety.

A small but growing club of countries is seeking to ban minors from major platforms. Denmark is joining the trend by preparing to ban social media for users under 15. The government has yet to release full details, but the move reflects a growing recognition across many countries that the costs of children’s unrestricted access to social media — from mental health issues to exposure to harmful content — are no longer acceptable.

New Zealand will also introduce a bill in parliament to restrict social media access for children under 16, requiring platforms to conduct age verification before allowing use.

For inspiration, Copenhagen and Wellington do not have to look far. Australia has already outlined one of the most detailed blueprints for a nationwide ban on under-16s, set to take effect on 10 December 2025. The law requires platforms to verify users’ ages, remove underage accounts, and block re-registrations. Platforms will also need to communicate clearly with affected users, although questions remain, including whether deleted content will be restored when a user turns 16.

Despite having publicly articulated their opposition, Meta Platforms (owner of Facebook/Instagram), TikTok, and Snap Inc. announced that they will comply with the Australian law. The tech firms argue that the ban may inadvertently push youth toward less-regulated corners of the internet, and raise practical concerns over the enforcement of reliable age verification.

The Australian eSafety Commissioner has formally notified major social media platforms, including Facebook, Instagram, TikTok, Snapchat, and YouTube, that they must comply with new minimum age restrictions effective from 10 December. 

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

In the EU, the Danish presidency tabled the Jutland Declaration, a political push for stronger protections that puts age verification at the centre of online safety for minors. The declaration argues that platforms accessible to minors must ensure ‘a high level of privacy, safety, and security’ and that effective age verification is ‘one of the essential tools’ to curb exposure to illegal or harmful content and manipulative design. It explicitly backs EU-wide solutions tied to the European Digital Identity (EUDI) Wallet, positioned as a way to verify age with minimal data disclosure, and calls out addictive features (infinite scroll, autoplay, streaks) and risky monetisation (certain loot boxes, micro-transactions) for tighter controls. The text also stresses ‘safety-by-design’ defaults, support for parents and teachers, and meaningful participation of children in the policy process.

Two days later, ministers backed the Danish plan in part: countries rallied behind the common EU layer for age verification but resisted a single EU-wide age limit. The emerging compromise is to standardise ‘how to verify’ at the EU level while leaving ‘what age to set’ to national law, avoiding fragmentation of technical systems while respecting domestic choices. Pilots for the EU approach are expanding in several member states and align with the EUDI Wallet rollout due by the end of 2026.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

However, Denmark has officially abandoned its push within the EU to mandate the scanning of private messages on encrypted platforms – a proposal often referred to as ‘Chat Control.’ Officials cited mounting political and public resistance, particularly concerns over privacy and surveillance, as the catalyst for reversal. The measure had aimed to require tech platforms to automatically detect child sexual abuse material (CSAM) in private, end-to-end encrypted communications. Instead, Denmark will now support a voluntary regime for CSAM detection, relinquishing the previous insistence on compulsory scanning.

Adding a global dimension, on 7 November, the European Commission, Australia’s eSafety Commissioner and the UK’s Ofcom committed to strengthening child online safety. The three regulators agreed specifically to establish a technical cooperation group on age-assurance solutions (methods to verify age safely), share evidence, conduct independent research, and hold platforms accountable for design and moderation decisions that affect children. While each region retains its own law-making path, the agreement signals a growing trans-national alignment around how children are protected in digital spaces.

Regulatory pressure is rising in parallel. The European Commission sent fresh DSA information requests to major platforms, including Snapchat, YouTube, Apple and Google, probing how they keep minors away from harmful content and how their age-assurance systems work. The probe follows the Commission’s final DSA guidelines on protecting minors issued in July, which spell out ‘appropriate and proportionate’ measures for services accessible to minors (Article 28(1) DSA), from default privacy safeguards to risk mitigation for recommender systems. Violations can lead to substantial fines.

Lawsuits are also picking up. In Italy, families have launched legal action against Facebook, Instagram, and TikTok, claiming that the platforms failed to protect minors from exploitative algorithms and inappropriate content. 

Across the Atlantic, New York City has filed a sweeping lawsuit against major social media platforms, accusing them of deliberately designing features that addict children and harm their mental health. 

A landmark trial on child safety online has been given a start date. In January 2026, the Los Angeles County Superior Court will hear a consolidated case bringing together hundreds of claims from parents and school districts against Meta, Snap, TikTok, and YouTube. Plaintiffs allege that these platforms are addictive and expose young people to mental health risks, while providing ineffective parental controls and weak safety features. Meta founder Mark Zuckerberg, Instagram head Adam Mosseri, and Snap CEO Evan Spiegel have been ordered to testify in person, despite the companies’ arguments that it would be burdensome. The judge emphasised that direct testimony from CEOs is crucial to assess whether the companies were negligent in failing to take steps to mitigate harm.

Online gaming platforms, especially those popular with children, are also being re-examined. The platform Roblox (which allows user-generated worlds and chats) has come under fire for failing to protect its youngest users. In the USA, for example, the Florida Attorney General has issued criminal subpoenas accusing Roblox of being ‘a breeding ground for predators’ for children. In the Netherlands, the platform is facing an investigation by child-welfare authorities into how it safeguards young users. In Iraq, the government has banned Roblox nationwide, citing “sexual content, blasphemy and risks of online blackmail against minors.” 

Social media and gaming aren’t the only fronts. AI chatbots are now under scrutiny for how they interact with minors. In Australia, the eSafety Commissioner has sent notices to four AI chatbot companies asking them to detail their child-protection steps — specifically, how they guard against exposure to sexual or self-harm material. 

Meanwhile, Meta has announced new parental-control measures: parents will be able to disable their teens’ private chats with AI characters, block specific bots, and view what topics their teens are discussing, though not full transcripts. These rules are expected to roll out early next year in the USA, UK, Canada and Australia. These changes follow criticism that Meta’s AI-character chatbots enabled flirtatious or age-inappropriate conversations with minors.

The big picture. For youth, the digital world is a primary space for social, emotional, and cognitive development, shaped by the content and interactions they find there. This new reality requires parents to look beyond simple screen time to understand the nature of their children’s online experiences. It also sends a clear message to tech companies about accountability and challenges regulators to create rules that are both enforceable and adaptable to rapid innovation.

Together, these developments suggest that the era of self-regulation for social media may be drawing to a close. The global debate is not about whether the digital playground needs guardians, but about the final design of its safety features. As governments weigh bans, lawsuits, and surveillance mandates, they struggle to balance two imperatives: protecting children from harm while safeguarding fundamental rights to privacy and free expression. 

The world is incessantly debating the future and governance of AI. Here are some of the latest moves in the space.

Regulatory moves 

Italy has made history as the first member state in the EU to pass its own national AI law, going beyond the framework of the EU’s Artificial Intelligence Act. From 10 October, the law comes into effect, introducing sector-specific rules across health, justice, work, and public administration.  Among its provisions: transparency obligations, criminal penalties for misuse of AI (such as harmful deepfakes), new oversight bodies, and protections for minors (e.g. parental consent if under 14). 

However, reports indicate that the European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement – likely in response to lobbying from US authorities and tech companies.

Adding another layer of regulatory complexity, the European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA). This designation would bring obligations, including systemic-risk assessments, transparency reporting, independent audits, and researcher access to data, potentially creating overlapping regulatory requirements alongside the AI Act.

Meanwhile, across the Atlantic, California has signed into law a bold transparency and whistleblower regime aimed at frontier AI developers – those deploying large, compute-intensive models. Under SB 53 (the Transparency in Frontier Artificial Intelligence Act), companies must publish safety protocols, monitor risks, and disclose ‘critical safety incidents.’ Crucially, employees who believe there is a catastrophic risk (even without full proof) are shielded from retaliation. California also adopted the first dedicated ‘AI chatbot safety’ law, adding disclosure and safety expectations for conversational systems.

In Asia, at the Asia-Pacific Economic Cooperation (APEC) 2025 summit, Chinese President Xi Jinping reiterated his proposal to establish a global AI body to coordinate AI development and governance internationally. This body, tentatively titled World Artificial Intelligence Cooperation Organization, is not referenced in the APEC Artificial Intelligence (AI) Initiative (2026-2030).

A push for AI sovereignty

In Brussels, the European Commission is simultaneously strategising for digital sovereignty – trying to break the EU’s dependence on foreign AI infrastructure. Its new ‘Apply AI’ strategy aims to channel €1 billion into deploying European AI platforms, integrating them into public services (health, defence, industry), and supporting local tech innovation. The Commission also launched an ‘AI in Science’ initiative to solidify Europe’s position at the forefront of AI research, through a network called RAISE. 

Japan will prioritise home-grown AI technology in its new national strategy, aiming to strengthen national security and reduce dependence on foreign systems. The government says developing domestic expertise is essential to prevent overreliance on US and Chinese AI models.

AI, content, and the future of search

As AI continues to reshape how people access and interact with information, governments and tech companies are grappling with the opportunities—and dangers—of AI-driven content and search tools. 

In Europe, the Dutch electoral watchdog recently warned voters against relying on AI chatbots for election information, highlighting concerns that such systems can inadvertently mislead citizens with inaccurate or biased content. 

Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

At the same time, search engines—the traditional gateways to online knowledge—are experiencing a wave of innovation. OpenAI has unveiled its new browser, ChatGPT Atlas, which reimagines the way users interact with the web. Atlas introduces an ‘agent mode,’ a premium feature that can access a user’s laptop, click through websites, and explore the internet on their behalf, leveraging browsing history and user queries to provide guided, explainable results. Altman described it simply: ‘It’s using the internet for you.’ Two days later, Microsoft unveiled an equivalent offering—its Copilot Mode in Edge within the Microsoft Edge browser. The design, functions and timing were notably similar, underscoring how the major platforms are rapidly converging on this next-generation AI browser paradigm.

The bottom line. Ultimately, every new law and international proposal faces the same, almost paradoxical challenge: how to establish a rulebook for a technology that is continually rewriting its own capabilities by the month. The fundamental question is: Can any governance framework ever be agile enough?

Rare-earth respite: The battle for strategic resources marches on

The beginning of October saw China tighten its grip on the global tech supply chain by significantly expanding its restrictions on its rare earth exports. The new rules no longer focus solely on raw minerals — they now encompass processed materials, manufacturing equipment, and even the expertise used to refine and recycle rare earths. 

Exporters must seek government approval not only to ship these elements, but also for any product that contains them at a level exceeding 0.1%. Licences will be denied if the end users are involved in weapons production or military applications. Semiconductors won’t be spared either — chipmakers will now face intrusive case-by-case scrutiny, with Beijing demanding full visibility into tech specifications and end users before granting approval.

China is also sealing off human expertise. Engineers and companies in China are prohibited from participating to rare earth projects abroad unless the government explicitly permits it.

The geopolitical context in which this development took place is central: with US–China tensions elevated, Beijing has been signalling its leverage —dominance over the minerals powering advanced technologies.

By way of background. China currently controls up to 70% of global rare earth extraction, roughly 85% of refining, and about 90% of alloy and magnet production. That position has long served as strategic leverage, which some Chinese analysts argue remains intact despite the current deal. 

 Person, Head, Face

In late October, Trump and Xi announced a breakthrough on rare-earth minerals. ‘All of the rare earth is settled, and that’s for the world,’ Trump said, signalling the removal of one of the last major bottlenecks in global supply chains. The meeting also paved the way for tariff reductions and the renewal of agricultural trade.

Under the agreement, China will suspend the global implementation of expansive restrictions announced on 9 October and issue general export licenses for rare earths, gallium, germanium, antimony, and graphite, ensuring continued access for US buyers and their suppliers. The move is a de facto removal of controls China has tightened since 2023 and follows Trump’s declaration that there is now ‘no roadblock at all’ on rare earth flows.

The pause offers breathing room for global industries that rely on the minerals underpinning everything from electric vehicles and smartphones to advanced defence systems and renewable energy technologies. Yet it does little to ease the structural concerns driving diversification efforts.

In Europe, the European Commission is preparing a plan, potentially ready within weeks, to reduce reliance on Chinese critical minerals. Nearly all of Europe’s supply of 17 rare earth minerals currently comes from China, a dependence that Brussels views as unsustainable despite Beijing’s temporary concessions. The emerging EU strategy is expected to mirror the REPowerEU energy diversification blueprint, with a focus on recycling, stockpiling, and developing alternative supply routes.

The EU, however, is signalling frustration at mixed signals from Washington and Beijing on the rare‑earth front. Brussels remains uncertain about how far China’s newly stated concessions will apply to European firms, and observers warn that the bloc lacks near-term leverage to sway Beijing’s policy. This uncertainty underscores Europe’s tricky balancing act: pushing for supplier diversification while remaining dependent on them.

Similar momentum is building among G7 governments. Meeting in Toronto, G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships. The group – which consists of Canada, France, Germany, Italy, Japan, the UK and the USA  – also agreed to channel up to C$20.2 million into international collaboration in research and development of the commodities. US Energy Secretary Chris Wright framed the G7 alignment as a commitment to ‘establish our own ability to mine, process, refine and create the products’. These moves ‘send the world a very clear message’, Canadian Energy Minister Tim Hodgson said, adding ‘We are serious about reducing market concentration and dependencies’.

Beyond the US–China–Europe triangle, Moscow has also entered the race. Russian President Vladimir Putin has ordered the government to draw up a roadmap for increasing Russia’s rare-earth mineral production and strengthening transportation links with China and North Korea by 1 December. Russia claims reserves of hundreds of millions of metric tonnes of critical minerals but currently supplies only a small fraction of global demand – a gap it now seeks to close.

In Southeast Asia, Malaysia is charting its own course. The government confirmed it will maintain its ban on raw rare-earth exports despite the US–China deal, signalling continued emphasis on domestic value-added processing. Taipei has downplayed the impact of Beijing’s rare-earth curbs, saying Taiwan can source most of its needs elsewhere. 

What’s next? The truce on export controls may calm markets in the short term. However, with the G7 forging new alliances, Europe accelerating its diversification, and Beijing determined to maintain its control over rare earths as a strategic leverage, the global contest over critical minerals is only deepening. The underlying contest for supply chain resilience is far from over.

In the span of just ten days, two of the world’s largest cloud service providers — Amazon Web Services (AWS) and Microsoft Azure — suffered major outages that rippled across the globe, underscoring just how fragile the digital backbone of modern life has become.

For a few hours on Monday, much of the internet flickered out of reach. What began as an issue in one Amazon Web Services (AWS) data centre — the US-East-1 region in Virginia — quickly cascaded into a global failure. A seemingly minor Domain Name System (DNS) configuration error triggered a chain reaction, knocking out the systems that handle traffic between servers. 

The root cause was identified as a failure in the DNS resolution for internal endpoints, particularly affecting DynamoDB API endpoints. (Sidenote: DynamoDB is a cloud database that stores information for apps and websites, while API endpoints are the access points where these services read or write that data. During the AWS outage, these endpoints stopped working properly, preventing apps from retrieving or saving information.)

Because so many websites, apps and services — from social media platforms and games to banking and government portals — rely on AWS, the outage affected homes, offices, and governments worldwide. 

AWS engineers rushed to isolate the fault, eventually restoring normal operations by late afternoon. But the damage had already been done. The outage exposed a fragile truth about today’s digital world: when one provider falters, much of the internet stumbles with it. An estimated one-third of the world’s online services run on AWS infrastructure.

On 29 October 2025, a widespread outage affecting Microsoft’s cloud services disrupted major websites and services worldwide, including Heathrow Airport, NatWest, Asda, M&S, Starbucks, and Minecraft. The problem, also traced to Azure’s DNS configuration, lasted several hours before services gradually returned to normal.

According to tracking data from Downdetector, thousands of reports from multiple countries surfaced as websites and online services failed for several hours. Microsoft said the root cause lay with its Azure cloud‑computing platform, attributing the degradation to DNS issues and an inadvertent configuration change. 

Taken together, the two outages point to a deeper systemic vulnerability. They highlighted several systemic risks in today’s digital infrastructure

First, the outage underscored the global dependence on a small number of hyperscale cloud providers. This dependence acts as a single point of failure: a disruption within one provider can disrupt thousands of services relying on it. 

Secondly, the root cause, being a DNS resolution error, revealed how one component in a complex system can be the catalyst for massive disruption. 

Thirdly, despite cloud providers offering multiple ‘availability zones’ for redundancy, the event demonstrated that a fault in one critical region can still have worldwide consequences.

The lesson here is clear: as cloud computing becomes ever more central to the digital economy, resilience and diversification cannot be afterthoughts. Yet few true alternatives exist at AWS’s at Azure’s scale beyond Google Cloud, with smaller rivals from IBM to Alibaba, and fledgling European plays, far behind.

The first global treaty aimed at preventing and responding to cybercrime, the UN Convention against Cybercrime, was opened for signature in a high-level ceremony co-hosted by the Government of Viet Nam and the UN Secretariat on 25 and 26 October. 

At the close of the two-day signing window, 72 states had signed the convention in Hanoi — a strong initial show of support that underlines the perceived need for better cross-border cooperation on issues ranging from ransomware and online fraud to child sexual exploitation and trafficking. The convention establishes a framework for harmonising criminal law, standardising investigative powers, and expediting mutual legal assistance and the exchange of electronic evidence. 

But the ceremony was not without controversy. Human rights groups and civil society coalitions issued public warnings in the run-up to the signing, warning that vague definitions of cybercrime and expansive investigative powers could enable governments to justify surveillance or suppress legitimate online activities, such as journalism, activism, or cybersecurity research. Without precise legal limits and independent oversight, measures like data interception, compelled decryption, or real-time monitoring could erode privacy and freedom of expression.

Major tech companies and several rights organisations urged stronger, clearer safeguards and precise drafting to prevent misuse. UNODC, the UN office that led the negotiations, responded by pointing to built-in safeguards and to provisions meant to support capacity building for lower-resourced states

Practically, the signing is only the procedural first step — the treaty will enter into force only 90 days after 40 states ratify it under their domestic procedures, a requirement that will determine how quickly the Convention becomes operational. 

Observers following the aftermath focus on three immediate questions: which signatories will move quickly to ratify, how individual countries will transpose Convention obligations into national law (and whether they will embed robust human rights safeguards), and what mechanisms will govern technical cooperation and cross-border evidence sharing in practice. 

The Hanoi signing marks a milestone: it creates a legal anchor for deeper international cooperation on cybercrime — provided implementation respects fundamental rights and rule-of-law principles.

The digital governance scene has been busy in Geneva in October. Here’s what we have tried to follow. 

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Geneva Peace Week 2025

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.

151st Assembly of the IPU

The 151st Assembly of the IPU took place in Geneva, Switzerland, on 19-23 October 2025. Under the theme ‘Upholding humanitarian norms and supporting humanitarian action in times of crisis,’ the Assembly held its general debate and reviewed progress on previous resolutions.

Discussions also addressed the protection of victims of illegal international adoption, considered amendments to the IPU Statutes and Rules, and set priorities for upcoming committee work. The meeting provided a platform for dialogue on humanitarian, democratic, and governance issues among national parliaments.

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th UN Conference on Trade and Development (UNCTAD16) took place from 20–23 October 2025 in Geneva, bringing together world leaders, ministers, and experts from 170 countries under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

Over four days and 40 high-level sessions, delegates discussed trade, investment, technology, and sustainability, setting UNCTAD’s direction for the next four years.

Digital transformation was a prominent feature throughout the conference. Delegates highlighted that while technological progress opens new opportunities, it also risks deepening inequalities.

The event concluded with the adoption of the Geneva Consensus for a Just and Sustainable Economic Order. The agreement reaffirmed commitments to fairer and more inclusive global development, placing a strong emphasis on narrowing digital divides.

The Geneva Consensus calls on UNCTAD to help developing countries strengthen digital infrastructure, build skills, and create policy frameworks to harness the digital economy. 

Concrete initiatives were announced: Switzerland pledged CHF 4 million to support UNCTAD’s e-commerce and digital economy work, while a new partnership with the Digital Cooperation Organization will advance digital data measurement, women’s participation, and SME support.

ICRC and Geneva Academy publish joint report on civilian involvement in cyber activities during conflicts

The International Committee of the Red Cross (ICRC) and the Geneva Academy of International Humanitarian Law and Human Rights have jointly released a report examining how international humanitarian law (IHL) applies to civilian participation in cyber and other digital activities during armed conflicts. The report is based on extensive global research and expert consultations conducted within the framework of their initiative.

The publication addresses key legal issues, including the protection of civilians and technology companies during armed conflict, and the circumstances under which such protections may be at risk. It further analyses the IHL obligations of civilians, such as individuals engaging in hacking, when directly involved in hostilities, as well as the responsibilities of states to safeguard civilians and civilian infrastructure and to ensure compliance with IHL by populations under their control.

The ICRC and Geneva Academy report also offers practical recommendations for governments, technology companies, and humanitarian organisations aimed at limiting civilian involvement in hostilities, minimising harm, and supporting adherence to international humanitarian law.

Weekly #237 A rare-earth pause in a long geopolitical game

 Logo, Text

31 October-10 November 2025


HIGHLIGHT OF THE WEEK

 A rare-earth pause in a long geopolitical game

A temporary easing of tensions in the global scramble for critical minerals has emerged from Washington and Beijing – but the underlying contest for supply chain resilience is far from over.

Following high-stakes talks in early November, US President Donald Trump and Chinese President Xi Jinping signed a deal that effectively rolls back Beijing’s recent export controls on rare earth elements and other critical minerals. Under the agreement, China will suspend the global implementation of expansive restrictions announced on 9 October and issue general export licenses for rare earths, gallium, germanium, antimony, and graphite, ensuring continued access for US buyers and their suppliers. The move is a de facto removal of controls China has tightened since 2023 and follows Trump’s declaration that there is now ‘no roadblock at all’ on rare earth flows.

The pause offers breathing room for global industries that rely on the minerals underpinning everything from electric vehicles and smartphones to advanced defence systems and renewable energy technologies. Yet it does little to ease the structural concerns driving diversification efforts.

In Europe, the European Commission is preparing a plan, potentially ready within weeks, to reduce reliance on Chinese critical minerals. Nearly all of Europe’s supply of 17 rare earth minerals currently comes from China, a dependence that Brussels views as unsustainable despite Beijing’s temporary concessions. The emerging EU strategy is expected to mirror the REPowerEU energy diversification blueprint, with a focus on recycling, stockpiling, and developing alternative supply routes.

The EU, however, is signalling frustration at mixed signals from Washington and Beijing on the rare‑earth front. Brussels remains uncertain about how far China’s newly stated concessions will apply to European firms, and observers warn that the bloc lacks near-term leverage to sway Beijing’s policy. This uncertainty underscores Europe’s tricky balancing act: pushing for supplier diversification while remaining dependent on them.

Similar momentum is building among G7 governments. Meeting in Toronto, G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships. The group – which consists of Canada, France, Germany, Italy, Japan, the UK and the USA  – also agreed to channel up to C$20.2 million into international collaboration in research and development of the commodities. US Energy Secretary Chris Wright framed the G7 alignment as a commitment to ‘establish our own ability to mine, process, refine and create the products’. These moves ‘send the world a very clear message’, Canadian Energy Minister Tim Hodgson said, adding ‘We are serious about reducing market concentration and dependencies’.

Beyond the US–China–Europe triangle, Moscow has also entered the race. Russian President Vladimir Putin has ordered the government to draw up a roadmap for increasing Russia’s rare-earth mineral production and strengthening transportation links with China and North Korea by 1 December. Russia claims reserves of hundreds of millions of metric tonnes of critical minerals but currently supplies only a small fraction of global demand – a gap it now seeks to close.

 Person, Head, Face

A refresher. China currently controls up to 70% of global mine production, roughly 85% of refining, and about 90% of alloy and magnet production. That position has long served as strategic leverage, which some Chinese analysts argue remains intact despite the current deal. 

What’s next? The truce on export controls may calm markets in the short term. However, with the G7 forging new alliances, Europe accelerating its diversification, and Beijing determined to maintain its control over rare earths as a strategic leverage, the global contest over critical minerals is only deepening.

IN OTHER NEWS LAST WEEK

EU steps in as Dutch chip action provokes China

A governance intervention in the Netherlands has spiralled into a global semiconductor standoff – and a race to stabilise automotive supply chains.

After Dutch authorities moved to assert control over chipmaker Nexperia on national-security grounds, Beijing responded by restricting exports from the company’s China operations. Nexperia then halted wafer (thin slices of semiconductor material used to make microchips) shipments to its Chinese assembly plant.

The disruption sent ripples through carmakers and suppliers; several trimmed sales guidance as inventory buffers tightened.

Brussels stepped in to mediate. European Commission officials and the EU trade chief convened talks with Nexperia and China, trying to find a solution that would restore flows without undercutting Europe’s security concerns. 

Diplomacy produced an important tactical breakthrough in early November. China’s commerce ministry signalled a softened position and moved to issue case-by-case exemptions to its export curbs on Nexperia products

By 4 November, the Commission judged that the worst-case disruption had been avoided and that there was ‘time and space’ to seek a longer-term solution – a pragmatic assessment that reflected partial resumption of talks and early signs of coordination. That breathing room allowed negotiators to focus on exemptions, procedural fixes and assurances rather than immediate rationing.

The big picture. For now, a fragile stabilisation is taking shape: partial export clearances, continued negotiations, and heightened quality checks across supply chains. But the episode has underscored Europe’s reliance on offshore packaging capacity – and the challenge of balancing security scrutiny with industrial continuity.

US–China chip tensions tighten around Nvidia

A fast-moving week in the AI chip race saw Washington and Beijing harden positions – with Nvidia caught squarely in the middle.

Nvidia CEO Jensen Huang initially expressed hope that the company’s new Blackwell chips could still be sold in China. But former President Donald Trump quickly shut that door, saying the top-end processors ‘are not for other people,’ as the White House confirmed the most advanced AI chips remain off-limits to Chinese buyers. US officials also signalled they may block sales of scaled-down models, further tightening export controls.

China responded by banning foreign AI chips in state-funded data centres and offering cheap power to domestic tech giants to accelerate local semiconductor production – part of its push to reduce reliance on US suppliers.

The big picture. The week underscored a sharpening semiconductor stand-off: Washington determined to keep frontier AI technology at home, and Beijing racing to ensure it never needs it.


The global struggle to steer AI

At the Asia-Pacific Economic Cooperation (APEC) 2025 summit, Chinese President Xi Jinping reiterated his proposal to establish a global AI body to coordinate AI development and governance internationally. This body, tentatively titled World Artificial Intelligence Cooperation Organization, is not referenced in the APEC Artificial Intelligence (AI) Initiative (2026-2030).

Meanwhile, Europe is contemplating recalibrating its regulatory approach. Reports indicate that the European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement – likely in response to lobbying from US authorities and tech companies.

Adding another layer of regulatory complexity, the European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA). This designation would bring obligations, including systemic-risk assessments, transparency reporting, independent audits, and researcher access to data, potentially creating overlapping regulatory requirements alongside the AI Act.


Protecting children online

Denmark, which currently holds the presidency of the EU Council, officially abandoned its push within the EU to mandate the scanning of private messages on encrypted platforms – a proposal often referred to as ‘Chat Control.’ Officials cited mounting political and public resistance, particularly concerns over privacy and surveillance, as the catalyst for reversal. The measure had aimed to require tech platforms to automatically detect child sexual abuse material (CSAM) in private, end-to-end encrypted communications. Instead, Denmark informed that it will now support a voluntary regime for CSAM detection, relinquishing the previous insistence on compulsory scanning

Meanwhile, Denmark is going forward with its national plans for child safety online – the government has announced an agreement to ban access to social media for anyone under 15. While it is still unclear how such a ban will be enforced, Denmark’s minister for digital affairs, Caroline Stage, noted that tech giants will be forced to make proper age verification.
Copenhagen is following Australia’s example, where a social media ban for under-16s will take place from 10 December. The eSafety Commissioner has formally notified major social media platforms, including Facebook, Instagram, TikTok, Snapchat, and YouTube, that they must comply with new minimum age restrictions from this date.


States press for extension of digital‑trade tariff moratorium at WTO

A coalition of African, Caribbean and Pacific states led by Barbados has submitted a proposal to the World Trade Organization (WTO) seeking to extend the longstanding moratorium on customs duties applied to electronic transmissions. The moratorium  – effectively preventing tariffs on digital goods such as e‑books, video games and transmission of software – was first introduced in 1998 and has been periodically renewed. 

Under the current renewal, the moratorium is set to expire in March 2026 or at the next Ministerial Conference, whichever comes first. 

The proposal from the African, Caribbean and Pacific states, which is yet to specify a definitive duration, would see the moratorium remain in force ‘until our next session.’

What’s next? The matter will be discussed at the next WTO Ministerial Conference (MC14) in March 2026 in Yaoundé, Cameroon.

The heart of the matter. For these countries, extending the moratorium is about maintaining open, affordable, and predictable digital trade, reducing administrative burdens, and promoting economic development through digital channels. Essentially, it’s a way to support growth in the digital economy while avoiding trade conflicts and tariffs that could disproportionately affect smaller or developing states.


UNESCO adopts first global ethical framework for neurotechnology

UNESCO has approved the world’s first global framework on the ethics of neurotechnology, setting new standards to ensure that advances in brain science respect human rights and dignity. 

The Recommendation calls on governments to regulate neurotechnologies, ensure they remain accessible, and protect vulnerable groups, especially children and workers. It urges bans on non-therapeutic use in young people and warns against monitoring employees’ mental activity or productivity without explicit consent.

UNESCO also stresses the need for transparency and better regulation of products that may alter behaviour or foster addiction.

Developed after consultations with over 8,000 contributors from academia, industry, and civil society, the framework was drafted by an international group of experts led by scientists Hervé Chneiweiss and Nita Farahany. 

What’s next? The text will enter into force on 12 November, at the conclusion of the UNESCO General Conference in Samarkand, Uzbekistan. UNESCO pledged to support its member states in reviewing their policies, developing roadmaps tailored to their priorities, and strengthening their capacities to address the challenges posed by neurotechnology.


LOOKING AHEAD
 Person, Face, Head, Binoculars
COP 30

The 2025 United Nations Climate Change Conference, known as COP30, will be held from 10 to 21 November 2025 in Belém, Brazil. 

ATF Final Logo 09

The Africa Tech Festival 2025 will be held from 11 to 13 November 2025 at the Cape Town International Convention Centre, South Africa. 



READING CORNER
AI and art feature

AI can now write, paint, and act. Does this devalue human craft and authenticity? Explore the debate on whether generative AI is a tool that frees creators or one that replaces them.

Weekly #236 Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi

 Logo, Text

24 – 31 October 2025


HIGHLIGHT OF THE WEEK

Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi

Last weekend, the first global treaty aimed at preventing and responding to cybercrime, the UN Convention against Cybercrime, was opened for signature in a high-level ceremony co-hosted by the Government of Viet Nam and the UN Secretariat. 

At the close of the two-day signing window, 72 states had signed the convention in Hanoi — a strong initial show of support that underlines the perceived need for better cross-border cooperation on issues ranging from ransomware and online fraud to child sexual exploitation and trafficking. The convention establishes a framework for harmonising criminal law, standardising investigative powers, and expediting mutual legal assistance and the exchange of electronic evidence. 

 Person, Book, Comics, Publication, People, Head

But the ceremony was not without controversy. Human rights groups and civil society coalitions issued public warnings in the run-up to the signing, warning that vague definitions of cybercrime and expansive investigative powers could enable governments to justify surveillance or suppress legitimate online activities, such as journalism, activism, or cybersecurity research. Without precise legal limits and independent oversight, measures like data interception, compelled decryption, or real-time monitoring could erode privacy and freedom of expression.

Major tech companies and several rights organisations urged stronger, clearer safeguards and precise drafting to prevent misuse. UNODC, the UN office that led the negotiations, responded by pointing to built-in safeguards and to provisions meant to support capacity building for lower-resourced states

Practically, the signing is only the procedural first step — the treaty will enter into force only 90 days after 40 states ratify it under their domestic procedures, a requirement that will determine how quickly the Convention becomes operational. 

Observers following the aftermath focus on three immediate questions: which signatories will move quickly to ratify, how individual countries will transpose Convention obligations into national law (and whether they will embed robust human rights safeguards), and what mechanisms will govern technical cooperation and cross-border evidence sharing in practice. 

The Hanoi signing marks a milestone: it creates a legal anchor for deeper international cooperation on cybercrime — provided implementation respects fundamental rights and rule-of-law principles.

IN OTHER NEWS THIS WEEK

Regulators close in on Big Tech

Over the past week, regulatory pressure on major online platform firms has intensified across multiple jurisdictions. From age-based access restrictions in Australia to algorithmic feed controls in Europe, tech giants now find themselves navigating an increasingly complex patchwork of enforcement regimes and political expectations.

In Canberra, the Australian Parliament has moved ahead with the implementation of its landmark under-16 social media access ban, effective 10 December 2025. Meta Platforms (owner of Facebook/Instagram), TikTok, and Snap Inc. announced that they will comply with the law, despite having publicly articulated their opposition. The tech firms argue that the ban may inadvertently push youth toward less-regulated corners of the internet, and raise practical concerns over the enforcement of reliable age verification.

The same week, the government took Microsoft to court, accusing it of misleading more than two million consumers by quietly bundling its AI assistant Copilot into Microsoft 365 subscriptions and raising prices by up to 45%. Regulators argue the company failed to make clear that cheaper, Copilot-free options still existed—a case that extends Australia’s scrutiny from online safety to pricing and consumer transparency.

In Europe, the Digital Services Act (DSA) is emerging as a tangible enforcement tool for regulating the design and transparency of algorithms on large platforms. In the Netherlands, a court has granted Meta until 31 December 2025 to implement simpler opt-out options for algorithm-driven timelines on Facebook and Instagram, following an earlier ruling that Meta’s timeline design breached DSA obligations. 

Separately, the European Commission has issued preliminary findings that Meta and TikTok breached transparency and researcher-access obligations under the DSA, specifically by making it difficult for users to flag illegal content and limiting independent scrutiny of platform data.


Washington redraws tech alliances with Tokyo, Seoul, and Beijing

The USA is tightening its grip on the global tech order. Within a week, Washington has inked new science and technology agreements with South Korea and Japan, while President Donald Trump’s meeting with Chinese President Xi Jinping produced a rare thaw in trade relations.

The US–Japan Framework for Securing the Supply of Critical Minerals and Rare Earths commits both nations to joint mining, processing, and stockpiling—an effort to reduce reliance on China and strengthen Indo-Pacific supply-chain resilience. 

The US–Korea Science and Technology Roadmap broadens cooperation on AI, quantum, 6G, research security, and civil space, aiming for pro-innovation policy alignment and “rusted exports.

In Seoul, Trump and Xi announced a breakthrough on rare-earth minerals. ‘All of the rare earth is settled, and that’s for the world,’ Trump said, signalling the removal of one of the last major bottlenecks in global supply chains. The meeting also paved the way for tariff reductions and renewed agricultural trade.

Despite expectations, Trump did not raise Nvidia’s Blackwell chip with Xi. Still, momentum could continue: US Treasury Secretary Whitney Bessent says a new trade deal could be signed as early as next week.


Europe tightens grip as Nexperia cuts off Chinese plant

The standoff between Nexperia and European authorities entered a new phase this week. 

According to a letter from interim CEO René Penning de Vries, Nexperia halted supplies to its Dongguan site on 26 October over ‘payment irregularities’ by local management—a move that further deepens the company’s internal split following the Dutch government’s intervention. 

At the same time, EU tech chief Henna Virkkunen announced she will meet Nexperia’s leadership on Friday, amid growing concern that production disruptions could ripple through Europe’s automotive and industrial supply chains. Virkkunen said lessons from the case will feed into the upcoming revision of the EU Chips Act, which aims to strengthen the bloc’s technological resilience.

A refresher: Nexperia, based in the Netherlands but owned by China’s Wingtech Technology, has been under government oversight since late September. Dutch authorities said the move was needed to fix ‘governance problems’ and protect key technology and production capacity in Europe. The decision led to the removal of Nexperia’s Chinese CEO and strained ties with its parent company. The situation has since become a symbol of Europe’s growing efforts to protect its semiconductor industry from foreign control and supply chain risks.


Microsoft Azure outage underlines global cloud vulnerability

On 29 October 2025, a widespread outage affecting Microsoft’s cloud services disrupted major websites and services worldwide, including Heathrow Airport, NatWest, Asda, M&S, Starbucks, and Minecraft. The problem, traced to Azure’s DNS configuration, lasted several hours before services gradually returned.

According to tracking data from Downdetector, thousands of reports from multiple countries surfaced as websites and online services failed for several hours. Microsoft said the root cause lay with its Azure cloud‑computing platform, attributing the degradation to DNS issues and an inadvertent configuration change. 

The scale of the outage highlights the fragility of the internet’s infrastructure, given that Microsoft Azure holds roughly one-fifth of the global cloud market share. 

Earlier in the month, on 20 October, AWS suffered a major outage triggered by a DNS issue. These episodes highlight that reliance on a small number of providers creates systemic vulnerability — when one platform falters, many services are affected simultaneously.


Are AI systems fair and safe? Caribbean women weigh in through UNESCO survey

UNESCO’s Office for the Caribbean has launched a regional survey examining gender and AI, titled Perception of AI Fairness and Online Safety among Women and Girls in the Caribbean. The initiative will document gender-based online violence, generative AI’s implications for privacy, and potential biases in large AI models. It aims to address the lack of data on how women and girls experience technology, AI, and online violence in the region. 

The findings will be used to develop a regional policy brief comparing regional data with global insights. UNESCO will share the findings during a one-day regional workshop on 10 December 2025, Human Rights Day – empowering young Caribbean women with tools to navigate AI safely and confidently


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Countries unite around a ‘Geneva Consensus’ at UNCTAD16

The 16th UN Conference on Trade and Development (UNCTAD16), held in Geneva from 20–23 October 2025, concluded with record participation from 170 countries and the adoption of the Geneva Consensus for a Just and Sustainable Economic Order. The agreement reaffirmed commitments to fairer and more inclusive global development, placing a strong emphasis on narrowing digital divides.

Digital transformation was a prominent feature throughout the conference. Delegates highlighted that while technological progress opens new opportunities, it also risks deepening inequalities. The Geneva Consensus calls on UNCTAD to help developing countries strengthen digital infrastructure, build skills, and create policy frameworks to harness the digital economy. Concrete initiatives were announced: Switzerland pledged CHF 4 million to support UNCTAD’s e-commerce and digital economy work, while a new partnership with the Digital Cooperation Organization will advance digital data measurement, women’s participation, and SME support.


LOOKING AHEAD
 Person, Face, Head, Binoculars
bih igf logo

The BH Internet Governance Forum (BHIGF) 2025 will take place in Sarajevo, Bosnia and Herzegovina, bringing together government officials, civil society, technical experts, journalists, and other stakeholders to discuss internet governance.

2025 Conference on International Cyber Security

The 2025 Conference on International Cyber Security will be held in The Hague, Netherlands, on 4–5 November 2025, under the theme ‘Order, disorder, re-order? Geopolitics and the transformation of cyberspace.’

Global DPI Summit 2025

The Global Digital Public Infrastructure (DPI) Summit 2025 is scheduled for 4–6 November 2025 in Cape Town, South Africa, under the theme “DPI in Practice: Implementing Tomorrow’s Digital Society Today.’

LACIGF 2025

The Latin American and Caribbean Internet Governance Forum (LACIGF) 2025 will take place on 5–6 November 2025 in Córdoba, Argentina, with a welcome reception on 4 November. 



READING CORNER
AI and art feature

AI can now write, paint, and act. Does this devalue human craft and authenticity? Explore the debate on whether generative AI is a tool that frees creators or one that replaces them.

Weekly #235 Beyond the blip: What the AWS outage reveals about cloud resilience

 Logo, Text

17 – 24 October 2025


HIGHLIGHT OF THE WEEK

Beyond the blip: What the AWS outage reveals about cloud resilience

For a few hours on Monday, much of the internet flickered out of reach. What began as an issue in one Amazon Web Services (AWS) data centre — the US-East-1 region in Virginia — quickly cascaded into a global failure. A seemingly minor Domain Name System (DNS) configuration error triggered a chain reaction, knocking out the systems that handle traffic between servers. 

The root cause was identified as a failure in the DNS resolution for internal endpoints, particularly affecting DynamoDB API endpoints. (Sidenote: DynamoDB is a cloud database that stores information for apps and websites, while API endpoints are the access points where these services read or write that data. During the AWS outage, these endpoints stopped working properly, preventing apps from retrieving or saving information.)

Because so many websites, apps and services — from social media platforms and games to banking and government portals — rely on AWS, the outage affected homes, offices, and governments worldwide. 

AWS engineers rushed to isolate the fault, eventually restoring normal operations by late afternoon. But the damage had already been done. The outage exposed a fragile truth about today’s digital world: when one provider falters, much of the internet stumbles with it. An estimated one-third of the world’s online services run on AWS infrastructure.

 Person, Device, Grass, Lawn, Lawn Mower, Plant, Tool, machine, Wheel, Network, Face, Head

The incident was more than a momentary blip; it highlighted several systemic risks in today’s digital infrastructure. First, the outage underscored the global dependence on a small number of hyperscale cloud providers. This dependence acts as a single point of failure: a disruption within one provider can disrupt thousands of services relying on it. Secondly, the root cause, being a DNS resolution error, revealed how one component in a complex system can be the catalyst for massive disruption. Thirdly, despite cloud providers offering multiple ‘availability zones’ for redundancy, the event demonstrated that a fault in one critical region can still have worldwide consequences.

The lesson here is clear: as cloud computing becomes ever more central to the digital economy, resilience and diversification cannot be afterthoughts. Yet few true alternatives exist at AWS’s scale beyond Microsoft Azure and Google Cloud, with smaller rivals from IBM to Alibaba, and fledgling European plays, far behind.

IN OTHER NEWS THIS WEEK

Child safety online: The global reckoning continues

The global reckoning over kids’ online safety continues. The last few weeks have shown that governments are moving beyond guiding tech companies and are considering direct regulation. The latest example comes from New Zealand, where a bill will be introduced in parliament to restrict social-media access for children under 16, requiring platforms to conduct age verification before allowing use.

A landmark trial on child safety online has just been given a start date. In January 2026, the Los Angeles County Superior Court will hear a consolidated case bringing together hundreds of claims from parents and school districts against Meta, Snap, TikTok, and YouTube. Plaintiffs allege that these platforms are addictive and expose young people to mental health risks, while providing ineffective parental controls and weak safety features. Meta founder Mark Zuckerberg, Instagram head Adam Mosseri, and Snap CEO Evan Spiegel have been ordered to testify in person, despite the companies’ arguments that it would be burdensome. The judge emphasised that direct testimony from CEOs is crucial to assess whether the companies were negligent in failing to take steps to mitigate harm.

Online gaming platforms, especially those popular with children, are also being re-examined. The platform Roblox (which allows user-generated worlds and chats) has come under fire for failing to protect its youngest users. In the USA, for example, the Florida Attorney General has issued criminal subpoenas accusing Roblox of being ‘a breeding ground for predators’ for children. In the Netherlands, the platform is facing an investigation by child-welfare authorities into how it safeguards young users. In Iraq, the government has banned Roblox nationwide, citing “sexual content, blasphemy and risks of online blackmail against minors.” 

Social media and gaming aren’t the only fronts. AI chatbots are now under scrutiny for how they interact with minors. In Australia, the eSafety Commissioner has sent notices to four AI chatbot companies asking them to detail their child-protection steps — specifically, how they guard against exposure to sexual or self-harm material. 

Meanwhile, Meta has announced new parental-control measures: parents will be able to disable their teens’ private chats with AI characters, block specific bots, and view what topics their teens are discussing, though not full transcripts. These rules are expected to roll out early next year in the USA, UK, Canada and Australia. These changes follow criticism that Meta’s AI-character chatbots enabled flirtatious or age-inappropriate conversations with minors.

For youth, the digital world is a primary space for social, emotional, and cognitive development, shaped by the content and interactions they find there. This new reality requires parents to look beyond simple screen time to understand the nature of their children’s online experiences. It also sends a clear message to tech companies about accountability and challenges regulators to create rules that are both enforceable and adaptable to rapid innovation.


AI, content, and the future of search

As AI continues to reshape how people access and interact with information, governments and tech companies are grappling with the opportunities—and dangers—of AI-driven content and search tools. 

In Europe, the Dutch electoral watchdog recently warned voters against relying on AI chatbots for election information, highlighting concerns that such systems can inadvertently mislead citizens with inaccurate or biased content. Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

At the same time, search engines—the traditional gateways to online knowledge—are experiencing a wave of innovation. OpenAI has unveiled its new browser, ChatGPT Atlas, which reimagines the way users interact with the web. Atlas introduces an ‘agent mode,’ a premium feature that can access a user’s laptop, click through websites, and explore the internet on their behalf, leveraging browsing history and user queries to provide guided, explainable results. Altman described it simply: ‘It’s using the internet for you.’ Two days later, Microsoft unveiled an equivalent offering—its Copilot Mode in Edge within the Microsoft Edge browser. The design, functions and timing were notably similar, underscoring how the major platforms are rapidly converging on this next-generation AI browser paradigm.

Meanwhile, traditional browser landscapes are also shifting under geopolitical pressures. In Russia, Apple has been directed to preinstall a Russian search engine by default on devices, signalling the increasing role of national regulation in shaping how users access information.
These developments arrive against a backdrop of broader calls for global caution on AI. The Superintelligence Statement, endorsed by leading researchers and technologists, urges careful oversight and governance of advanced AI systems to prevent unintended harms—echoing the concerns of regulators and governments worldwide.


Malware, spyware, and tensions

Recent developments in cybersecurity have underscored the growing sophistication of digital threats and the geopolitical tensions they generate. F5 Networks recently suffered a major breach involving a stealthy backdoor called BRICKSTORM, linked by cybersecurity firm Resecurity to the China-based threat actor UNC5221. The malware, a self-contained executable, targets F5’s widely used BIG-IP systems, allowing attackers to maintain persistent access, exfiltrate data, and move laterally across networks. With over 250,000 BIG-IP systems exposed online, the potential impact of this exploit is significant.

In a separate escalation, China has accused the USA of cyberattacks against its National Time Service Center, a critical infrastructure that maintains the country’s official time. According to China’s Ministry of State Security, the US National Security Agency allegedly exploited vulnerabilities in mobile messaging services between 2022 and 2024 to infiltrate NTSC systems, aiming to steal state secrets and map network infrastructure. China claims to have presented evidence of these actions, framing them as part of broader U.S. cyber operations worldwide.

Meanwhile, a landmark US federal court ruling has permanently barred the Israeli spyware company NSO Group from targeting WhatsApp users. The case relates to the 2019 Pegasus spyware incident, which compromised over 1,400 devices without user interaction. The injunction prohibits NSO from accessing WhatsApp’s systems, effectively restricting the company’s operations on the platform. While NSO maintains that the ruling does not affect its clients, WhatsApp emphasised that it now prevents the firm from targeting its users.

LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

151st Assembly of the IPU

The 151st Assembly of the IPU took place in Geneva, Switzerland, on 19-23 October 2025. Under the theme ‘Upholding humanitarian norms and supporting humanitarian action in times of crisis,’ the Assembly held its general debate and reviewed progress on previous resolutions.

Discussions also addressed the protection of victims of illegal international adoption, considered amendments to the IPU Statutes and Rules, and set priorities for upcoming committee work. The meeting provided a platform for dialogue on humanitarian, democratic, and governance issues among national parliaments.

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th UN Conference on Trade and Development (UNCTAD16) took place from 20–23 October 2025 in Geneva, bringing together world leaders, ministers, and experts under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

Over four days and 40 high-level sessions, delegates discussed trade, investment, technology, and sustainability, setting UNCTAD’s direction for the next four years.

The opening ceremony featured UNCTAD Secretary-General Rebeca Grynspan, Swiss Federal Councillor Guy Parmelin, and Tatiana Valovaya, along with messages from Prime Minister Mia Amor Mottley, President José Ramos-Horta, Prime Minister Phạm Minh Chính, and UNGA President Annalena Baerbock.

A highlight was the keynote address by UN Secretary-General António Guterres and the launch of the Sevilla Forum on Debt, a new platform for dialogue on debt sustainability and innovation.


LOOKING AHEAD
 Person, Face, Head, Binoculars

The UN Convention against Cybercrime will be signed in Hanoi, Vietnam, on 25–26 October 2025. The two-day event will include a high-level opening and signing ceremony, co-chaired by Viet Nam’s Prime Minister and the UN Secretary-General, followed by plenary statements from member states and international organisations. A series of side events and roundtables will address topics such as AI-driven scams, online abuse, evidence collection in cryptocurrency investigations, and capacity-building for cybercrime prevention.

On 27 October, UNCTAD will host a webinar launching its Technical Note on Artificial Intelligence and Consumer Protection and a Checklist for consumer protection agencies deploying AI.

The dialogue will explore issues related to the interplay between AI, human agency, and human rights; ways to achieve safe, secure, and trustworthy AI; and the role of International Geneva in advancing the governance of such AI systems.

The Paris Peace Forum 2025 will take place on 29–30 October in Paris under the theme ‘New Coalitions for Peace, People, and the Planet.’ Five sessions will focus on digital and cyber issues, including cyber peace, digital media in conflict resolution, disinformation, multistakeholder leadership, and the launch of the Common Good Cyber Fund.

The AI for Good Impact Africa event will take place on 31 October in Johannesburg, coinciding with AI Expo Africa. Organised by ITU, it brings together innovators, policymakers, and stakeholders to showcase AI solutions for societal challenges, build local capacity, and promote international AI standards through keynotes, panels, pitching sessions, and hands-on workshops.



READING CORNER
2151228164

AI is reshaping the justice system with unprecedented efficiency, but true progress depends on whether humanity is ready to balance innovation with responsibility and ethical judgement.

Weekly #234 EU moves on kids’ social media: Verify, don’t ban

 Logo, Text

10 – 17 October 2025


HIGHLIGHT OF THE WEEK

EU moves on kids’ social media: Verify, don’t ban

EU ministers met in Horsens, Denmark (9–10 October), amid an intensifying debate on how young people should use social media. The Danish presidency tabled the Jutland Declaration, a political push for stronger protections that puts age verification at the centre of online safety for minors. Ministers endorsed firmer enforcement of the Digital Services Act (DSA), signalled support for interoperable, privacy-preserving age checks, and floated the idea of a ‘digital majority’ discussion, while stopping short of endorsing one uniform minimum age across the block.

The declaration argues that platforms accessible to minors must ensure ‘a high level of privacy, safety, and security’ and that effective age verification is ‘one of the essential tools’ to curb exposure to illegal or harmful content and manipulative design. It explicitly backs EU-wide solutions tied to the European Digital Identity (EUDI) Wallet, positioned as a way to verify age with minimal data disclosure, and calls out addictive features (infinite scroll, autoplay, streaks) and risky monetisation (certain loot boxes, micro-transactions) for tighter controls. The text also stresses ‘safety-by-design’ defaults, support for parents and teachers, and meaningful participation of children in the policy process.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

Two days later, ministers backed the Danish plan in part: countries rallied behind the common EU layer for age verification but resisted a single EU-wide age limit. The emerging compromise is to standardise ‘how to verify’ at the EU level while leaving ‘what age to set’ to national law, avoiding fragmentation of technical systems while respecting domestic choices. Pilots for the EU approach are expanding in several member states and align with the EUDI Wallet rollout due by the end of 2026.

Denmark also proposed a national ban on social media for under-15s, which sharpened the conversation. Several governments favoured stricter child-safety enforcement and robust age checks over outright prohibition. Still, Copenhagen’s initiative raised the political stakes and accelerated a broader European rethink of youth online protections.

Regulatory pressure is rising in parallel. Over the past week, the European Commission sent fresh DSA information requests to major platforms, including Snapchat, YouTube, Apple and Google, probing how they keep minors away from harmful content and how their age-assurance systems work. The probe follows the Commission’s final DSA guidelines on protecting minors issued in July, which spell out ‘appropriate and proportionate’ measures for services accessible to minors (Article 28(1) DSA), from default privacy safeguards to risk mitigation for recommender systems. Violations can lead to substantial fines.

The policy trade-offs now come into clearer focus. Effectiveness hinges on high-assurance age checks that are hard to spoof yet privacy-preserving enough to avoid building new identity honeypots. The EUDI Wallet architecture promises selective disclosure, proving you’re over 16 without handing over full identity, if implemented with strict data-minimisation and independent certification. Feasibility depends on broad industry uptake, SME-friendly compliance, and cross-border interoperability, so a teen’s age attestation works the same in Lisbon and Ljubljana, for instance. Rights impacts will be judged on due process, appeal mechanisms, and transparency of any access restrictions, especially where national rules set higher age bars than platform terms.

Globally, lawmakers are testing bolder moves with mixed feasibility. Australia’s incoming ban on social media for under-16s illustrates the enforcement dilemma: platforms aren’t required to verify age; instead, they must infer it using AI and behavioural signals, an approach Google told a parliamentary hearing will be ‘extremely difficult’ to police and may not make children safer. The EU’s diverging bet is that verifiable, privacy-respecting age checks, combined with safety-by-design and content rules, can reduce harm without a blanket prohibition.

What to watch next is execution: the Commission mandate to build the EU layer for age verification; publication of impact assessments that weigh safety gains against privacy risks; and the expansion of national pilots toward the EUDI Wallet’s end-2026 deadline. In the meantime, DSA enforcement actions and any national moves like Denmark’s proposed under-15 ban will test how far Europe is willing to go to reduce minors’ exposure to harmful content and addictive design without overreaching on surveillance or excluding young people from legitimate online participation.

Why this matters

A common EU age-verification layer paired with national discretion on age limits could be Europe’s most consequential shift in minors’ online safety since the DSA: it promises fewer loopholes for harmful content and design, clearer obligations for platforms, and a privacy-by-design path via the EUDI Wallet. Whether it succeeds will depend on rigorous technical standards, credible oversight, and careful calibration between protection, privacy, and children’s rights to information and participation.

IN OTHER NEWS THIS WEEK

Chips and sovereignty: Controls tighten while orders surge

ASML heads into earnings on a wave of multi-billion-dollar AI ‘megadeals,’ with analysts expecting a sharp pickup in new bookings as customers expand 2026+ capacity, another sign that the datacenter build-out is reshaping chip-equipment demand. At the same time, China is reportedly tightening customs checks on Nvidia’s China-market AI processors at major ports, underscoring how export controls and counter-measures are now a permanent feature of the supply chain. In Europe, The Hague took the unusual step of invoking the Goods Availability Act to steady governance at Nexperia, citing risks to economic security. And Taipei downplayed the impact of Beijing’s rare-earth curbs, saying Taiwan can source most needs elsewhere. The throughline: expanding orders on one end, more state intervention and scrutiny on the other.


New guardrails: From California chatbots to EU–OpenAI talks

Regulators are sharpening the rulebook around AI and platforms. California adopted the first dedicated ‘AI chatbot safety’ law, adding disclosure and safety expectations for conversational systems. In the UK, competition authorities moved against Google over market dominance questions, signalling continued antitrust heat on Big Tech. Brussels, for its part, opened a structured dialogue with OpenAI on fair and transparent development practices, while Tokyo pushed a domestic-AI drive framed as a national-security priority. Together, the steps point to a patchwork tightening: safety standards, competition remedies, and security-led industrial policy advancing in parallel.


AI infrastructure goes global: Public–private builds accelerate

Big checks and unusual pairings defined infrastructure news. Google pledged USD 15 billion to supercharge India’s AI stack, compute, subsea capacity, and developer support, aiming to broaden access and local capability. In a separate lane, Google and the World Bank announced a partnership to help governments stand up AI-enabled public infrastructure (think service delivery and data platforms). And in the Southern Cone, Brazil said construction on a TikTok data centre will start within six months, a bet on localisation amid rising scrutiny of where data lives and who can access it. The momentum suggests AI and platform infrastructure are becoming tools of development policy, not just corporate capex.


Frontier science: A teleportation step that matters

Oxford researchers reported a milestone in quantum teleportation, improving the reliability of moving quantum states between distant nodes. While the phrase sounds sci-fi, the advance is about plumbing: lower-error links are what future quantum networks will need for secure communications and distributed computing. In practical terms, this kind of lab-to-prototype progress is what will determine whether quantum networking can scale beyond carefully curated experiments.

LOOKING AHEAD
 Person, Face, Head, Binoculars

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th Session of the UN Conference on Trade and Development (UNCTAD16) will take place from 20 to 23 October 2025 in Geneva. Hosted by Switzerland, it will gather heads of state, ministers, international organisations, business leaders, academics, and civil society under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

With over 40 high-level sessions, the conference will delve into trade, investment, technology, and sustainable growth. A key outcome will be defining UNCTAD’s mandate and policy direction for the next four years.

Global Cyber Conference 2025 

The Global Cyber Conference returns for its 4th edition, once again gathering senior cybersecurity stakeholders, decision-makers, public authorities, and academia from across the globe. It provides a robust networking and learning platform to gain a shared understanding of what must be done to strengthen cyber resilience. The program is now structured around four main steps: Global Risks, Governance, Hands-on Resilience, and Future-ready Strategies. Each step is covered in depth to offer attendees comprehensive knowledge, practical use cases, and critical tools to effectively address the challenges facing their organisations.

Singapore International Cyber Week

Singapore International Cyber Week (SICW) returns to the Sands Expo and Convention Centre on 20–23 October 2025, marking its milestone 10th edition under the theme “Shaping the Next Era of Global Cybersecurity.” Organised by Singapore’s Cyber Security Agency, SICW is the Asia-Pacific’s most established policy forum, bringing together ministers, regulators, industry leaders and researchers for high-level dialogues, bilateral meetings and capacity-building sessions; it runs alongside the GovWare Conference & Exhibition (21–23 Oct), the anchor trade event drawing 13,000+ participants. If your work touches cyber diplomacy, norms, critical infrastructure or public–private cooperation, this is the region’s key week to watch and engage.

Diplo will be present at this conference through the Geneva Dialogue on Responsible Behaviour in Cyberspace, an initiative launched in 2018 by the Swiss Federal Department of Foreign Affairs (FDFA) and implemented by DiploFoundation, with the support of the Republic and State of Geneva, C4DT, and UBS. The Geneva Dialogue is organising a session on 21 October, which will present the Geneva Manual on Responsible Behaviour in Cyberspace, exploring the evolving roles and responsibilities of all stakeholders in implementing cyber norms and confidence-building measures for critical infrastructure protection. It draws on the Geneva Manual’s latest chapter, which translates high-level commitments into practical guidance for action in today’s complex threat environment.


LAST WEEK IN GENEVA and at the UN

Geneva Peace Week 2025 | Geneva

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit | Geneva

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.

WSIS+20 review process | Online and New York

This has been a busy week for those involved in or following the WSIS+20 review process. On Monday and Tuesday, the co-facilitator hosted online consultations with stakeholders and member states, who were invited to provide comments on the zero draft (the very first version of the WSIS+20 review outcome document). On Wednesday, the second preparatory meeting offered another opportunity for member states and observers to share their views and expectations on both the zero draft and the overall review process. And starting informal negotiations started on Thursday; they continue today (Friday), as well as on Monday and Tuesday next week. As these discussions are unfolding, we invite you to take a look at the written inputs submitted in response to the zero draft; they may give you a sense of what to expect during the negotiations. 

You can also follow the WSIS+20 review process – and dive deep into its background – on our dedicated page on the Digital Watch Observatory


READING CORNER
Wmv3c0xA 650 312

Why does form matter? Aldo Matteucci explores how shapes – of words, ships, and states – carry meaning. From rhetoric to Chinese junks to the modern border, structure tells its own story.

BLOG featured image 2025 120

When did diplomacy start? Earlier than we think. We don’t know the exact moment diplomacy began, and we probably never will. But we can say, with high

Smart cities feature

Smart cities promise efficiency but risk surveillance and algorithmic bias. Discover how we can build human-centered cities where AI serves people, not just systems.

Cities and tech

They don’t talk treaties; they talk APIs. Discover how tech ambassadors are navigating the complex relationship between cities and big tech.

Discover the surprising link between streaming and statecraft. This analysis breaks down how Netflix content influences foreign policy, cultural diplomacy, and global power structures.

AI investments profitability business roadmap OpenAI Microsoft ChatGPT scalability

Billions chase AI’s promise while profits hide in the server room, drowned by power bills, depreciation, and unrealistic goals.

Lettre d’information du Digital Watch – Numéro 103 – septembre 2025

Rétrospective septembre 2025

Alors que l’AGNU80 mettait l’accent sur l’IA et la coopération numérique, l’attention mondiale s’est tournée vers la manière dont la technologie remodèle la diplomatie, la démocratie et le pouvoir.

Cette édition vous présente nos meilleures analyses et actualités issues du domaine numérique, des débats sur l’IA open source à la crise d’identité croissante des réseaux sociaux.

Pleins feux sur l’AGNU80 : Les dirigeants mondiaux placent l’IA et la coopération numérique au cœur de la diplomatie.

L’impératif de l’open source : Pourquoi l’ouverture devient un atout stratégique dans la course à l’IA.

La montée en puissance de l’IA :  À mesure que les réseaux sociaux deviennent plus artificiels, les plateformes sont confrontées à une crise d’authenticité.

TikTok à l’américaine : Un changement d’image sous le feu des critiques, reflet de tensions plus profondes entre confiance et contrôle.

Puces et souveraineté :  De la mondialisation à l’autonomie prudente dans la course aux semi-conducteurs.

Au Népal, Discord défie l’interdit : Quand une application bannie devient l’instrument d’une démocratie inattendue.

Le terrain de jeu numérique : Les gouvernements évaluent les restrictions et les couvre-feux pour les jeunes utilisateurs en ligne.

Le mois dernier à Genève :  Les temps forts des événements qui façonnent la gouvernance numérique internationale..



INTELLIGENCE ARTIFICIELLE

Le Dialogue mondial sur la gouvernance de l’IA a été lancé afin de favoriser des discussions ouvertes et inclusives sur des questions telles que la sécurité et la fiabilité de l’IA, la fracture numérique, l’éthique, les droits de l’Homme, la transparence, la responsabilité, l’interopérabilité et le développement open source.

Le Secrétaire général des Nations Unies a ouvert les candidatures pour un comité scientifique international indépendant sur l’IA composé de 40 membres, mandaté dans le cadre du Pacte numérique mondial pour fournir des évaluations annuelles fondées sur des données probantes concernant les opportunités, les risques et les impacts de l’IA au Dialogue mondial sur la gouvernance de l’IA et à l’Assemblée générale.

Une coalition d’experts et de dirigeants mondiaux a lancé le Global Call for AI Red Lines, une initiative qui préconise des lignes rouges claires pour régir le développement et le déploiement de l’IA.

L’Albanie a présenté le premier fonctionnaire public au monde alimenté par l’IA, nommé Diella. Nommé pour superviser les marchés publics, le ministre virtuel représente une tentative d’utiliser la technologie elle-même pour créer un gouvernement plus transparent et plus efficace, dans le but de garantir des procédures « 100 % incorruptibles ».

Le Kazakhstan va établir un ministère de l’Intelligence artificielle et du Développement numérique afin de réaliser son objectif de faire du pays une nation entièrement numérique d’ici trois ans, dans le cadre de la stratégie « Digital Kazakhstan » à venir.

L’Italie est devenue le premier pays de l’UE à adopter une loi nationale sur l’IA, introduisant des règles détaillées pour régir le développement et l’utilisation des technologies d’IA dans des secteurs clés tels que la santé, le travail et la justice.

Le gouvernement mexicain élabore actuellement une loi visant à réglementer l’utilisation de l’IA dans le doublage, l’animation et les voix off afin d’empêcher le clonage vocal non autorisé et de protéger les droits créatifs.
L’UE est sur le point de dévoiler sa « stratégie d’application de l’IA » afin de promouvoir l’IA locale en tant qu’atout stratégique pour la compétitivité, la sécurité et la résilience, réduisant ainsi la dépendance vis-à-vis des technologies américaines et chinoises.

TECHNOLOGIES

Les États-Unis, le Japon et la Corée du Sud ont organisé des réunions trilatérales à Séoul et Tokyo afin de faire progresser la coopération quantique, en mettant l’accent sur la sécurisation des écosystèmes contre les menaces cybernétiques, physiques et liées à la propriété intellectuelle.
Les États-Unis et le Royaume-Uni ont signé un accord de prospérité technologique afin de renforcer leur collaboration dans le domaine des technologies de pointe, en insistant particulièrement sur l’intelligence artificielle, la technologie quantique et les fondements sécurisés nécessaires à l’innovation future.

Des chercheurs de l’université de Pennsylvanie ont démontré que les réseaux quantiques et classiques peuvent partager l’infrastructure fibre optique existante en utilisant le protocole Internet standard, une avancée majeure qui a de vastes implications pour la gouvernance, les infrastructures et l’avenir des sociétés numériques.

Les ministres européens ont signé la déclaration de la Semicon Coalition, appelant à l’adoption d’une loi européenne sur les puces électroniques 2.0 afin de renforcer la résilience, l’innovation et la compétitivité dans le domaine des semi-conducteurs grâce à la collaboration, à l’investissement, au développement des compétences, à la durabilité et à des partenariats mondiaux.
Les États-Unis ont proposé de ne produire que la moitié des puces américaines à Taïwan et de transférer le reste aux États-Unis, mais Taïwan a rejeté cette idée, affirmant qu’elle n’avait jamais fait partie des discussions officielles.

INFRASTRUCTURE

Meta a annoncé le lancement de Candle, un nouveau système de câbles sous-marins conçu pour améliorer la connectivité numérique en Asie de l’Est et du Sud-Est. Ce réseau de 8 000 kilomètres reliera le Japon, Taïwan, les Philippines, l’Indonésie, la Malaisie et Singapour d’ici 2028, offrant une capacité record de 570 térabits par seconde (Tbps).

CYBERSÉCURITÉ

La Chine a promulgué l’une des lois les plus draconiennes au monde en matière de signalement des incidents de cybersécurité, obligeant les principaux fournisseurs d’infrastructures et tous les opérateurs de réseaux à signaler les incidents graves dans l’heure qui suit leur constatation.

Le Brésil est sur le point d’adopter sa première loi nationale sur la cybersécurité, le Cadre juridique de la cybersécurité, qui créera une Autorité nationale de cybersécurité chargée de centraliser la surveillance et de renforcer la protection des citoyens et des entreprises.

Le groupe cybercriminel Radiant a renoncé à ses tentatives d’extorsion à l’encontre des écoles Kido et a présenté ses excuses, affirmant que toutes les données relatives aux enfants avaient été supprimées. Cependant, les experts doutent de la sincérité de cette démarche.

Le brasseur japonais Asahi Group Holdings a interrompu la production de son usine principale à la suite d’une cyberattaque qui a provoqué des défaillances majeures du système.

L’ Australie a publié des directives réglementaires concernant l’interdiction imminente de l’utilisation des réseaux sociaux par les moins de 16 ans, qui entrera en vigueur le 10 décembre 2025. Ces directives exigent des plateformes qu’elles vérifient l’âge des utilisateurs, suppriment les comptes des mineurs et bloquent toute tentative de réinscription. L’interdiction actuelle concerne déjà Facebook, TikTok, YouTube et Snapchat. La responsable de l’eSafety Commissioner australien, Julie Inman Grant, a adressé une lettre à 16 autres entreprises, dont WhatsApp, Reddit, Twitch, Roblox, Pinterest, Steam, Kick et Lego Play, afin qu’elles « évaluent elles-mêmes » si elles sont concernées par cette interdiction.

Le Premier ministre grec Kyriakos Mitsotakis a indiqué que la Grèce pourrait envisager d’interdire l’utilisation des réseaux sociaux aux enfants de moins de 16 ans.

Les législateurs français proposent de nouvelles règles visant à limiter l’utilisation des réseaux sociaux par les adolescents, notamment un couvre-feu nocturne automatique désactivant les comptes des 15-18 ans entre 22 h et 8 h afin de répondre aux préoccupations en matière de santé mentale.

OpenAI a lancé une version spécialisée de ChatGPT adaptée aux adolescents, intégrant une technologie de prédiction de l’âge afin de restreindre l’accès à la version standard aux utilisateurs de moins de 18 ans. La société a également introduit de nouveaux contrôles parentaux, offrant aux familles une meilleure supervision de l’utilisation de la plateforme par leurs adolescents.
Meta développe actuellement des comptes Facebook et Messenger spécifiques aux adolescents, avec des paramètres de confidentialité et des contrôles par défaut plus stricts, afin de créer un environnement en ligne plus sûr et mieux adapté à leur âge.

ÉCONOMIE

Apple a demandé à la Commission européenne d’abroger la loi sur les marchés numériques (DMA), arguant qu’elle l’oblige à choisir entre affaiblir la sécurité de ses appareils ou priver les utilisateurs européens de certaines fonctionnalités, citant notamment le retard pris dans le lancement de services tels que la traduction en direct, la duplication d’écran de l’iPhone et les outils de localisation améliorés.

L’ Union européenne et l’Indonésie ont finalisé un accord de partenariat économique global et de protection des investissements, axé sur la technologie, la numérisation et la durabilité. Cet accord élimine les droits de douane sur 98,5 % des échanges commerciaux, élargit l’accès au marché et garantit l’approvisionnement en matières premières essentielles pour les industries stratégiques.

Les Émirats arabes unis ont signé l’accord multilatéral entre autorités compétentes dans le cadre du CARF, dont la mise en œuvre est prévue d’ici 2027 afin de permettre le partage automatique des données fiscales relatives aux cryptomonnaies et de renforcer la surveillance du secteur et la transparence mondiale.La Banque populaire de Chine a ouvert un centre numérique dédié au RMB à Shanghai afin d’étendre son utilisation à l’échelle mondiale et de renforcer les services des marchés financiers.

RH

Le Comité européen de la protection des données (EDPB) a adopté des directives clarifiant l’interaction entre la loi sur les services numériques (DSA) et le règlement général sur la protection des données (RGPD). L’objectif est d’assurer la cohérence des règles relatives à des problématiques telles que la transparence des systèmes de recommandation, la protection des mineurs et la publicité en ligne.

L’autorité chinoise de régulation du cyberespace a proposé que les principales plateformes en ligne mettent en place des comités de surveillance indépendants composés d’experts afin de contrôler les pratiques et la sécurité en matière de données, toute non-conformité pouvant entraîner l’intervention des autorités provinciales.

Le Ghana a lancé une campagne nationale d’un an sur la protection de la vie privée afin de sensibiliser le public et de renforcer sa confiance, complétée par des initiatives professionnelles telles que l’Association ghanéenne des professionnels de la protection de la vie privée et la reconnaissance des délégués à la protection des données certifiés.
La plateforme de médias sociaux Discord a signalé une violation de données causée par un fournisseur de services tiers compromis, exposant les informations personnelles des utilisateurs qui avaient contacté ses équipes d’assistance et de confiance et de sécurité.

JURIDIQUE

La Commission européenne a infligé une amende de près de 3,5 milliards de dollars à Google pour avoir abusé de sa position dominante dans le domaine de la publicité numérique en favorisant sa propre plateforme AdX dans les outils de diffusion et d’achat d’annonces, enfreignant ainsi les règles antitrust de l’UE.

La start-up spécialisée dans l’intelligence artificielle, Anthropic, a accepté de verser 1,5 milliard de dollars pour régler un procès en matière de droits d’auteur l’accusant d’utiliser des livres piratés pour former son chatbot Claude AI.

Amazon a accepté de verser 2,5 milliards de dollars pour régler les accusations de la FTC selon lesquelles elle aurait inscrit de manière trompeuse 35 millions de clients à Prime sans leur consentement explicite et aurait délibérément rendu la résiliation difficile.

Elon Musk, via sa société xAI, poursuit OpenAI pour détournement présumé de technologie. De son côté, OpenAI demande au tribunal de classer l’affaire, qu’elle juge sans fondement et relevant du harcèlement persistant de Musk.

Apple et OpenAI ont demandé à un juge fédéral de rejeter l’allégation de Musk selon laquelle ils se seraient entendus pour désavantager le chatbot Grok de xAI, arguant que leur partenariat n’est pas exclusif et que xAI n’a démontré aucun préjudice concurrentiel réel.
Le Tribunal de l’Union européenne a donné raison à Meta et TikTok dans leur contestation de la taxe de surveillance prévue par la loi européenne sur les services numériques, jugeant que le prélèvement de 0,05 % avait été calculé de manière inéquitable et imposait une charge financière disproportionnée aux entreprises.

SOCIOCULTUREL

Après avoir brièvement interdit les réseaux sociaux, le Népal a levé les restrictions. Les Népalais se sont servis de Discord pour élire leur nouveau Premier ministre.

Un décret du président américain Donald Trump a ouvert la voie à une nouvelle société américaine qui détiendra 80 % des parts de TikTok, laissant ByteDance et ses investisseurs chinois avec une participation minoritaire inférieure à 20 %.

Le gouvernement britannique a annoncé son intention de rendre obligatoire l’identification numérique pour prouver le droit au travail d’ici la fin de la législature actuelle, prévue au plus tard en 2029.

Un tribunal néerlandais a statué que Meta doit permettre aux utilisateurs de Facebook et d’Instagram de définir un flux chronologique permanent comme flux par défaut, en rendant cette option facilement accessible et en la conservant lors des redémarrages de l’application.

YouTube va rétablir les comptes précédemment bannis pour avoir diffusé à plusieurs reprises des informations erronées sur la COVID-19 et l’élection présidentielle américaine de 2020, marquant ainsi un nouveau recul de ses politiques de modération.
Meta et OpenAI ont lancé des applications de réseaux sociaux proposant des flux de vidéos générées par l’IA, ce qui soulève des inquiétudes quant à la qualité de l’IA.

DÉVELOPPEMENT

Le PNUD lancera une Académie gouvernementale sur la blockchain en 2026 afin de former les fonctionnaires à la blockchain, à l’IA et aux technologies émergentes, soutenant ainsi la croissance économique axée sur la technologie et le développement durable.
Le Guide 2025 des plateformes de participation numérique a été publié afin d’aider les gouvernements et la société civile à concevoir et à gérer des plateformes numériques qui renforcent la transparence et l’engagement civique.


La technologie était omniprésente lors de l’Assemblée générale des Nations unies de cette année. Que ce soit lors du débat général, des événements parallèles sur la prospérité numérique ou du lancement d’un nouveau dialogue sur la gouvernance de l’IA, les gouvernements et les parties prenantes ont été confrontés à la question urgente de savoir comment garantir que la transformation numérique serve l’humanité. Voici les moments clés.

Journée de la coopération numérique : des principes à la mise en œuvre dans la gouvernance numérique mondiale

Le 22 septembre, le Bureau des Nations Unies pour les technologies numériques et émergentes (ODET) a organisé une Journée de la coopération numérique, marquant le premier anniversaire du Pacte numérique mondial. Cet événement a réuni des dirigeants issus des gouvernements, des entreprises, du monde universitaire et de la société civile afin de discuter de la manière de passer de la définition de principes à la mise en œuvre de la gouvernance numérique. Les discussions ont porté sur les économies numériques inclusives, la gouvernance de l’IA et les infrastructures publiques numériques, avec des sessions consacrées à la vie privée, aux droits de l’Homme dans la gouvernance des données et au rôle de la technologie dans le développement durable et l’action climatique. Les panels ont également exploré l’impact de l’IA sur les arts et l’innovation, tandis que les tables rondes ont mis en évidence les stratégies pour une utilisation responsable et équitable de la technologie. La Journée de la coopération numérique est appelée à devenir une plateforme annuelle permettant d’examiner les progrès accomplis et de relever les nouveaux défis de la coopération numérique internationale.

Digital@UNGA 2025 : Le numérique au service du bien commun – Pour les personnes et la prospérité

Le 23 septembre, l’Union internationale des télécommunications (UIT) et le Programme des Nations Unies pour le développement (PNUD) ont organisé Digital@UNGA 2025 : Le numérique au service du bien commun – Pour les personnes et la prospérité. Cet événement phare a mis en avant les technologies numériques comme outils d’inclusion, d’équité et d’opportunité. Tout au long de la semaine, des sessions parallèles ont exploré les thèmes de la confiance, des droits et de la connectivité universelle, tandis que des événements annexes ont examiné des questions allant de l’IA pour les ODD et l’identité numérique aux infrastructures vertes, aux systèmes d’alerte précoce et à la connectivité spatiale. L’initiative visait à présenter les outils numériques comme un moteur pour les soins de santé, l’éducation et l’autonomisation économique, et à inspirer l’action et le dialogue en faveur d’un avenir numérique équitable et stimulant pour tous.

Débat du Conseil de sécurité sur l’IA

Le Conseil de sécurité des Nations unies a organisé un débat de haut niveau sur l’intelligence artificielle, soulignant le potentiel prometteur de cette technologie et les risques urgents qu’elle représente pour la paix et la sécurité. Le débat, présidé par le président de la République de Corée, Lee Jae Myung, a mis en évidence une reconnaissance commune du fait que l’intelligence artificielle offre d’énormes avantages, mais que sans une coopération et une gouvernance mondiales solides, elle pourrait creuser les divisions, déstabiliser les sociétés et remodeler la guerre de manière dangereuse.

The launch of the Global Dialogue on AI Governance

Les hauts dirigeants ont souligné comment l’IA pouvait stimuler la croissance économique et le développement, en particulier dans les pays du Sud, tandis que les discussions en plénière ont permis aux parties prenantes de présenter leurs points de vue sur la mise en place d’une gouvernance internationale de l’IA agile, réactive et inclusive pour l’humanité. Un représentant des jeunes a clôturé la session en soulignant l’intérêt des jeunes générations à façonner l’avenir de l’IA.

Le dialogue mondial sur la gouvernance de l’IA a pour mission, comme l’a décidé l’Assemblée générale des Nations unies en août dernier, de faciliter des discussions ouvertes, transparentes et inclusives sur la gouvernance de l’IA. La première réunion du dialogue est prévue en 2026, en marge du sommet « AI for Good » à Genève.

Lancement d’un appel à candidatures pour un Comité scientifique international indépendant sur l’IA

Le Secrétaire général des Nations Unies a lancé un appel à candidatures ouvert pour rejoindre le Panel scientifique international indépendant sur l’intelligence artificielle. Approuvé par les États membres en septembre 2024 dans le cadre du Pacte numérique mondial, ce panel composé de 40 membres fournira des évaluations scientifiques fondées sur des preuves concernant les opportunités, les risques et les impacts de l’IA. Ses travaux aboutiront à un rapport de synthèse annuel, pertinent sur le plan politique mais non prescriptif, qui sera présenté au Dialogue mondial, ainsi qu’à deux mises à jour par an au maximum afin de collaborer avec l’Assemblée générale en séance plénière. À l’issue de l’appel à candidatures, le Secrétaire général recommandera 40 membres qui seront nommés par l’Assemblée générale.

Débat général de la 80e session de l’AGNU

Le débat général s’est ouvert le 23 septembre sur le thème « Mieux ensemble : 80 ans et plus au service de la paix, du développement et des droits de l’Homme ». Si les dirigeants ont abordé un large éventail de défis mondiaux, la gouvernance du numérique et de l’IA a été une préoccupation récurrente.

La technologie doit rester au service de l’humanité, et non son maître. Les débats ont souligné la nécessité d’aligner les changements technologiques rapides sur la gouvernance mondiale, les pays appelant à une coopération internationale renforcée et à des approches responsables en matière de développement et d’utilisation des technologies. Les délégations ont souligné que les technologies numériques doivent servir l’humanité – en favorisant le développement, les droits de l’homme et la démocratie – tout en mettant en garde contre les risques croissants posés par l’utilisation abusive de l’IA, la désinformation, la guerre hybride, les cybermenaces et la gouvernance de l’exploitation des minéraux critiques. Les États membres ont exprimé à la fois leur optimisme et leurs préoccupations : ils ont appelé à une gouvernance éthique, centrée sur l’humain et responsable de l’IA, à des garanties plus solides pour la paix et la sécurité, ainsi qu’à des règles et des normes éthiques pour gérer les risques, y compris dans les applications militaires.

Plusieurs déclarations ont appelé à la mise en place d’un cadre mondial pour l’IA, ainsi qu’à une coopération numérique inclusive, à l’accélération des transferts de technologie et à des investissements dans les infrastructures, l’alphabétisation et le développement des talents. Plusieurs dirigeants ont salué les nouveaux mécanismes relatifs à l’IA mis en place par l’Assemblée générale des Nations unies.

Parallèlement à ces mises en garde, les gouvernements ont souligné le potentiel des technologies numériques pour le développement, la santé, l’éducation, la productivité et la transition vers les énergies vertes. Les déclarations ont souligné l’importance de l’inclusion, de l’accès équitable, de la connectivité, de l’alphabétisation numérique et du renforcement des capacités, en particulier pour les pays en développement, notant que l’IA peut stimuler l’autonomie économique et la prospérité à long terme si elle est gérée de manière responsable. Les délégations ont également souligné la nécessité de s’attaquer activement à la fracture numérique par des investissements dans les infrastructures, les compétences et le transfert de technologies, beaucoup soulignant que les avantages de cette nouvelle ère doivent être partagés équitablement entre tous.

Un thème récurrent était que pour combler les fossés technologiques et sociaux, il fallait un multilatéralisme mature et une coopération internationale renforcée. Les intervenants ont averti que la disruption numérique creusait les fossés géopolitiques, les petits pays et les pays en développement exigeant d’avoir leur mot à dire dans l’élaboration des nouveaux régimes de gouvernance. Certains ont également souligné que la promotion de technologies sûres, fondées sur les droits et centrées sur l’humain, la protection contre la cybercriminalité et la gestion de l’influence des entreprises technologiques mondiales étaient essentielles pour la stabilité mondiale.

D’autres ont appelé à la mise en place de garde-fous universels, de normes internationales et de nouveaux cadres pour faire face aux risques liés à la cybercriminalité, à la désinformation, à la répression, à la guerre hybride et à la santé mentale des jeunes.

Les discussions ont mis en évidence un point commun : si l’innovation numérique offre des opportunités extraordinaires en matière de développement, d’inclusion et de croissance, ses risques exigent des normes communes, une coopération mondiale et un engagement en faveur de la dignité humaine.

Vue d’ensemble : Vous trouverez une couverture complète de la 80e session de l’AGNU sur notre page web dédiée.

L’importance stratégique de l’IA open source

Le virage open source de cette année est probablement le développement le plus important dans le domaine de l’IA depuis le lancement de ChatGPT en novembre 2022. Le 20 janvier, DeepSeek a publié son système de raisonnement open source, un « moment Spoutnik de l’IA », selon les termes de Marc Andreessen. Puis, le 23 juillet 2025, l’administration Trump a fait de l’open source une priorité stratégique des États-Unis dans son document « Winning the Race: America’s AI Action Plan » (Gagner la course : le plan d’action américain en matière d’IA).

Ce changement d’orientation en matière d’IA a été contre-intuitif. Les entreprises chinoises ont toujours privilégié les logiciels propriétaires, et les républicains ont rarement été des champions de l’open source. Pourquoi ces deux puissances ont-elles changé de cap ? Parce que l’open source est passé d’une préférence idéologique à une priorité stratégique. La logique est simple : les acteurs doivent s’adapter à la vague de l’open source ou risquer de voir les normes mondiales en matière d’IA pencher de manière décisive en faveur de leurs rivaux.

Quels sont les atouts de l’IA open source ?

L’ IA open source s’est imposée comme une force puissante, avec des atouts en termes de rapidité, de coût, de motivation, d’intégration et d’efficacité.

Sa rapidité provient du développement collectif : des millions de modèles sont constamment testés et améliorés par une communauté mondiale, ce qui permet une innovation beaucoup plus rapide que dans les laboratoires fermés des entreprises.

Le coût est un autre avantage, car les dépenses sont réparties entre les contributeurs et les entreprises, ce qui réduit les obstacles financiers et permet de se concentrer davantage sur des architectures plus intelligentes que sur la puissance de calcul brute.

La motivation des jeunes développeurs stimule également le progrès, car les écosystèmes ouverts attirent les talents en quête d’objectifs, d’apprentissage et de collaboration.

L’ intégration est plus facile dans les systèmes ouverts : leur transparence et leur adaptabilité les rendent mieux adaptés à l’intégration de l’IA dans les industries, l’éducation et les flux de travail, alimentant ainsi un écosystème diversifié d’outils et d’agents.

Enfin, l’open source fait preuve d’une grande efficacité. Des modèles plus petits et bien conçus, comme Mistral 7B, peuvent égaler ou surpasser les plus grands, réduisant ainsi les exigences matérielles et rendant l’IA avancée largement accessible.

Le paradigme ascendant de l’open source

Nous assistons actuellement à un changement majeur vers l’acceptation de l’IA open source, considérée non seulement comme éthiquement favorable, mais aussi, et surtout, comme une solution stratégiquement supérieure pour l’avenir de l’IA. L’ ouverture l’emporte non pas parce qu’elle représente un idéal moral, mais parce qu’elle offre une interopérabilité, une résilience et une innovation supérieures à grande échelle. Le passage à l’IA open source laisse espérer que les valeurs sociétales pourront s’aligner sur les intérêts des entreprises.

Ce texte est adapté de l’analyse de Jovan Kurbalija intitulée « The strategic imperative of open source AI » (L’impératif stratégique de l’IA open source). Veuillez lire l’original ci-dessous.

The strategic imperative of open source
www.diplomacy.edu

This year, open-source AI transformed from an ideological preference into a strategic imperative, a shift echoing a clear lesson from digital history: open systems win. Just as the open protocols of the internet and the collaborative Linux operating system outcompeted closed, proprietary rivals, today’s open AI models are set to dominate. Openness is no longer just a principle; it is the winning strategy.

L’essor de l’IA : lorsque les réseaux sociaux deviennent plus artificiels

Le 25 septembre, Meta a discrètement lancé Vibes, un nouveau flux de vidéos courtes dans l’application Meta AI, entièrement alimenté par l’IA. Plutôt que de mettre en avant de véritables créateurs ou du contenu amateur, le flux est construit autour de contenu synthétique.

Le 30 septembre, OpenAI a dévoilé Sora, une application complémentaire centrée sur des vidéos courtes créées par l’IA, avec des fonctionnalités « caméo » permettant aux utilisateurs d’insérer leur propre visage (avec leur autorisation) dans des scènes générées.

De l’extérieur, Vibes et Sora ressemblent à des copies concurrentes de TikTok ou Reels, à la différence que l’ensemble de leur contenu est artificiel.

Il s’agit des premières sources dédiées à ce qui a été officiellement qualifié d’« AI slop ». Cette expression, ajoutée au Cambridge Dictionary en juillet 2025 et définie comme « contenu sur Internet de très mauvaise qualité, en particulier lorsqu’il est créé par l’IA », résume parfaitement le cœur du problème.

Dans le monde technologique, les réactions ont varié entre la perplexité et l’inquiétude. Car si le lancement d’un nouveau produit de réseau social n’a rien de radical, la création d’une plateforme dont l’ensemble de l’écosystème vidéo est synthétique, dépourvu de toute étincelle humaine, est tout autre chose.

 Book, Comics, Publication, Person, Face, Head

Pourquoi est-ce préoccupant ? Parce qu’il brouille la frontière entre le réel et le factice, rendant difficile de se fier à ce que l’on voit. Il peut reproduire le travail des créateurs sans leur autorisation et inonder les flux d’actualités de vidéos superficielles et dénuées de sens qui attirent l’attention mais n’apportent que peu de valeur ajoutée. Les algorithmes exploitent les préférences des utilisateurs, tandis que des fonctionnalités telles que les caméos synthétiques peuvent être utilisées à des fins d’intimidation ou d’usurpation d’identité. Il convient également de noter que les clips générés par l’IA manquent généralement d’histoires et d’émotions humaines, ce qui nuit à leur authenticité.

Quelle est la suite ? En fin de compte, cette transition vers les contenus générés par l’IA soulève une question philosophique : quel est l’objectif de nos espaces numériques communs ?

À mesure que nous progressons, il serait peut-être nécessaire d’aborder ce nouveau paysage avec plus de discernement, en adoptant l’innovation lorsqu’elle nous est bénéfique, mais en laissant toujours une place à l’authenticité, à l’originalité et à l’humain.

Pour l’instant, Vibes et Sora n’ont pas encore été lancés à l’échelle mondiale. Compte tenu de la réaction mitigée des premiers utilisateurs, leur succès est loin d’être garanti. En fin de compte, leur destin dépend entièrement de la manière dont les gens les utiliseront.

La transformation américaine de TikTok

Par un décret, le président américain Donald Trump a mis fin au long feuilleton TikTok, ouvrant la voie à une nouvelle société – dirigée par des investisseurs américains qui détiendront 80 % de la plateforme – pour prendre le contrôle de l’application. La société mère (bientôt révolue) de TikTok, ByteDance, et ses investisseurs chinois conserveront une participation minoritaire de moins de 20 %.

Une nouvelle coentreprise dirigée par les États-Unis supervisera l’algorithme, le code et la modération du contenu de l’application, tandis que toutes les données des utilisateurs américains seront stockées sur des serveurs Oracle aux États-Unis. La coentreprise sera dotée d’un conseil d’administration composé de sept membres, dont six sont des experts américains en cybersécurité et en sécurité nationale.

Selon les médias, le groupe d’investisseurs américains est dirigé par le géant des logiciels Oracle, tandis que parmi les principaux bailleurs de fonds figurent la société de capital-investissement Silver Lake, les magnats des médias Rupert et Lachlan Murdoch, et le PDG de Dell, Michael Dell.

Canada’s privacy watchdog says TikTok is failing to keep children off its platform, with weak safeguards and unclear data practices that expose young users to risks.

Le fond du problème : Toutes les données des utilisateurs américains seront stockées sur des serveurs Oracle situés aux États-Unis. Les mises à jour logicielles, les algorithmes et les flux de données feront l’objet d’une surveillance stricte, les modèles de recommandation étant réentraînés et supervisés par des partenaires américains spécialisés dans la sécurité afin de prévenir toute manipulation.

Le gouvernement américain soutient depuis longtemps que l’accès de l’application aux données des utilisateurs américains présente des risques importants, car ByteDance est susceptible d’être soumis à la loi chinoise de 2017 sur le renseignement national, qui exige de toute entité chinoise qu’elle soutienne, assiste et coopère avec les services de renseignement de l’État, y compris, éventuellement, le transfert des données TikTok des citoyens américains vers la Chine. Par ailleurs, TikTok et ByteDance ont affirmé que TikTok fonctionne de manière indépendante et respecte la vie privée des utilisateurs.

Début 2024, le Congrès américain, invoquant des risques pour la sécurité nationale, a adopté une loi obligeant ByteDance, la société mère chinoise de TikTok, à céder le contrôle de l’application sous peine d’être interdite aux États-Unis. La loi, qui bénéficiait du soutien des deux partis au Congrès, a ensuite été confirmée par la Cour suprême.

Cependant, l’administration du président Trump a reporté à plusieurs reprises son application par le biais de décrets.

Les négociations économiques et commerciales avec la Chine ont été au cœur de ce report. La quatrième série de négociations à Madrid coïncidant avec la dernière date limite, M. Trump a choisi de prolonger à nouveau le délai le 16 septembre, cette fois jusqu’au 16 décembre 2025, accordant ainsi un répit supplémentaire à TikTok.

Quelle est la suite ? Il reste encore certains détails à régler, notamment la question de savoir si les utilisateurs américains devront installer une nouvelle application. Néanmoins, cet accord marque une étape importante dans la résolution de l’un des différends les plus médiatisés de la décennie en matière de politique technologique. En outre, le décret présidentiel accorde un délai de 120 jours pour finaliser l’accord.

En résumé :  Pour des millions d’utilisateurs américains, les débats politiques ne constituent qu’un bruit de fond. Le véritable changement se fera sentir dans leurs flux : la nouvelle version américaine de TikTok pourra-t-elle conserver la créativité chaotique qui en a fait une force culturelle ?

Puces électroniques et souveraineté : de la mondialisation à l’autonomie protégée

L’industrie des semi-conducteurs connaît actuellement une profonde mutation géopolitique. Autrefois emblématiques de la mondialisation et de l’interdépendance, les puces sont désormais considérées comme des actifs stratégiques, ce qui pousse les États à revoir leurs politiques en matière de souveraineté, de résilience et de contrôle.

Les récentes mesures prises par la Chine soulignent cette tendance. Son ministère du Commerce a lancé une enquête antidumping sur les puces analogiques américaines, accusant les entreprises américaines de « baisser et de bloquer » les prix d’une manière qui nuit aux producteurs nationaux. Cette enquête porte sur les puces traditionnelles construites sur des nœuds de processus plus anciens de 40 nm et plus, et non sur les accélérateurs d’IA de pointe qui dominent les débats géopolitiques, mais sur les composants courants qui alimentent les appareils intelligents, les équipements industriels et les automobiles. Ces nœuds matures représentent une part importante de la consommation chinoise, les entreprises américaines fournissant plus de 40 % du marché ces dernières années.

Pour l’industrie nationale chinoise, cette enquête est une opportunité. Selon les analystes, elle pourrait contraindre les fournisseurs étrangers à céder des parts de marché aux entreprises locales concentrées dans le Jiangsu et d’autres provinces industrielles. Parallèlement, certaines informations indiquent que la Chine demande aux entreprises technologiques de cesser d’acheter les processeurs les plus puissants de Nvidia.

En ce qui concerne Nvidia, la société est à nouveau dans le collimateur, car l’Administration d’État chinoise pour la régulation du marché (SAMR) a publié une conclusion préliminaire selon laquelle Nvidia aurait enfreint la loi antitrust en lien avec son acquisition de Mellanox Technologies en 2020. En fonction des résultats de l’enquête, Nvidia pourrait faire l’objet de sanctions.

Dans le même temps, Washington renforce son emprise. Le mois dernier, le gouvernement a également pris une mesure sans précédent en envisageant de prendre des participations dans des fabricants nationaux de puces en échange de subventions au titre du CHIPS Act. Intel est au centre de cette expérience, avec 8,87 milliards de dollars de subventions qui pourraient être convertis en une participation de 10 % du gouvernement, bien que les négociations restent floues.

Les critiques avertissent que cette prise de participation risque de politiser le secteur, soulignant que les déclarations de M. Trump selon lesquelles il aurait « sauvé Intel » relèvent davantage du théâtre que de la stratégie. En outre, la Maison Blanche se prépare à imposer des droits de douane élevés, les importations de semi-conducteurs étant soumises à des taux de près de 100 %, avec des exemptions accordées aux entreprises qui fabriquent ou s’engagent à fabriquer aux États-Unis. Les entreprises chinoises, telles que SMIC et Huawei, devraient être les plus touchées.

Les États-Unis exigeront également le renouvellement annuel des licences des entreprises sud-coréennes Samsung et SK Hynix pour la fourniture de puces avancées aux usines chinoises, ce qui rappelle que même les alliés des États-Unis sont pris entre deux feux.

Nvidia a annoncé un investissement de 5 milliards de dollars dans Intel afin de développer conjointement des puces personnalisées avec l’entreprise. Ensemble, ces initiatives reflètent les efforts plus larges déployés par Washington pour renforcer son leadership dans le domaine des semi-conducteurs face à la concurrence croissante de la Chine.

Dans le cadre des négociations avec Taïwan, le secrétaire américain au Commerce, Howard Lutnick, a formulé une proposition visant à ce que seule la moitié des puces américaines soient produites à Taïwan, l’autre moitié étant délocalisée aux États-Unis, afin de réduire la dépendance vis-à-vis d’un seul fournisseur étranger. Cependant, le vice-Premier ministre taïwanais Cheng Li-chiun a rejeté cette idée, affirmant que de telles conditions n’avaient jamais fait partie des discussions officielles et ne seraient pas acceptées. Si Taïwan est disposé à approfondir ses relations commerciales avec les États-Unis, il refuse de renoncer au contrôle des capacités avancées en matière de semi-conducteurs qui sous-tendent son influence géopolitique.

L’UE affirme également un contrôle plus strict sur ses actifs technologiques. Les États membres de l’UE ont appelé à une révision et à un renforcement de la loi européenne sur les puces électroniques, arguant que l’Europe doit considérer les semi-conducteurs comme une industrie stratégique au même titre que l’aérospatiale et la défense. Les signataires, qui représentent les 27 économies de l’UE, avertissent que, tandis que des concurrents comme les États-Unis et l’Asie augmentent rapidement leurs investissements publics, l’Europe risque de prendre du retard si elle ne renforce pas son écosystème national dans les domaines de la R&D, de la conception, de la fabrication et du développement de la main-d’œuvre.

La proposition de « deuxième phase de la loi sur les puces électroniques » s’articule autour de trois objectifs stratégiques :

  • Prospérité, grâce à une économie des semi-conducteurs compétitive et axée sur l’innovation
  • Souveraineté, en maîtrisant les maillons stratégiques de la chaîne de valeur.
  • Résilience, afin de garantir l’approvisionnement des secteurs critiques en cas de chocs géopolitiques.

Le message de l’UE est clair : l’Europe a l’intention non seulement de participer à l’industrie des semi-conducteurs, mais aussi de la façonner selon ses propres conditions, grâce à des investissements coordonnés, des alliances industrielles et des partenariats internationaux qui renforcent, plutôt que d’affaiblir, son autonomie stratégique.

En résumé : L’ ère des pays producteurs est révolue ; l’ ère de la souveraineté en matière de semi-conducteurs a commencé. Le message est le même partout dans le monde : les puces sont trop importantes pour être confiées à un tiers.

La démocratie à l’heure de Discord : Au Népal, une application bannie devient une urne virtuelle.

Dans une première historique pour la démocratie, un pays a désigné son Premier ministre par intérim via une application de messagerie.

Début septembre, le Népal a été plongé dans la tourmente après que le gouvernement a brusquement interdit 26 plateformes de réseaux sociaux, dont Facebook, YouTube, X et Discord, invoquant le non-respect des règles d’enregistrement.

Cette décision a suscité l’indignation, en particulier parmi la génération Z du pays, qui est descendue dans les rues pour accuser les responsables de corruption.

Lorsque l’interdiction est entrée en vigueur, les jeunes du pays, familiarisés avec le numérique, ont rapidement adapté leurs stratégies :

Cependant, les manifestations ont rapidement pris une tournure dramatique. En quelques jours, l’interdiction des réseaux sociaux a été levée. 

Mme Karki a prêté serment le soir même. Sur sa recommandation, le président a dissous le Parlement et de nouvelles élections sont prévues pour le 5 mars 2026, après quoi Mme Karki quittera ses fonctions.

 Adult, Male, Man, Person, Art, Graphics, Face, Head, People

Zoom arrière. Sur des plateformes telles que Discord, la génération Z népalaise a découvert une forme de démocratie numérique qui semblait plus égalitaire que les espaces physiques, précisément en raison de l’anonymat qu’elle offre. Discord est ainsi devenu une arène politique où les participants peuvent s’exprimer librement sans crainte de représailles et prendre part à un processus « démocratique » sans précédent, sur un pied d’égalité. Les Népalais se sont tournés vers Discord pour débattre de l’avenir politique du pays, vérifier les rumeurs et recueillir des nominations pour les futurs dirigeants du pays. 

Cependant, cette même ouverture rend également la pratique démocratique plus difficile : l’absence de responsabilité peut accentuer la polarisation et alimenter la désinformation, comme ce fut le cas au Népal, où de fausses allégations ont circulé selon lesquelles les leaders de la contestation étaient des citoyens étrangers, tandis que des groupes pro-monarchiques opéraient en parallèle sur d’autres canaux Discord.

Bien que temporaire et symbolique, cet épisode a souligné à quel point les plateformes numériques peuvent devenir des arènes politiques lorsque les arènes traditionnelles vacillent. Lorsque les institutions officielles perdent leur légitimité, les citoyens réutilisent instinctivement les outils à leur disposition pour en créer de nouvelles. Ces événements sont susceptibles d’offrir des enseignements à d’autres gouvernements confrontés au rôle de la censure en période de troubles.

Le terrain de jeu numérique est désormais protégé par une clôture et soumis à un couvre-feu

En réponse aux préoccupations croissantes concernant l’impact de l’intelligence artificielle et des réseaux sociaux sur les adolescents, les gouvernements et les entreprises technologiques mettent en place de nouvelles mesures visant à renforcer la sécurité en ligne des jeunes utilisateurs.

L’Australie a publié ses directives réglementaires concernant l’interdiction nationale d’accès aux réseaux sociaux pour les enfants de moins de 16 ans, qui entrera en vigueur le 10 décembre 2025. La législation exige des plateformes qu’elles vérifient l’âge des utilisateurs et s’assurent que les mineurs n’accèdent pas à leurs services. Les plateformes doivent détecter et supprimer les comptes des mineurs, en communiquant clairement avec les utilisateurs concernés. Elles sont également tenues de bloquer toute tentative de réinscription. Il n’est pas encore certain que le contenu des comptes supprimés sera effacé ou s’ils pourront être réactivés une fois que l’utilisateur aura atteint l’âge de 16 ans.

Le Premier ministre grec Kyriakos Mitsotakis a indiqué que la Grèce pourrait envisager d’interdire l’utilisation des réseaux sociaux aux enfants de moins de 16 ans. S’exprimant lors d’un événement des Nations unies à New York, intitulé « Protéger les enfants à l’ère numérique », dans le cadre de la 80e Assemblée générale des Nations unies, il a averti que l’exposition incontrôlée aux réseaux sociaux constituait la plus grande expérience non contrôlée sur l’esprit des enfants. Il a mis en avant des initiatives nationales telles que l’interdiction des téléphones portables dans les écoles et le lancement du site parco.gov.gr, qui propose une vérification de l’âge et un contrôle parental. M. Mitsotakis a souligné que les difficultés liées à l’application de la loi ne devaient pas entraver l’action et a appelé à une coopération internationale pour faire face aux risques croissants auxquels sont exposés les enfants en ligne.

Les législateurs français proposent des réglementations plus strictes concernant l’utilisation des réseaux sociaux par les adolescents, y compris des obligations de couvre-feu nocturne. Un rapport parlementaire suggère que les comptes de réseaux sociaux des 15-18 ans soient automatiquement désactivés entre 22 h et 8 h afin de contribuer à la lutte contre les problèmes de santé mentale. Cette proposition fait suite aux préoccupations concernant l’impact psychologique de plateformes telles que TikTok sur les mineurs.

Aux États-Unis, la Federal Trade Commission (FTC) a lancé une enquête sur la sécurité des chatbots IA, en mettant l’accent sur leur impact sur les enfants et les adolescents. Sept entreprises, dont Alphabet, Meta, OpenAI et Snap, ont été invitées à fournir des informations sur la manière dont elles gèrent les risques liés aux chatbots IA conçus pour imiter les relations humaines. Peu de temps après, des parents endeuillés ont témoigné devant le Congrès américain, exhortant les législateurs à réglementer les chatbots IA après que leurs enfants se soient suicidés ou aient commis des actes d’automutilation à la suite d’interactions avec ces outils. 

OpenAI a lancé une version spécialisée de ChatGPT adaptée aux adolescents, intégrant une technologie de prédiction de l’âge afin de restreindre l’accès à la version standard aux utilisateurs de moins de 18 ans. En cas de doute, le système considérera que l’utilisateur est un adolescent. Si des signes de pensées suicidaires apparaissent, l’entreprise indique qu’elle tentera d’abord d’alerter les parents. En cas de risque imminent et si les parents ne peuvent être joints, OpenAI est disposée à informer les autorités. Cette initiative vise à répondre aux préoccupations croissantes concernant les risques pour la santé mentale associés aux chatbots IA, tout en soulevant des questions liées à la vie privée et à la liberté d’expression.

Parallèlement, OpenAI a introduit de nouveaux contrôles parentaux, offrant aux familles une meilleure supervision de l’utilisation de la plateforme par leurs adolescents. Les parents peuvent associer leurs comptes à ceux de leurs enfants et gérer les paramètres via un tableau de bord simple, tandis que des mesures de protection renforcées filtrent les contenus préjudiciables et limitent les jeux de rôle impliquant le sexe, la violence ou des idéaux de beauté extrêmes. Les familles peuvent également régler avec précision des fonctionnalités telles que le mode vocal, la mémoire et la génération d’images, ou définir des heures de repos pendant lesquelles ChatGPT n’est pas accessible.

Meta, quant à elle, élargit actuellement le déploiement de comptes spécifiques aux adolescents sur Facebook et Messenger. Ces comptes comprennent des fonctionnalités conçues pour offrir un environnement plus adapté à leur âge, telles que des paramètres de confidentialité par défaut plus stricts et des limites sur les interactions indésirables. L’entreprise affirme que ces mesures de protection s’inscrivent dans le cadre d’un effort plus large visant à trouver un équilibre entre la connectivité et la protection des jeunes utilisateurs.

Les intentions sont généralement louables, mais la multitude d’interdictions, de couvre-feux et de mesures de surveillance algorithmique ne fait que souligner le manque de clarté de la voie à suivre. Pendant ce temps, les jeunes ont très certainement déjà trouvé des failles.

Ce mois-ci à Genève

Le monde de la gouvernance numérique a été très actif à Genève au mois de septembre. Voici ce que nous avons tenté de suivre.

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Groupes de travail du Conseil de l’UIT (CWG)

À l’Union internationale des télécommunications (UIT), les groupes de travail du Conseil (CWG) se sont réunis du 8 au 19 septembre afin de faire avancer divers axes de travail. Le groupe de travail sur le SMSI et les ODD a examiné les travaux entrepris par l’UIT en ce qui concerne la mise en œuvre des résultats du SMSI et de l’Agenda 2030, et a discuté des questions liées au processus d’examen SMSI+20 en cours. Le Groupe d’experts sur les RIT a poursuivi ses travaux sur le rapport final qu’il doit soumettre au Conseil de l’UIT en réponse à la tâche qui lui a été confiée de réviser le Règlement des télécommunications internationales (RIT), en tenant compte de l’évolution des tendances mondiales, des progrès technologiques et des pratiques réglementaires actuelles. Une version préliminaire du rapport indique que les membres ont des opinions divergentes sur la nécessité de réviser les RIT et même sur leur pertinence globale ; il ne semble pas non plus y avoir de consensus sur la nécessité et la manière de poursuivre les travaux de révision des RIT.

Sur un autre sujet, le groupe de travail sur les questions de politique publique internationales liées à l’Internet a organisé une consultation ouverte sur la garantie d’une connectivité significative pour les pays en développement sans littoral. Des débats divergents ont également eu lieu sur une proposition visant à améliorer les travaux du groupe de travail et à « faciliter leurs discussions concernant la gouvernance internationale de l’Internet ».

Conférence sur la sécurité spatiale

L’Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR) a organisé les 9 et 10 septembre la Conférence sur la sécurité dans l’espace extra-atmosphérique, qui a réuni des diplomates, des décideurs politiques, des acteurs privés, des experts du secteur militaire et d’autres intervenants afin d’examiner les moyens de façonner un avenir sûr, inclusif et durable pour l’espace extra-atmosphérique. Certaines des questions abordées ont porté sur les implications de l’utilisation des technologies émergentes telles que l’intelligence artificielle et les systèmes autonomes dans le contexte des technologies spatiales, ainsi que sur les défis liés à la cybersécurité associés à ces utilisations.

Groupe de travail de la CNUCED sur la gouvernance des données

La troisième réunion du Groupe de travail sur la gouvernance des données (WGDG) de la Commission des sciences et de la technologie au service du développement (CSTD) des Nations Unies s’est tenue les 15 et 16 septembre. Cette réunion était axée sur les travaux menés dans le cadre des quatre axes de travail du WGDG : 1. principes de gouvernance des données à tous les niveaux ; 2. interopérabilité entre les systèmes de données nationaux, régionaux et internationaux ; 3. considérations relatives au partage des avantages des données ; 4. facilitation de flux de données sûrs, sécurisés et fiables, y compris les flux transfrontaliers.

Les membres du WGDG ont examiné les rapports de synthèse produits par le secrétariat de la CSTD, sur la base des réponses aux questionnaires proposés par les cofacilitateurs des groupes de travail. Le WGDG a décidé de reporter la date limite de soumission des contributions au 7 octobre. De plus amples informations sont disponibles dans l’appel à contributions sur le site web du WGDG.

Veuillez suivre les débats du WGDG via notre page dédiée sur le Digital Watch Observatory

Forum public de l’OMC 2025

Le plus grand événement de proximité de l’OMC, le Forum public de l’OMC, s’est tenu les 17 et 18 septembre sous le thème « Renforcer, créer et préserver ». Les questions numériques figuraient en bonne place à l’ordre du jour cette année, avec des sessions consacrées à l’IA et au commerce, à la résilience numérique, au moratoire sur les droits de douane sur les transmissions électroniques et aux négociations sur le commerce électronique, par exemple. D’autres sujets ont également été abordés, tels que l’incertitude créée par la hausse des droits de douane et la nécessité de réformer l’OMC. Au cours du Forum, l’OMC a publié le Rapport sur le commerce mondial 2025, intitulé « Faire fonctionner ensemble le commerce et l’IA au profit de tous ». Ce rapport explore le potentiel de l’IA pour stimuler le commerce mondial, en particulier grâce aux services numériques. Il soutient que l’IA peut réduire les coûts commerciaux, améliorer l’efficacité de la chaîne d’approvisionnement et créer des opportunités pour les petites entreprises et les pays en développement, mais prévient que sans une action délibérée, l’IA pourrait aggraver les inégalités mondiales et creuser le fossé entre les économies avancées et les économies en développement.

Conseil des droits de l’Homme

Le Conseil des droits de l’Homme a ouvert sa 60ᵉ session le 8 septembre. Deux rapports inscrits à l’ordre du jour ont particulièrement retenu notre attention.

Le premier portait sur les implications des technologies nouvelles et émergentes dans le domaine militaire pour le respect des droits fondamentaux. Présenté le 18 septembre, il a été préparé par le Comité consultatif du Conseil.

Ce rapport recommande notamment que « les États et les organisations internationales envisagent d’adopter des mesures contraignantes ou d’autres dispositions efficaces afin de garantir que les technologies nouvelles et émergentes à usage militaire — dont la conception, le développement ou l’emploi présentent des risques élevés d’abus, de détournement ou de dommages irréversibles, notamment lorsqu’ils sont susceptibles d’entraîner des violations des droits humains — ne soient pas développées, déployées ou utilisées. »
Le second document est un rapport sur la protection de la vie privée à l’ère numérique, publié par le Haut-Commissariat aux droits de l’Homme. Il examine les défis et les risques liés à la discrimination et à l’inégalité dans la jouissance du droit à la vie privée en rapport avec la collecte et le traitement des données, et formule des recommandations sur les moyens d’empêcher que la numérisation ne perpétue ou n’aggrave la discrimination et l’exclusion. Parmi celles-ci figure une recommandation invitant les États à protéger les individus contre les violations des droits de l’Homme liées au traitement des données par les entreprises et à veiller à ce que les infrastructures publiques numériques soient conçues et utilisées de manière à respecter les droits à la vie privée, à la non-discrimination et à l’égalité.


Weekly #233 New rules for the digital playground

 Logo, Text

3 – 10 October 2025


HIGHLIGHT OF THE WEEK

New rules for the digital playground

A new wave of digital protectionism is taking shape around the world — this time in the name of children’s safety.

Denmark is preparing to ban social media for users under 15, joining a small but growing club of countries seeking to push minors off major platforms. The government has yet to release full details, but the move reflects a growing recognition across many countries that the costs of children’s unrestricted access to social media — from mental health issues to exposure to harmful content — are no longer acceptable.

For inspiration, Copenhagen does not have to look far. Australia has already outlined one of the most detailed blueprints for a nationwide ban on under-16s, set to take effect on 10 December 2025. The law requires platforms to verify users’ ages, remove underage accounts, and block re-registrations. Platforms will also need to communicate clearly with affected users, although questions remain, including whether deleted content will be restored when a user turns 16.

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

In Italy, families have launched legal action against Facebook, Instagram, and TikTok, claiming that the platforms failed to protect minors from exploitative algorithms and inappropriate content. Across the Atlantic, New York City has filed a sweeping lawsuit against major social media platforms, accusing them of deliberately designing features that addict children and harm their mental health. 

In the EU, the debate over how to protect children online is entangled with a parallel fight over privacy and surveillance. Within the EU Council, a meeting of home affairs ministers taking place next week was expected to include a vote on the long-discussed  ‘Chat Control’ regulation proposal, which aims to combat the distribution of child sexual abuse material (CSAM). This proposal is no longer on the agenda, as member states don’t seem to be in agreement on the current text; the vote is said to be postponed for December.

According to the most recent version of the draft regulation, a chat service can be required to screen users’ messages before they are sent and encrypted, but only after a decision from a judicial authority. The system would then search for images of child sexual abuse that are already in databases, while text messages themselves would not be reviewed. Although these provisions were presented as safeguards, not everyone is in agreement, and concerns remain over implications for privacy and encryption, among other issues. 

Why it matters: Together, these developments suggest that the era of self-regulation for social media may be drawing to a close. The global debate is not about whether the digital playground needs guardians, but about the final design of its safety features. As governments weigh bans, lawsuits, and surveillance mandates, they struggle to balance two imperatives: protecting children from harm while safeguarding fundamental rights to privacy and free expression.

IN OTHER NEWS THIS WEEK

Decisive actions in AI governance

The world is incessantly debating the future and governance of AI. Here are some of the latest moves in the space.

Italy has made history as the first member state in the EU to pass its own national AI law, going beyond the framework of the EU’s Artificial Intelligence Act. From October 10, the law comes into effect, introducing sector-specific rules across health, justice, work, and public administration.  Among its provisions: transparency obligations, criminal penalties for misuse of AI (such as harmful deepfakes), new oversight bodies, and protections for minors (e.g. parental consent if under 14). 

In Brussels, the European Commission is simultaneously strategising for digital sovereignty – trying to break the EU’s dependence on foreign AI infrastructure. Its new ‘Apply AI’ strategy aims to channel €1 billion into deploying European AI platforms, integrating them into public services (health, defence, industry), and supporting local tech innovation. The Commission also launched an ‘AI in Science’ initiative to solidify Europe’s position at the forefront of AI research, through a network called RAISE. 

Meanwhile, across the Atlantic, California has signed into law a bold transparency and whistleblower regime aimed at frontier AI developers – those deploying large, compute-intensive models. Under SB 53 (the Transparency in Frontier Artificial Intelligence Act), companies must publish safety protocols, monitor risks, and disclose ‘critical safety incidents.’ Crucially, employees who believe there is a catastrophic risk (even without full proof) are shielded from retaliation. 

The bigger picture: These moves from Italy, the EU and California are part of a broader trend in which debates on AI governance are giving way to decisive action. 


Beijing tightens rare earth grip

China has tightened its grip on the global tech supply chain by significantly expanding its restrictions on its rare earth exports. The new rules no longer focus solely on raw minerals — they now encompass processed materials, manufacturing equipment, and even the expertise used to refine and recycle rare earths. Exporters must seek government approval not only to ship these elements, but also for any product that contains them at a level exceeding 0.1%. Licences will be denied if the end users are involved in weapons production or military applications. Semiconductors won’t be spared either — chipmakers will now face intrusive case-by-case scrutiny, with Beijing demanding full visibility into tech specifications and end users before granting approval.

China is also sealing off human expertise. Engineers and companies in China are prohibited from participating to rare earth projects abroad unless the government explicitly permits it.

A critical moment: The timing of this development is no accident. With US-China tensions escalating and high-level talks between Presidents Trump and Xi on the horizon, Beijing is brandishing what could be described as a powerful economic weapon: monopoly over the minerals that power advanced electronics.


New COMESA platform enables instant, affordable cross-border payments

The Common Market for Eastern and Southern Africa (COMESA) Clearing House (CCH) has announced the advancement of its Digital Retail Payments Platform (DRPP) into user trials across the Malawi–Zambia corridor. This initiative aims to facilitate cross-border payments using local currencies, enhancing financial inclusion and supporting micro, small, and medium enterprises (MSMEs), women, and underserved communities. 

The trials, supported by two digital financial service providers and one foreign exchange provider, mark a significant step toward a secure and inclusive regional payment system. CCH encourages active participation from partners and stakeholders to refine and validate the platform, ensuring it delivers reliable, immediate, and affordable payments that empower individuals and businesses across the region.

The DRPP is part of CCH’s broader mission to promote economic growth and prosperity through intra-regional trade and integration. By bridging national markets and reducing barriers to trade, the platform seeks to create a financially integrated COMESA region where secure, affordable, and inclusive cross-border payments power trade, investment, and prosperity.


Superconducting breakthrough wins 2025 Nobel Prize in physics

The 2025 Nobel Prize in Physics was awarded to John Clarke, Michel H. Devoret, and John M. Martinis for demonstrating that quantum mechanical effects can occur in systems large enough to be held in the hand.

Their pioneering experiments in the mid-1980s used superconducting circuits – specifically Josephson junctions, where superconducting components are separated by an ultra-thin insulating layer. By carefully controlling these circuits, the laureates showed that they could exhibit two hallmark quantum phenomena: tunnelling, where a system escapes a trapped state by passing through an energy barrier, and energy quantisation, where it absorbs or emits only specific amounts of energy.

Their work revealed that quantum behaviour, once thought to apply only to atomic particles, can manifest at the macroscopic scale. The discovery not only deepens understanding of fundamental physics but also underpins emerging quantum technologies, from computing to cryptography.

As Nobel Committee Chair Olle Eriksson noted, the award celebrates how century-old quantum mechanics continues to yield new insights and practical innovations shaping the digital age.

LOOKING AHEAD
 Person, Face, Head, Binoculars

80th session of the UNGA First Committee 

The 80th session of the UN General Assembly First Committee on Disarmament and International Security is taking place in New York from 8 October to 7 November 2025. The general debate on all disarmament and international security agenda items will run from Wednesday, 8 October, to Friday, 17 October. Among the topics expected to be discussed is the Global Mechanism, which is set to succeed the work of the OEWG. A briefing by the Chairperson of the Open-ended Working Group on security of and in the use of information and communications technologies 2021-2025 is scheduled for 27 October.

In parallel, UNIDIR is hosting a hybrid event on the UN Global Intergovernmental Points of Contact (POC) Directory, established following the OEWG 2021–2025, to support international cooperation on disarmament and security.

WSIS+20 review process

The written contributions to the WSIS+20 zero draft have now been published, providing a foundation for the upcoming discussions. 

UN DESA will host two days of virtual consultations to review the ‘Zero Draft’ of the WSIS+20 process. Member states and stakeholders from civil society, academia, technical communities, and international organisations will discuss digital governance, bridging digital divides, human rights, and the digital economy. Sessions are designed for inclusive, global participation, offering a platform to share experiences, provide feedback, and refine the draft ahead of the second Preparatory Meeting on 15 October. 

Informal negotiations on the draft are set to begin next week, taking place on 16–17 and 20–21 October 2025. 

Geneva Peace Week 2025

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.



READING CORNER
d41586 025 03223 0 51532626

Other researchers question whether autonomous AI scientists are possible or even desirable. Other researchers question whether autonomous AI scientists are possible or even desirable.

Cities and tech

They don’t talk treaties; they talk APIs. Discover how tech ambassadors are navigating the complex relationship between cities and big tech.

bioscience with AI

Discover how generative AI is designing synthetic proteins that outperform nature, revolutionising gene therapy and accelerating the search for new medical cures.

4j4fhgnc upuLogotypeEn 0

The report takes stock of the current role the postal sector is playing in enabling inclusive digital transformation and provides recommendations on how to further scale its contribution.