Weekly #242 Under-16 social media use in Australia: A delay or a ban?

 Logo, Text

5-12 December 2025


HIGHLIGHT OF THE WEEK

Under-16 social media use in Australia: A delay or a ban?

Australia made history on Wednesday as it began enforcing its landmark under-16 social media restrictions — the first nationwide rules of their kind anywhere in the world. 

The measure — a new Social Media Minimum Age (SMMA) requirement under the Online Safety Act — obliges major platforms to take ‘reasonable steps’ to delete underage accounts and block new sign-ups, backed by AUD 49.5 million fines and monthly compliance reporting.

As enforcement began, eSafety Commissioner Julie Inman Grant urged families — particularly those in regional and rural Australia — to consult the newly published guidance, which explains how the age limit works, why it has been raised from 13 to 16, and how to support young people during the transition.

The new framework should be viewed not as a ban but as a delay, Grant emphasised, raising the minimum account age from 13 to 16 to create ‘a reprieve from the powerful and persuasive design features built to keep them hooked and often enabling harmful content and conduct.’

It has been a few days since the ban—we continue to use the word ‘ban’ in the text, as it has already become part of the vernacular—took effect. Here’s what has happened in the days since.

Teen reactions. The shift was abrupt for young Australians. Teenagers posted farewell messages on the eve of the deadline, grieving the loss of communities, creative spaces, and peer networks that had anchored their daily lives. Youth advocates noted that those who rely on platforms for education, support networks, LGBTQ+ community spaces, or creative expression would be disproportionately affected.

Workarounds and their limits. Predictably, workarounds emerged immediately. Some teens tried (and succeeded) to fool facial-age estimation tools by distorting their expressions; others turned to VPNs to mask their locations. However, experts note that free VPNs frequently monetise user data or contain spyware, raising new risks. And it might be in vain – platforms retain an extensive set of signals they can use to infer a user’s true location and age, including IP addresses, GPS data, device identifiers, time-zone settings, mobile numbers, app-store information, and behavioural patterns. Age-related markers — such as linguistic analysis, school-hour activity patterns, face or voice age estimation, youth-focused interactions, and the age of an account give companies additional tools to identify underage users.

 Bus Stop, Outdoors, Book, Comics, Publication, Person, Adult, Female, Woman, People, Face, Head, Art

Privacy and effectiveness concerns. Critics argue that the policy raises serious privacy concerns, since age-verification systems, whether based on government ID uploads, biometrics, or AI-based assessments, force people to hand over sensitive data that could be misused, breached, or normalised as part of everyday surveillance. Others point out that facial-age technology is least reliable for teenagers — the very group it is now supposed to regulate. Some question whether the fines are even meaningful, given that Meta earns roughly AUD 50 million in under two hours.

The limited scope of the rules has drawn further scrutiny. Dating sites, gaming platforms, and AI chatbots remain outside the ban, even though some chatbots have been linked to harmful interactions with minors. Educators and child-rights advocates argue that digital literacy and resilience would better safeguard young people than removing access outright. Many teens say they will create fake profiles or share joint accounts with parents, raising doubts about long-term effectiveness.

Industry pushback. Most major platforms have publicly criticised the law’s development and substance. They maintain that the law will be extremely difficult to enforce, even as they prepare to comply to avoid fines. Industry group NetChoice has described the measure as ‘blanket censorship,’ while Meta and Snap argue that real enforcement power lies with Apple and Google through app-store age controls rather than at the platform level.

Reddit has filed a High Court challenge of the ban, naming the Commonwealth of Australia and Communications Minister Anika Wells as defendants, and claiming that the law is applied to Reddit inaccurately. The platform holds that it is a platform for adults, and doesn’t have the traditional social media features that the government has taken issue with.

Government position. The government, expecting a turbulent rollout, frames the measure as consistent with other age-based restrictions (such as no drinking alcohol under 18) and a response to sustained public concern about online harms. Officials argue that Australia is playing a pioneering role in youth online safety — a stance drawing significant international attention. 

International interest. This development has garnered considerable international attention. As we previously reported, there is a small but growing club of countries seeking to ban minors from major platforms. 

 Book, Comics, Publication, Baby, Person, Face, Head, Flag
  • The EU Parliament has proposed a minimum social media age of 16, allowing parental consent for users aged 13–15, and is exploring limits on addictive features such as autoplay and infinite scrolling. 
  • In France, lawmakers have suggested banning under-15s from social media and introducing a ‘curfew’ for older teens.
  • Spain is considering parental authorisation for under-16s. 
  • Malaysia plans to introduce a ban on social media accounts for people under 16 starting in 2026.
  • Denmark and Norway are considering raising the minimum social media age to 15, with Denmark potentially banning under-15s outright and Norway proposing stricter age verification and data protections. 
  • In New Zealand, political debate has considered restrictions for minors, but no formal policy has been enacted. 
  • According to Australia’s Communications Minister, Anika Wells, officials from the EU, Fiji, Greece, and Malta have approached Australia for guidance, viewing the SMMA rollout as a potential model. 

All of these jurisdictions are now looking closely at Australia, watching for proof of concept — or failure.

The unresolved question. Young people are reminded that they retain access to group messaging tools, gaming services and video conferencing apps while they await eligibility for full social media accounts. But the question lingers: if access to large parts of the digital ecosystem remains open, what is the practical value of fencing off only one segment of the internet?

IN OTHER NEWS LAST WEEK

This week in AI governance

National regulations

Vietnam. Vietnam’s National Assembly has passed the country’s first comprehensive AI law, establishing a risk management regime, sandbox testing, a National AI Development Fund and startup voucher schemes to balance strict safeguards with innovation incentives. The 35‑article legislation — largely inspired by EU and other models — centralises AI oversight under the government and will take effect in March 2026.

The USA. The US President Donald Trump has signed an executive order targeting what the administration views as the most onerous and excessive state-level AI laws. The White House argues that a growing patchwork of state rules threatens to stymie innovation, burden developers, and weaken US competitiveness.

To address this, the order creates an AI Litigation Task Force to challenge state laws deemed obstructive to the policy set out in the executive order – to sustain and enhance the US global AI dominance through a minimally burdensome national policy framework for AI. The Commerce Department is directed to review all state AI regulations within 90 days to identify those that impose undue burdens. It also uses federal funding as leverage, allowing certain grants to be conditioned on states aligning with national AI policy.

The UK. More than 100 UK parliamentarians from across parties are pushing the government to adopt binding rules on advanced AI systems, saying current frameworks lag behind rapid technological progress and pose risks to national and global security. The cross‑party campaign, backed by former ministers and figures from the tech community, seeks mandatory testing standards, independent oversight and stronger international cooperation — challenging the government’s preference for existing, largely voluntary regulation.

National plans and investments

Russia. Russia is advancing a nationwide plan to expand the use of generative AI across public administration and key sectors, with a proposed central headquarters to coordinate ministries and agencies. Officials see increased deployment of domestic generative systems as a way to strengthen sovereignty, boost efficiency and drive regional economic development, prioritising locally developed AI over foreign platforms.

Qatar. Qatar has launched Qai, a new national AI company designed to accelerate the country’s digital transformation and global AI footprint. Qai will provide high‑performance computing and scalable AI infrastructure, working with research institutions, policymakers and partners worldwide to promote the adoption of advanced technologies that support sustainable development and economic diversification.

The EU. The EU has advanced an ambitious gigafactory programme to strengthen AI leadership by scaling up infrastructure and computational capacity across member states. This involves expanding a network of AI ‘factories’ and antennas that provide high‑performance computing and technical expertise to startups, SMEs and researchers, integrating innovation support alongside regulatory frameworks like the AI Act. 

Australia. Australia has sealed a USD 4.6 billion deal for a new AI hub in western Sydney, partnering with private sector actors to build an AI campus with extensive GPU-based infrastructure capable of supporting advanced workloads. The investment forms part of broader national efforts to establish domestic AI innovation and computational capacity. 

Partnerships 

Canada‑EU. Canada and the EU have expanded their digital partnership on AI and security, committing to deepen cooperation on trusted AI systems, data governance and shared digital infrastructure. This includes memoranda aimed at advancing interoperability, harmonising standards and fostering joint work on trustworthy digital services. 

The International Network for Advanced AI Measurement, Evaluation and Science. The global network has strengthened cooperation on benchmarking AI governance progress, focusing on metrics that help compare national policies, identify gaps and support evidence‑based decision‑making in AI regulation internationally. This network includes Australia, Canada, the EU, France, Japan, Kenya, the Republic of Korea, Singapore, the UK and the USA. The UK has assumed the role of Network Coordinator.


Trump allows Nvidia to sell chips to approved Chinese customers

The USA has decided to allow the sale of H200 chips to approved customers in China, a decision that marks a notable shift in export controls.

Under the new framework, sales of H200 chips will proceed, subject to conditions including licensing oversight by the US Department of Commerce and a revenue-sharing mechanism that directs 25% of the proceeds back to the US government. 

The road ahead. The policy is drawing scrutiny from some US lawmakers and national security experts who caution that increased hardware access could strengthen China’s technological capabilities in sensitive domains.


Poland halts crypto reform as Norway pauses CBDC plans

Poland’s effort to introduce a comprehensive crypto law has reached an impasse after the Sejm failed to overturn President Karol Nawrocki’s veto of a bill meant to align national rules with the EU’s MiCA framework. 

The government argued the reform was essential for consumer protection and national security, but the president rejected it as overly burdensome and a threat to economic freedom, citing expansive supervisory powers and website-blocking provisions. With the veto upheld, Poland remains without a clear domestic regulatory framework for digital assets. In the aftermath, Prime Minister Donald Tusk has pledged to renew efforts to pass crypto legislation.

In Norway, Norges Bank has concluded that current conditions do not justify launching a central bank digital currency, arguing that Norway’s payment system remains secure, efficient and well-tailored to users.

The bank maintains that the Norwegian krone continues to function reliably, supported by strong contingency arrangements and stable operational performance.  Governor Ida Wolden Bache said the assessment reflects timing rather than a rejection of CBDCs, noting the bank could introduce one if conditions change or if new risks emerge in the domestic payments landscape.

Zooming out. Both cases highlight a cautious approach to digital finance in Europe: while Poland grapples with how much oversight is too much, Norway is weighing whether innovation should wait until the timing is right.



LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

On Wednesday (3 December), Diplo, UNEP, and Giga are co-organising an event at the Giga Connectivity Centre in Geneva, titled ‘Digital inclusion by design: Leveraging existing infrastructure to leave no one behind’. The event looked at realities on the ground when it comes to connectivity and digital inclusion, and at concrete examples of how community anchor institutions like posts, schools, and libraries can contribute significantly to advancing meaningful inclusion. There was also a call for policymakers at national and international levels to keep these community anchor institutions in mind when designing inclusion strategies or discussing frameworks, such as the GDC and WSIS+20.

Organisations and institutions are invited to submit event proposals for the second edition of Geneva Security Week. Submissions are open until 6 January 2026. Co-organised once again by the UN Institute for Disarmament Research (UNIDIR) and the Swiss Federal Department of Foreign Affairs (FDFA), Geneva Security Week 2026 will take place from 4 to 8 May 2026 under the theme ‘Advancing Global Cooperation in Cyberspace’.

LOOKING AHEAD
 Person, Face, Head, Binoculars

UN General Assembly High-level meeting on WSIS+20 review

Twenty years after the finalisation of the World Summit on the Information Society (WSIS), the WSIS+20 review process will take stock of the progress made in the implementation of WSIS outcomes and address potential ICT gaps and areas for continued focus, as well as address challenges, including bridging the digital divide and harnessing ICTs for development.

The overall review will be concluded by a two-day high-level meeting of the UN General Assembly (UNGA), scheduled to 16–17 December 2025. The meeting will consist of plenary meetings, which will include statements in accordance with General Assembly resolution 79/277 and the adoption of the draft outcome document.

Diplo and the Geneva Internet Platform (GIP) will provide just-in-time reporting from the meeting. Bookmark our dedicated web page; more details will be available soon.

 City, Urban, Flag


READING CORNER
flag united nations

Human rights are no longer abstract ideals but living principles shaping how AI, data, and digital governance influence everyday life, power structures, and the future of human dignity in an increasingly technological world.

Lettre d’information du Digital Watch – Numéro 105 – Mensuelle novembre 2025

Rétrospective de novembre 2025

Le numéro de ce mois-ci vous emmène de Washington à Genève, de la COP 30 aux négociations du SMSI+20, retraçant les développements majeurs qui redéfinissent la politique en matière d’IA, de la sécurité en ligne et de la résilience de l’infrastructure numérique dont nous dépendons quotidiennement.

Voici ce que nous vous proposons dans cette édition.

La bulle de l’IA est-elle sur le point d’éclater ? La bulle de l’IA va-t-elle éclater ? L’IA est-elle désormais « trop importante pour faire faillite » ? Le gouvernement américain va-t-il renflouer les géants de l’IA, et quelles seraient les conséquences pour l’économie mondiale ?

La lutte mondiale pour réguler l’IA – Les gouvernements s’empressent de définir des règles, qu’il s’agisse de stratégies nationales en matière d’IA ou de nouveaux cadres mondiaux. Nous présentons les dernières initiatives.

Points forts du SMSI+20 Rev 1 — Un aperçu du document qui guide actuellement les négociations entre les États membres de l’ONU avant la réunion de haut niveau de l’Assemblée générale les 16 et 17 décembre 2025.

Quand le numérique rencontre le climat — Ce dont les États membres de l’ONU ont discuté en matière d’IA et de numérique lors de la COP 30.

Sécurité des enfants en ligne — De l’Australie à l’UE, les gouvernements mettent en place de nouvelles mesures de protection pour préserver les enfants des dangers d’Internet. Nous examinons leurs approches.

Panne numérique — La panne de Cloudflare a révélé la fragilité des dépendances au sein de l’Internet mondial. Nous analysons ses causes et ce que cet incident révèle sur la résilience numérique.

Le mois dernier à Genève — Retrouvez les discussions, les événements et les conclusions qui ont façonné la gouvernance numérique internationale.


GOUVERNANCE NUMÉRIQUE

La France et l’Allemagne ont organisé à Berlin un sommet sur la souveraineté numérique européenne afin d’accélérer l’indépendance numérique de l’Europe. Elles ont présenté une feuille de route comportant sept priorités : simplifier la réglementation (notamment en reportant certaines règles de la loi sur l’IA), garantir l’équité des marchés du cloud et du numérique, renforcer la souveraineté des données, faire progresser les biens communs numériques, développer les infrastructures publiques numériques open source, créer un groupe de travail sur la souveraineté numérique et stimuler l’innovation de pointe en matière d’IA. Plus de 12 milliards d’euros d’investissements privés ont été promis. Un développement majeur accompagnant le sommet a été le lancement du Réseau européen pour la résilience et la souveraineté technologiques (ETRS) afin de réduire la dépendance vis-à-vis des technologies étrangères (actuellement supérieure à 80 %) grâce à la collaboration d’experts, à la cartographie de la dépendance technologique et au soutien à l’élaboration de politiques fondées sur des données probantes.

TECHNOLOGIES

Le gouvernement néerlandais a suspendu son projet de rachat de Nexperia, un fabricant de puces basé aux Pays-Bas et détenu par la société chinoise Wingtech, à la suite de négociations positives avec les autorités chinoises. La Chine a également commencé à libérer ses stocks de puces afin d’atténuer la pénurie.

Baidu a présenté deux puces IA développées en interne, la M100 pour une inférence efficace sur des modèles mixtes d’experts (prévue début 2026) et la M300 pour l’entraînement de modèles multimodaux à des trillions de paramètres (2027). L’entreprise a également présenté des architectures en groupement (Tianchi256 au premier semestre 2026 ; Tianchi512 au second semestre 2026) pour mettre à l’échelle l’inférence via de grandes interconnexions. IBM a dévoilé deux puces quantiques : Nighthawk (120 qubits, 218 coupleurs accordables) et Quantum Connect (100 qubits, 100 coupleurs accordables). Tianchi512 au second semestre 2026) pour faire évoluer l’inférence via de grandes interconnexions.

IBM a présenté deux puces quantiques : Nighthawk (120 qubits, 218 coupleurs accordables) permettant des circuits environ 30 % plus complexes, et Loon, un banc d’essai tolérant aux pannes avec une connectivité à six voies et des coupleurs à longue portée.

INFRASTRUCTURE

Six États membres de l’UE — l’Autriche, la France, l’Allemagne, la Hongrie, l’Italie et la Slovénie — ont conjointement demandé que la loi sur les réseaux numériques (DNA) soit réexaminée, arguant que les éléments fondamentaux de la proposition — notamment la réglementation harmonisée de type télécom, les mécanismes de règlement des litiges relatifs aux frais de réseau et les règles plus larges en matière de fusion — devraient plutôt rester sous contrôle national.

CYBERSÉCURITÉ

Roblox mettra en place une estimation obligatoire de l’âge (à partir de décembre dans certains pays, puis à l’échelle mondiale en janvier) et segmentera les utilisateurs en tranches d’âge strictes afin de bloquer les discussions avec des adultes inconnus. Les moins de 13 ans resteront exclus des messages privés, sauf si leurs parents donnent leur accord.

Eurofiber a confirmé une violation de sa plateforme client ATE française et de son système de billetterie via un logiciel tiers, précisant que les services restaient opérationnels et que les données bancaires étaient sécurisées.

La FCC s’apprête à voter l’abrogation des règles de janvier prévues par la section 105 de la CALEA, qui obligeaient les principaux opérateurs à renforcer la sécurité de leurs réseaux contre les accès non autorisés et les interceptions, mesures adoptées après que la campagne de cyberespionnage Salt Typhoon ait révélé les vulnérabilités des télécommunications.

Le Royaume-Uni prévoit un projet de loi sur la cybersécurité et la résilience afin de renforcer les infrastructures nationales critiques et l’économie numérique en général contre les cybermenaces croissantes. Environ 1 000 fournisseurs de services essentiels (santé, énergie, informatique) seraient soumis à des normes renforcées, avec une extension potentielle à plus de 200 centres de données.

ÉCONOMIE

Les Émirats arabes unis ont réalisé leur première transaction gouvernementale à l’aide du dirham numérique, un projet pilote de monnaie numérique de banque centrale (CBDC) dans le cadre de son programme de transformation de l’infrastructure financière. De plus, la banque centrale des Émirats arabes unis a approuvé le Zand AED, la première monnaie stable réglementée et multi-chaînes adossée à l’AED, émise par la banque agréée Zand.

La Banque nationale tchèque a créé un portefeuille test d’actifs numériques d’une valeur de 1 million de dollars, comprenant des bitcoins, une monnaie stable en dollars américains et un dépôt sous forme de jetons, afin d’acquérir une expérience pratique en matière d’opérations, de sécurité et de lutte contre le blanchiment d’argent, sans intention d’investir activement.

La Roumanie a mené à bien son premier projet pilote en argent réel avec le portefeuille d’identité numérique de l’UE (EUDIW), en collaboration avec Banca Transilvania et BPC, permettant à un titulaire de carte d’authentifier un achat via le portefeuille plutôt que par SMS OTP ou lecteur de carte.

La Commission européenne a ouvert une enquête DMA afin de déterminer si Google Search pénalise injustement les éditeurs de presse via sa politique d’« abus de réputation de site », qui peut faire baisser le classement des médias hébergeant du contenu partenaire.

En termes de stratégies numériques, l’Agenda 2030 de la Commission européenne pour les consommateurs présente un plan visant à renforcer la protection, la confiance et la compétitivité tout en simplifiant la réglementation pour les entreprises.
Le Turkménistan a adopté sa première loi complète sur les actifs virtuels, qui entrera en vigueur le 1er janvier 2026, légalisant le minage de cryptomonnaies et autorisant les échanges sous réserve d’un enregistrement strict auprès de l’État.

DROITS DE L’HOMME

Le Conseil de l’UE a adopté de nouvelles mesures visant à accélérer le traitement des plaintes transfrontalières en matière de protection des données, avec des critères de recevabilité harmonisés et des droits procéduraux renforcés pour les citoyens et les entreprises. Un processus de coopération simplifié pour les cas simples permettra également de réduire les charges administratives et d’accélérer les résolutions.

L’Inde a commencé à mettre en œuvre sa loi de 2023 sur la protection des données personnelles numériques grâce à des règles nouvellement approuvées qui établissent les structures de gouvernance initiales, notamment un comité de protection des données, tout en accordant aux organisations un délai supplémentaire pour se conformer pleinement à leurs obligations.

JURIDIQUE

OpenAI s’oppose à une demande juridique restreinte du New York Times concernant 20 millions de conversations ChatGPT, dans le cadre du procès intenté par le Times pour utilisation abusive présumée de son contenu. OpenAI avertit que le partage de ces données pourrait exposer des informations sensibles et créer des précédents importants quant à la manière dont les plateformes d’IA traitent la confidentialité des utilisateurs, la conservation des données et la responsabilité juridique.

Un juge américain a autorisé la poursuite de l’action en justice engagée par l’Authors Guild contre OpenAI, rejetant le renvoi et admettant les allégations selon lesquelles les résumés de ChatGPT reproduisent illégalement le ton, l’intrigue et les personnages des auteurs.

L’autorité de régulation des médias irlandaise a ouvert sa première enquête DSA sur X, afin de déterminer si les utilisateurs disposent de voies de recours accessibles et de résultats clairs lorsque les demandes de suppression de contenu sont refusées.

Dans un revers pour la FTC, un juge américain a statué que Meta n’exerçait pas actuellement de pouvoir monopolistique dans le domaine des réseaux sociaux, rejetant ainsi une proposition qui aurait pu contraindre à la cession d’Instagram et de WhatsApp.

SOCIOCULTUREL

La Commission européenne a lancé le Culture Compass for Europe, un cadre visant à placer la culture au cœur de la politique de l’UE, à promouvoir l’identité et la diversité et à soutenir les secteurs créatifs.

Les régulateurs chinois du cyberespace ont lancé une campagne de répression contre les deepfakes utilisant l’IA pour usurper l’identité de personnalités publiques dans le cadre de ventes en direct, ordonnant le nettoyage des plateformes et la responsabilisation des spécialistes du marketing.

DÉVELOPPEMENT

Les ministres d’Afrique occidentale et centrale ont adopté la Déclaration de Cotonou afin d’accélérer la transformation numérique d’ici 2030, en visant la création d’un marché numérique africain unique, la généralisation du haut débit, la mise en place d’infrastructures numériques interopérables et l’harmonisation des règles en matière de cybersécurité, de gouvernance des données et d’intelligence artificielle. Cette initiative met l’accent sur le capital humain et l’innovation, avec pour objectif de doter 20 millions de personnes de compétences numériques, de créer deux millions d’emplois dans le secteur numérique et de stimuler le développement de l’intelligence artificielle et des infrastructures numériques régionales sous l’égide de l’Afrique.

Le rapport de l’UIT intitulé « Mesurer le développement numérique : faits et chiffres 2025 » révèle que, si la connectivité mondiale continue de se développer (avec près de 6 milliards de personnes connectées à Internet en 2025), 2,2 milliards de personnes restent encore hors ligne, principalement dans les pays à faible et moyen revenu. Des écarts importants persistent en matière de qualité de connexion, d’utilisation des données, d’accessibilité financière et de compétences numériques, ce qui empêche de nombreuses personnes de profiter pleinement du monde numérique.

La Suisse s’est officiellement associée à Horizon Europe, Digital Europe et Euratom R&T, accordant ainsi aux chercheurs suisses un statut équivalent à celui des chercheurs de l’UE pour diriger des projets et obtenir des financements dans tous les domaines à partir du 1er janvier 2025.

L’Ouzbékistan accorde désormais une validité juridique totale aux données personnelles sur le portail de services publics my.gov.uz, les assimilant à des documents papier (à compter du 1er novembre). Les citoyens peuvent accéder, partager et gérer leurs dossiers entièrement en ligne.


Australie. L’Australie a présenté un nouveau plan national pour l’intelligence artificielle (IA) visant à l’exploiter au service de la croissance économique, de l’inclusion sociale et de l’efficacité du secteur public, tout en mettant l’accent sur la sécurité, la confiance et l’équité dans son utilisation. Ce plan mobilise des investissements substantiels : des centaines de millions de dollars australiens sont consacrés à la recherche, aux infrastructures, au développement des compétences et à des programmes visant à aider les petites et moyennes entreprises à adopter l’IA. Le gouvernement prévoit également d’étendre l’accès à cette technologie à l’ensemble du pays.

Les mesures concrètes comprennent la création d’un centre national dédié à l’IA, le soutien à l’adoption de l’IA par les entreprises et les organisations à but non lucratif, l’amélioration des compétences numériques par le biais de formations dans les écoles et les communautés, et l’intégration de l’IA dans la prestation des services publics.

Afin de garantir une utilisation responsable, le gouvernement créera l’AI Safety Institute (AISI), un centre national chargé de consolider la recherche sur la sécurité de l’IA, de coordonner l’élaboration de normes et de conseiller le gouvernement et l’industrie sur les meilleures pratiques. L’institut évaluera la sécurité des modèles d’IA avancés, favorisera la résilience face aux abus ou aux accidents et servira de plaque tournante pour la coopération internationale en matière de gouvernance et de recherche dans le domaine de l’IA.

Le rapport met en évidence les atouts relatifs du Bangladesh : une infrastructure administrative en ligne en pleine expansion et une confiance généralement élevée du public dans les services numériques. Cependant, il dresse également un tableau franc des défis structurels : une connectivité inégale et un approvisionnement électrique peu fiable en dehors des grandes zones urbaines, une fracture numérique persistante (notamment entre les sexes et entre les zones urbaines et rurales), une capacité informatique haut de gamme limitée et une protection des données, une cybersécurité et des compétences liées à l’IA insuffisantes dans de nombreux secteurs de la société.

Dans le cadre de sa feuille de route, le pays prévoit de donner la priorité aux cadres de gouvernance, au renforcement des capacités et au déploiement inclusif, en veillant notamment à ce que l’IA soutienne les services publics dans les domaines de la santé, de l’éducation, de la justice et de la protection sociale.

Belgique. La Belgique rejoint un nombre grandissant de pays et d’organisations du secteur public qui ont restreint ou bloqué l’accès à DeepSeek en raison de craintes liées à la sécurité. Tous les fonctionnaires du gouvernement fédéral belge doivent cesser d’utiliser DeepSeek à compter du 1er décembre, et toutes les instances de DeepSeek doivent être supprimées des appareils officiels.

Cette décision fait suite à un avertissement du Centre pour la cybersécurité en Belgique, qui a identifié de graves risques liés à la protection des données associés à cet outil et a signalé que son utilisation posait problème pour le traitement d’informations gouvernementales sensibles.

Russie. Lors de la principale conférence russe sur l’IA (AI Journey), le président Vladimir Poutine a annoncé la création d’un groupe de travail national sur l’IA, le présentant comme essentiel pour réduire la dépendance vis-à-vis de l’IA étrangère. Le plan prévoit la construction de centres de données (alimentés même par des centrales nucléaires à petite échelle) et leur utilisation pour héberger des modèles d’IA générative qui protègent les intérêts nationaux. M. Poutine a également fait valoir que seuls des modèles développés au niveau national devraient être utilisés dans les secteurs sensibles, tels que la sécurité nationale, afin d’éviter toute fuite de données.

Singapour. Singapour vient de créer un espace de test mondial pour sécuriser l’intelligence artificielle. Les entreprises de tous pays peuvent désormais y mener des expérimentations concrètes afin de garantir le bon fonctionnement de leurs systèmes d’IA.

Ce dispositif est régi par 11 principes de gouvernance conformes aux normes internationales, notamment le cadre de gestion des risques liés à l’IA du NIST et la norme ISO/IEC 42001. Singapour espère ainsi combler le fossé entre les réglementations nationales fragmentées en matière d’IA et établir des références communes en matière de sécurité et de confiance.

L’UE. Une importante tempête politique se prépare au sein de l’UE. La Commission européenne a présenté ce qu’elle appelle l’Omnibus numérique, un ensemble de propositions visant à simplifier sa législation numérique. Cette initiative est saluée par certains comme nécessaire pour améliorer la compétitivité des acteurs numériques de l’UE, mais critiquée par d’autres en raison de ses implications potentiellement négatives dans des domaines tels que les droits numériques. Ce paquet comprend la proposition de règlement omnibus numérique Digital et la proposition de règlement omnibus numérique sur l’IA.

Dans un autre registre, mais toujours en lien avec ce sujet, la Commission européenne a lancé un outil de dénonciation de la législation sur l’IA, offrant ainsi aux citoyens de l’UE un canal sécurisé et confidentiel pour signaler toute violation présumée de la loi sur l’IA, y compris les déploiements d’IA dangereux ou à haut risque. Avec le lancement de cet outil, l’UE vise à combler les lacunes dans l’application de la loi européenne sur l’IA, à renforcer la responsabilité des développeurs et des déployeurs, et à promouvoir une culture d’utilisation responsable de l’IA dans tous les États membres.

Cet outil vise également à favoriser la transparence, en permettant aux régulateurs de réagir plus rapidement aux violations potentielles sans se fier uniquement aux audits ou aux inspections. Quels sont les développements notables au sein de l’UE ? La proposition de règlement omnibus numérique sur l’IA reporte la mise en œuvre des règles « à haut risque » prévues par la loi européenne sur l’IA jusqu’en 2027, accordant ainsi aux grandes entreprises technologiques un délai supplémentaire avant l’entrée en vigueur d’une surveillance plus stricte. L’entrée en vigueur des règles relatives à l’IA à haut risque sera désormais alignée sur la disponibilité des outils de soutien, ce qui donnera aux entreprises jusqu’à 16 mois pour se mettre en conformité. Les PME et les petites entreprises à moyenne capitalisation bénéficieront d’une documentation simplifiée, d’un accès plus large aux bacs à sable réglementaires et d’une surveillance centralisée des systèmes d’IA à usage général par le biais du Bureau de l’IA.

Les obligations de déclaration en matière de cybersécurité sont également simplifiées grâce à une interface unique pour les incidents relevant de plusieurs législations, tandis que les règles de confidentialité sont clarifiées afin de soutenir l’innovation sans affaiblir les protections prévues par le RGPD. Les règles relatives aux cookies seront modernisées afin de réduire les demandes de consentement répétitives et de permettre aux utilisateurs de gérer plus efficacement leurs préférences.

L’accès aux données sera amélioré grâce à la consolidation de la législation européenne en matière de données via la stratégie de l’Union des données, à des exemptions ciblées pour les petites entreprises et à de nouvelles orientations sur la conformité contractuelle. Ces mesures visent à débloquer des ensembles de données de haute qualité pour l’IA et à renforcer le potentiel d’innovation de l’Europe, tout en permettant aux entreprises d’économiser des milliards et en améliorant la clarté réglementaire.

La proposition de règlement omnibus numérique a des implications pour la protection des données dans l’UE. Les modifications proposées au règlement général sur la protection des données (RGPD) redéfiniraient la notion de données à caractère personnel, affaiblissant les garanties relatives à l’utilisation de ces données par les entreprises, en particulier pour la formation de l’IA. Parallèlement, le consentement aux cookies est simplifié en un modèle « en un clic » qui dure jusqu’à six mois.

Les groupes de défense de la vie privée et des droits civils ont exprimé leur inquiétude quant au fait que les modifications proposées au RGPD profitent de manière disproportionnée aux grandes entreprises technologiques. Une coalition de 127 organisations a publié un avertissement public indiquant que cela pourrait constituer « le plus grand recul des droits fondamentaux numériques dans l’histoire de l’UE ».

Ces propositions doivent passer par le processus colégislatif de l’UE : le Parlement et le Conseil vont les examiner, les amender et les négocier. Compte tenu de la controverse (soutien de l’industrie, opposition de la société civile), le résultat final pourrait être très différent de la proposition initiale de la Commission.

Le Royaume-Uni. Le gouvernement britannique a lancé une initiative majeure en matière d’intelligence artificielle afin de stimuler la croissance nationale dans ce domaine, combinant investissements dans les infrastructures, soutien aux entreprises et financement de la recherche. Le déploiement immédiat de 150 millions de livres sterling dans le Northamptonshire marque le coup d’envoi d’un programme de 18 milliards de livres sterling sur cinq ans visant à renforcer les capacités nationales en matière d’IA. Grâce à un engagement de marché avancé de 100 millions de livres sterling, l’État agira en tant que premier client des start-ups nationales spécialisées dans le matériel informatique dédié à l’IA, contribuant ainsi à réduire les risques liés à l’innovation et à stimuler la compétitivité.

Le plan comprend des zones de croissance de l’IA, avec un site phare dans le sud du Pays de Galles qui devrait créer plus de 5 000 emplois, et un accès élargi au calcul haute performance pour les universités, les start-ups et les organismes de recherche. Un volet dédié de 137 millions de livres sterling, intitulé « AI for Science » (l’IA au service de la science), permettra d’accélérer les percées dans les domaines de la découverte de médicaments, des énergies propres et des matériaux avancés, garantissant ainsi que l’IA stimule à la fois la croissance économique et la valeur publique.

Les Etats-Unis. L’ombre d’une politique restrictive en matière de réglementation plane sur les États-Unis. Les républicains alignés sur Trump ont une nouvelle fois insisté pour obtenir un moratoire sur la réglementation de l’IA au niveau des États. L’idée est d’empêcher les États d’adopter leurs propres lois sur l’IA, en arguant qu’un paysage réglementaire fragmenté entraverait l’innovation. Une version de la proposition lierait le financement fédéral du haut débit à la volonté des États de renoncer aux règles relatives à l’IA, pénalisant ainsi efficacement tout État qui tenterait de légiférer. Cependant, cette opposition ne fait pas l’unanimité : plus de 260 législateurs d’État de tous les États-Unis, républicains comme démocrates, ont dénoncé ce moratoire.

Le président a officiellement créé la Genesis Mission par décret le 24 novembre 2025, chargeant le département américain de l’Énergie (DOE) de diriger un effort national de recherche scientifique axé sur l’IA. Cette mission permettra de créer une « plateforme américaine pour la science et la sécurité » unifiée, combinant les supercalculateurs des 17 laboratoires nationaux du DOE, les ensembles de données scientifiques fédérales accumulées au fil des décennies et une capacité de calcul haute performance sécurisée, créant ainsi ce que l’administration décrit comme « l’instrument scientifique le plus complexe et le plus puissant jamais construit au monde ».

Dans le cadre de ce plan, l’IA générera des « modèles scientifiques fondamentaux » et des agents IA capables d’automatiser la conception d’expériences, d’exécuter des simulations, de tester des hypothèses et d’accélérer les découvertes dans des domaines stratégiques clés : biotechnologie, matériaux avancés, minéraux critiques, science de l’information quantique, fission et fusion nucléaires, exploration spatiale, semi-conducteurs et micro-électronique.

Cette initiative est présentée comme essentielle pour la sécurité énergétique, le leadership technologique et la compétitivité nationale. L’administration affirme que malgré des décennies d’augmentation des fonds consacrés à la recherche, le rendement scientifique par dollar investi a stagné et que l’IA peut radicalement stimuler la productivité de la recherche en l’espace d’une décennie.

Pour concrétiser ces ambitions, le décret présidentiel établit une structure de gouvernance : le secrétaire du DOE supervise la mise en œuvre ; l’assistant du président pour la science et la technologie assure la coordination entre les agences ; et le DOE peut s’associer à des entreprises du secteur privé, des universités et d’autres parties prenantes pour intégrer les données, les calculs et les infrastructures.

Émirats arabes unis et Afrique. L’initiative « AI for Development » a été annoncée afin de promouvoir les infrastructures numériques à travers l’Afrique, soutenue par un engagement d’un milliard de dollars américains de la part des Émirats arabes unis. Selon les déclarations officielles, l’initiative prévoit d’allouer des ressources à des secteurs tels que l’éducation, l’agriculture, l’adaptation au changement climatique, les infrastructures et la gouvernance, aidant ainsi les gouvernements africains à adopter des solutions basées sur l’IA, même lorsque les capacités nationales en matière d’IA restent limitées.

Bien que tous les détails restent à préciser (par exemple, la sélection des pays partenaires, les mécanismes de gouvernance et de contrôle), l’ampleur et l’ambition de cette initiative témoignent de la volonté des Émirats arabes unis d’agir non seulement comme un centre d’adoption de l’IA, mais aussi comme un catalyseur régional et mondial du développement fondé sur l’IA.

Ouzbékistan. L’Ouzbékistan a annoncé le lancement du projet «5 millions de leaders en IA» visant à développer ses capacités nationales dans ce domaine. Dans le cadre de ce plan, le gouvernement intégrera des programmes axés sur l’IA dans les écoles, les formations professionnelles et les universités ; formera 4,75 millions d’étudiants, 150 000 enseignants et 100 000 fonctionnaires ; et lancera des concours à grande échelle pour les start-ups et les talents dans le domaine de l’IA.

Le programme prévoit également la mise en place d’une infrastructure informatique haute performance (en partenariat avec une grande entreprise technologique), la création d’un bureau national de transfert de l’IA à l’étranger et la création de laboratoires de pointe dans les établissements d’enseignement, le tout dans le but d’accélérer l’adoption de l’IA dans tous les secteurs.

Le gouvernement considère cela comme essentiel pour moderniser l’administration publique et positionner l’Ouzbékistan parmi les 50 premiers pays au monde prêts pour l’IA.

La bulle de l’intelligence artificielle est-elle sur le point d’éclater ?

La bulle de l’IA est en train de gonfler au point d’éclater. Il existe cinq causes à la situation actuelle et cinq scénarios futurs qui indiquent comment prévenir ou gérer un éventuel « éclatement ».

La frénésie des investissements dans l’IA ne s’est pas produite dans le vide. Plusieurs facteurs ont contribué à notre tendance à la surévaluation et à nos attentes irréalistes.

Première cause : le battage médiatique. L’IA a été présentée comme l’avenir inévitable de l’humanité. Ce discours a créé une forte peur de passer à côté (FOMO), incitant les entreprises et les gouvernements à investir massivement dans l’IA, souvent sans faire preuve de réalisme.

Deuxième cause : le rendement décroissant de la puissance de calcul et des données. La formule simple qui a dominé ces dernières années était la suivante : plus de puissance de calcul (c’est-à-dire plus de GPU Nvidia) + plus de données = une meilleure IA. Cette croyance a conduit à la création d’énormes usines d’IA : des centres de données à très grande échelle et une empreinte électrique et hydrique alarmante. Le simple fait d’empiler davantage de GPU ne permet plus aujourd’hui d’obtenir que des améliorations marginales.

Troisième cause : les limites logiques et conceptuelles des grands modèles linguistiques (LLM). Les LLM se heurtent à des limites structurelles qui ne peuvent être résolues simplement en augmentant les données et la puissance de calcul. Malgré le discours dominant sur l’imminence de la superintelligence, de nombreux chercheurs de premier plan doutent que les LLM actuels puissent simplement « évoluer » vers une intelligence artificielle générale (AGI) de niveau humain.

Quatrième cause : lenteur de la transformation de l’IA. La plupart des investissements dans l’IA sont encore basés sur le potentiel, et non sur une valeur mesurable et réalisée. La technologie progresse plus rapidement que la capacité de la société à l’absorber. Les précédents hivers de l’IA dans les années 1970 et à la fin des années 1980 ont fait suite à des périodes de promesses excessives et de résultats insuffisants, entraînant des réductions drastiques des financements et l’effondrement de l’industrie.

Cinquième cause : les écarts de coûts considérables. La dernière vague de modèles open source a démontré que ces derniers, qui coûtent quelques millions de dollars, peuvent égaler ou surpasser des modèles coûtant des centaines de millions. Cela soulève des questions quant à l’efficacité et la nécessité des dépenses actuelles en matière d’IA propriétaire.

 Balloon, Book, Comics, Publication, Person, Adult, Male, Man, Face, Head

Cinq scénarios décrivent comment l’engouement actuel pourrait évoluer.

Premier scénario : le pivot rationnel (la solution classique). Une correction du marché pourrait éloigner le développement de l’IA de l’hypothèse selon laquelle plus de puissance de calcul produit automatiquement de meilleurs modèles. Au contraire, le domaine s’orienterait vers des architectures plus intelligentes, une intégration plus profonde avec les connaissances humaines et les institutions, et des systèmes plus petits, spécialisés et souvent open source. Les politiques publiques s’orientent déjà dans cette direction : le plan d’action américain en matière d’IA considère les modèles ouverts comme des atouts stratégiques. Cependant, ce pivot se heurte à la résistance des modèles propriétaires bien établis, à la dépendance vis-à-vis des données fermées et aux débats non résolus sur la manière dont les créateurs de connaissances humaines devraient être rémunérés.

Deuxième scénario : « Trop grand pour faire faillite » (le scénario du sauvetage de 2008). Une autre issue consiste à considérer les grandes entreprises d’IA comme des infrastructures économiques essentielles. Les leaders du secteur mettent déjà en garde contre l’« irrationalité » des niveaux d’investissement actuels, suggérant qu’un trimestre faible d’une entreprise clé pourrait ébranler les marchés mondiaux. Dans ce scénario, les gouvernements fournissent des filets de sécurité implicites ou explicites (crédits bon marché, réglementation favorable ou accords d’infrastructure public-privé) en partant du principe que les géants de l’IA sont d’importance systémique.

Troisième scénario : justification géopolitique (la Chine est à nos portes). La concurrence avec la Chine pourrait devenir la principale justification d’un investissement public soutenu. Les progrès rapides de la Chine, notamment avec des modèles ouverts à faible coût comme DeepSeek R1, suscitent déjà des comparaisons avec le « choc Spoutnik ». Le soutien aux champions nationaux est alors présenté comme une question de souveraineté technologique, transférant le risque des investisseurs aux contribuables.

Quatrième scénario : monopolisation de l’IA (le pari de Wall Street). Si les petites entreprises ne parviennent pas à monétiser leurs activités, les capacités en matière d’IA pourraient se concentrer entre les mains d’une poignée de géants technologiques, à l’image de la monopolisation passée dans les domaines de la recherche, des réseaux sociaux et du cloud. La domination de Nvidia dans le domaine du matériel informatique dédié à l’IA renforce cette dynamique. Les modèles open source ralentissent la consolidation, mais ne l’empêchent pas.

Cinquième scénario : l’hiver de l’IA et les nouveaux jouets numériques. Enfin, un léger hiver de l’IA pourrait apparaître à mesure que les investissements se refroidissent et que l’attention se tourne vers de nouvelles frontières : l’informatique quantique, les jumeaux numériques, la réalité immersive. L’IA resterait une infrastructure vitale, mais ne serait plus au centre de l’engouement spéculatif.

Les prochaines années montreront si l’IA deviendra un autre jouet numérique surévalué ou une partie plus mesurée, ouverte et durable de notre infrastructure économique et politique.
Ce texte est une adaptation de l’article du Dr Jovan Kurbalija intitulé « La bulle de l’IA est-elle sur le point d’éclater ? Cinq causes et cinq scénarios ». Veuillez consulter l’article original ci-dessous.

BLOG featured image 2025 AI bubble
www.diplomacy.edu

This text outlines five causes and five scenarios around the AI bubble and potential burst.

Réajustement de l’agenda numérique : points clés du document SMSI+20 Rev 1

Une version révisée du document final du SMSI+20 – Révision 1 – a été publiée le 7 novembre par les co-facilitateurs du processus intergouvernemental. Ce document servira de base aux négociations entre les États membres de l’ONU avant la réunion de haut niveau de l’Assemblée générale qui se tiendra les 16 et 17 décembre 2025.

Tout en conservant la structure générale du projet zéro publié en août, la révision 1 introduit plusieurs modifications et nouveaux éléments.

Le nouveau texte comprend des formulations révisées et renforcées à certains endroits – soulignant la nécessité de combler plutôt que de réduire les fractures numériques, présentées comme des défis multidimensionnels qui doivent être relevés pour réaliser la vision du SMSI. 

Parallèlement, certaines questions ont été dépriorisées : par exemple, les références aux déchets électroniques et l’appel à l’adoption de normes mondiales de reporting sur les impacts environnementaux ont été supprimées de la section consacrée à l’environnement.

Plusieurs nouveaux éléments font également leur apparition. Dans la section consacrée aux environnements favorables, les États sont enjoints de s’abstenir de prendre des mesures unilatérales contraires au droit international.

L’importance d’une participation inclusive à l’élaboration des normes est également de nouveau reconnue.

La section consacrée aux mécanismes financiers invite le Secrétaire général à envisager la création d’un groupe de travail sur les futurs mécanismes financiers pour le développement numérique, dont les conclusions seront présentées à l’Assemblée générale des Nations unies lors de sa 81ème session.

La section consacrée à la gouvernance de l’Internet fait désormais référence aux lignes directrices NetMundial+10.

Les formulations relatives au Forum sur la gouvernance de l’Internet (FGI) restent largement fidèles au projet Zéro. Cela confirme la volonté de pérenniser le forum et de charger le Secrétaire général de soumettre des propositions sur son financement futur. De nouveaux passages invitent par ailleurs le FGI à renforcer la participation des gouvernements et des acteurs des pays en développement aux débats sur la gouvernance du web et les technologies émergentes.

Plusieurs domaines ont connu des changements de ton. Le langage utilisé dans la section consacrée aux droits de l’homme a été adouci à certains endroits (par exemple, les références aux garanties en matière de surveillance et aux menaces pesant sur les journalistes ont été supprimées).

Et la manière dont l’interaction entre le SMSI et le PNM est présentée a changé : l’accent est désormais mis sur l’alignement entre les processus du SMSI et du PNM plutôt que sur leur intégration. Par exemple, si la feuille de route conjointe PNM-SMSI visait initialement à « intégrer les engagements du PNM dans l’architecture du SMSI », elle devrait désormais « viser à renforcer la cohérence entre les processus du SMSI et du PNM ». Des ajustements correspondants sont également reflétés dans les rôles du Conseil économique et social et de la Commission de la science et de la technologie pour le développement.

Quelle est la prochaine étape ? Les inscriptions sont désormais ouvertes pour la prochaine consultation virtuelle des parties prenantes du SMSI+20, prévue le lundi 8 décembre 2025, afin de recueillir des commentaires sur le projet de document final révisé (Rev2). Les participants doivent s’inscrire avant le dimanche 7 décembre à 23 h 59 (heure de l’Est).

Une première réponse au Rev2 et un document-cadre guideront la session et seront publiés dès qu’ils seront disponibles.

Cette consultation s’inscrit dans le cadre des préparatifs de la réunion de haut niveau de l’Assemblée générale consacrée à l’examen global de la mise en œuvre des résultats du Sommet mondial sur la société de l’information (SMSI+20), qui se tiendra les 16 et 17 décembre 2025.

Programmation et climat : les enjeux de l’IA et du numérique à la COP 30

La COP 30, la 30e conférence annuelle des Nations unies sur le climat, s’est officiellement achevée vendredi dernier, le 21 novembre. Alors que le calme revient à Belém, nous examinons de plus près les résultats obtenus et leurs implications pour les technologies numériques et l’IA.

Dans le domaine de l’agriculture, la dynamique est clairement en train de s’accélérer. Le Brésil et les Émirats arabes unis ont dévoilé AgriLLM, le premier modèle linguistique open source de grande envergure spécialement conçu pour l’agriculture, développé avec le soutien de partenaires internationaux dans le domaine de la recherche et de l’innovation. L’objectif est de fournir aux gouvernements et aux organisations locales une base numérique commune pour créer des outils permettant de fournir aux agriculteurs des conseils pertinents et adaptés à leur situation locale. Parallèlement, l’initiative AIM for Scale vise à fournir des services de conseil numériques, notamment des prévisions climatiques et des informations sur les cultures, à 100 millions d’agriculteurs.

 Person, Book, Comics, Publication, Cleaning, Clothing, Hat, Outdoors

Les villes et les infrastructures s’engagent également davantage dans la transformation numérique. Grâce au Fonds de développement de la résilience des infrastructures, les assureurs, les banques de développement et les investisseurs privés mettent en commun leurs capitaux pour financer des infrastructures résilientes au changement climatique dans les économies émergentes, qu’il s’agisse de systèmes d’énergie propre et d’approvisionnement en eau ou de réseaux numériques nécessaires pour maintenir les communautés connectées et protégées en cas de chocs climatiques.

Le programme numérique le plus explicite a vu le jour dans le cadre des « facilitateurs et accélérateurs ». Le Brésil et ses partenaires ont lancé la première infrastructure numérique pour l’action climatique au monde, une initiative mondiale visant à aider les pays à adopter des biens publics numériques ouverts dans des domaines tels que la réponse aux catastrophes, la gestion de l’eau et l’agriculture résiliente au climat. Le défi de l’innovation qui l’accompagne soutient déjà de nouvelles solutions conçues pour être déployées à grande échelle.

Le Green Digital Action Hub a également été lancé et aidera les pays à mesurer et à réduire l’empreinte environnementale de la technologie, tout en élargissant l’accès aux outils qui utilisent la technologie au service de la durabilité.

La formation et le renforcement des capacités ont fait l’objet d’une attention particulière grâce au nouveau AI Climate Institute, qui aidera les pays du Sud à développer et à déployer des applications d’IA adaptées aux besoins locaux, en particulier des modèles légers et économes en énergie.

Le Nature’s Intelligence Studio, basé en Amazonie, soutiendra l’innovation inspirée par la nature et introduira des outils d’IA ouverts qui aideront à relever les défis réels en matière de durabilité grâce à des solutions biosourcées.

Enfin, la COP 30 a réalisé une première en inscrivant fermement l’intégrité de l’information à l’ordre du jour de l’action climatique.

La désinformation et la mésinformation étant reconnues comme un risque mondial majeur, les gouvernements et les partenaires ont lancé une déclaration et un nouveau processus multipartite visant à renforcer la transparence, la responsabilité partagée et la confiance du public dans les informations climatiques, y compris les plateformes numériques qui les façonnent.

Vue d’ensemble. Dans tous les domaines, la COP 30 a envoyé un message clair : la dimension numérique de l’action climatique n’est pas facultative, elle fait partie intégrante de la mise en œuvre de l’action climatique.

De l’Australie à l’Union européenne : de nouvelles mesures protègent les enfants contre les dangers en ligne

Les interdictions visant les moins de 16 ans se généralisent à l’échelle mondiale, et l’Australie est le pays qui va le plus loin dans cette voie. Les autorités de régulation australiennes ont désormais élargi le champ d’application de l’interdiction pour inclure des plateformes telles que Twitch, qui est considérée comme soumise à une restriction d’âge en raison de ses fonctionnalités d’interaction sociale. Meta a commencé à informer les utilisateurs australiens présumés âgés de moins de 16 ans que leurs comptes Facebook et Instagram seront désactivés à compter du 4 décembre, une semaine avant l’entrée en vigueur officielle de la loi le 10 décembre.

Afin d’accompagner les familles dans cette transition, le gouvernement a mis en place un groupe consultatif de parents, réunissant des organisations représentant divers types de ménages, afin d’aider les parents à guider leurs enfants en matière de sécurité en ligne, de communication et de connexion numérique sécurisée.

L’interdiction a déjà suscité une opposition. Les principales plateformes de réseaux sociaux ont critiqué cette interdiction, mais ont indiqué qu’elles s’y conformeraient, YouTube étant la dernière à se rallier. Cependant, l’interdiction est désormais contestée devant la Haute Cour par deux jeunes de 15 ans, soutenus par le groupe de défense Digital Freedom Project. Ils affirment que la loi limite de manière injuste la capacité des moins de 16 ans à participer au débat public et à l’expression politique, réduisant ainsi au silence les jeunes sur des questions qui les concernent directement.

La Malaisie prévoit également d’interdire les comptes sur les réseaux sociaux aux personnes de moins de 16 ans à partir de 2026. Le gouvernement a approuvé cette mesure afin de protéger les enfants contre les dangers en ligne tels que le cyberharcèlement, les escroqueries et l’exploitation sexuelle. Les autorités envisagent des approches telles que la vérification électronique de l’âge à l’aide de cartes d’identité ou de passeports, bien que la date exacte de mise en œuvre n’ait pas encore été fixée.

Les législateurs européens ont proposé des protections similaires. Le Parlement européen a adopté un rapport non législatif appelant à une harmonisation de l’âge minimum à 16 ans au sein de l’UE pour les réseaux sociaux, les plateformes de partage de vidéos et les assistants IA. L’accès des 13-16 ans ne serait autorisé qu’avec le consentement parental. Les députés soutiennent le développement d’une application européenne de vérification d’âge et du portefeuille d’identité numérique européen (eID), tout en insistant sur le fait que ces outils ne dispensent pas les plateformes de concevoir des services sûrs par défaut.

Au-delà des restrictions d’âge, l’UE renforce les mesures de protection de manière plus générale. Les États membres ont approuvé une position du Conseil en faveur d’un règlement visant à prévenir et à combattre les abus sexuels sur enfants en ligne qui définit des obligations concrètes et exécutoires pour les fournisseurs de services en ligne. Les plateformes devront procéder à des évaluations formelles des risques afin d’identifier comment leurs services pourraient être utilisés pour diffuser du matériel pédopornographique ou pour solliciter des enfants, puis mettre en place des mesures d’atténuation, allant de paramètres de confidentialité par défaut plus sûrs pour les enfants et d’outils de signalement pour les utilisateurs à des garanties techniques. Les États membres désigneront des autorités nationales de coordination et compétentes qui pourront examiner ces évaluations des risques, obliger les fournisseurs à mettre en œuvre des mesures d’atténuation et, si nécessaire, imposer des sanctions financières en cas de non-respect.

Il est important de noter que le Conseil introduit une classification des risques à trois niveaux pour les services en ligne (élevé, moyen, faible). Les services jugés à haut risque, sur la base de critères concrets tels que le type de service, peuvent être tenus non seulement d’appliquer des mesures d’atténuation plus strictes, mais aussi de contribuer au développement de technologies visant à réduire ces risques. Les moteurs de recherche peuvent être contraints de supprimer des résultats ; les autorités compétentes peuvent exiger la suppression ou le blocage de l’accès aux contenus pédopornographiques. Cette position maintient et vise à rendre permanente une exemption temporaire existante qui permet aux fournisseurs (par exemple, les services de messagerie) de scanner volontairement les contenus à la recherche de pédopornographie — une exemption qui expire le 3 avril 2026.

Afin de mettre en œuvre et de coordonner l’application de la réglementation, celle-ci prévoit la création d’un nouvel organe régulateur, le Centre de l’UE sur les abus sexuels sur enfants.  Le Centre traitera et évaluera les informations et signalements transmis par les plateformes, gérera une base de données contenant les rapports des fournisseurs et ainsi qu’une base d’indicateurs d’abus sexuels, que les entreprises pourront utiliser pour leurs activités de détection volontaire, soutiendra les victimes à obtenir le retrait ou le blocage de l’accès aux contenus les mettant en scène, et partagera les informations pertinentes avec Europol et les services répressifs nationaux. Le siège du Centre n’a pas encore été fixé ; il fera l’objet de négociations avec le Parlement européen. L’accord trouvé au sein du Conseil marque une étape décisive. Les négociations formelles en « trilogue » (discussions entre le Conseil, le Parlement et la Commission) peuvent désormais débuter, le Parlement ayant déjà adopté sa propre position en novembre 2023.

Le rapport du Parlement européen s’attaque également aux risques numériques du quotidien. Les députés appellent à l’interdiction des pratiques addictives les plus nocives, notamment : le défilement infini (infinite scroll), la lecture automatique (autoplay), les boucles de récompense (reward loops), le mécanisme de “tirer pour rafraîchir” (pull-to-refresh). D’autres fonctionnalités addictives devraient être désactivées par défaut pour les mineurs. Le Parlement demande instamment l’interdiction des algorithmes de recommandation basés sur l’engagement pour les jeunes utilisateurs, tout en exigeant que les règles claires du règlement sur les services numériques (DSA) soient étendues aux plateformes de partage de vidéos. Le rapport cible également les mécanismes de jeu qui imitent les jeux de hasard. Les « loot boxes » (coffres à butin), les récompenses aléatoires intégrées aux applications et les mécaniques de « pay-to-progress » (payer pour progresser) devraient être proscrites afin de protéger les plus jeunes de l’engrenage financier et psychologique. Enfin, le texte aborde l’exploitation commerciale, demandant instamment l’interdiction pour les plateformes de proposer des incitations financières pour le « kidfluencing », c’est-à-dire l’utilisation d’enfants comme influenceurs. 

Les députés européens ont pointé du doigt les risques liés à l’IA générative : deepfakes, chatbots de compagnie, agents d’IA et applications de nudité par IA créant des images manipulées non consensuelles, appelant à une action juridique et éthique urgente. La rapporteure Christel Schaldemose a présenté ces mesures comme le tracé d’une ligne rouge claire : les plateformes ne sont « pas conçues pour les enfants » et l’expérimentation consistant à laisser des designs addictifs et manipulateurs cibler les mineurs doit prendre fin.

Une nouvelle initiative multilatérale est également en cours : le commissaire à la sécurité électronique (Australie), l’Ofcom (Royaume-Uni) et la DG CNECT de la Commission européenne vont coopérer afin de protéger les droits, la sécurité et la vie privée des enfants en ligne.

Les instances de régulation appliqueront les lois relatives à la sécurité en ligne, exigeront des plateformes qu’elles évaluent et atténuent les risques pour les enfants, encourageront les technologies préservant la vie privée telles que la vérification de l’âge, et s’associeront à la société civile et au monde universitaire afin que les approches réglementaires restent ancrées dans la réalité. 

Un nouveau groupe technique trilatéral sera créé afin d’étudier comment les systèmes de vérification de l’âge peuvent fonctionner de manière fiable et interopérable, renforçant ainsi les preuves pour de futures mesures réglementaires.

Les députés européens ont mis en avant les risques liés à l’IA générative (deepfakes, chatbots de compagnie, agents IA et applications de nudité alimentées par l’IA qui créent des images modifiées sans consentement) et ont appelé à une action juridique et éthique urgente. La rapporteure Christel Schaldemose a présenté ces mesures comme une ligne claire : les plateformes ne sont « pas conçues pour les enfants » et l’expérience consistant à laisser des designs addictifs et manipulateurs cibler les mineurs doit cesser.

Une nouvelle initiative multilatérale est également en cours : le commissaire à la sécurité électronique (Australie), l’Ofcom (Royaume-Uni) et la DG CNECT de la Commission européenne vont coopérer afin de protéger les droits, la sécurité et la vie privée des enfants en ligne.

Les instances de régulation appliqueront les lois relatives à la sécurité en ligne, exigeront des plateformes qu’elles évaluent et atténuent les risques pour les enfants, encourageront les technologies préservant la vie privée telles que la vérification de l’âge, et s’associeront à la société civile et au monde universitaire afin que les approches réglementaires restent ancrées dans la réalité.

Un nouveau groupe technique trilatéral sera créé afin d’étudier comment les systèmes de vérification de l’âge peuvent fonctionner de manière fiable et interopérable, renforçant ainsi les preuves pour de futures mesures réglementaires.

L’objectif global est d’aider les enfants et les familles à utiliser Internet de manière plus sûre et plus confiante, en favorisant la culture numérique, l’esprit critique et en rendant les plateformes en ligne plus responsables.

Cloud en panne : le grand désert numérique.

Le 18 novembre, Cloudflare, l’infrastructure invisible qui soutient des millions de sites web, a connu une panne que l’entreprise qualifie de « la plus grave depuis 2019 ». Les utilisateurs du monde entier ont reçu des messages d’erreur interne du serveur lorsque des services tels que X et ChatGPT ont été temporairement hors ligne.

La cause était une erreur de configuration interne. Une modification de routine des autorisations dans une base de données ClickHouse a entraîné la création d’un « fichier de fonctionnalités » mal formé utilisé par l’outil de gestion des robots de Cloudflare. Ce fichier a doublé de taille de manière inattendue et, lorsqu’il a été diffusé sur le réseau mondial de Cloudflare, il a dépassé les limites intégrées, provoquant des pannes en cascade.

Alors que les ingénieurs s’empressaient d’isoler le fichier défectueux, le trafic a progressivement repris. En milieu d’après-midi, Cloudflare a interrompu la propagation, remplacé le fichier corrompu et redémarré les systèmes clés ; le réseau a été entièrement rétabli quelques heures plus tard.

Une vision plus large. Cet incident n’est pas isolé. Le mois dernier, Microsoft Azure a subi une panne de plusieurs heures qui a perturbé les clients professionnels en Europe et aux États-Unis, tandis qu’Amazon Web Services (AWS) a connu des interruptions intermittentes affectant les plateformes de streaming et les sites de commerce électronique. Ces événements, combinés à la panne de Cloudflare, soulignent la fragilité de l’infrastructure cloud mondiale.

Cette panne survient à un moment politiquement sensible dans le débat sur la politique européenne en matière de cloud. Les régulateurs bruxellois enquêtent déjà sur AWS et Microsoft Azure afin de déterminer s’ils doivent être désignés comme « gardiens » au titre de la loi européenne sur les marchés numériques (DMA). Ces enquêtes visent à évaluer si leur position dominante dans l’infrastructure cloud leur confère un contrôle disproportionné, même si, techniquement, ils ne répondent pas aux critères habituels de taille fixés par la loi.

Ce schéma récurrent met en évidence une vulnérabilité majeure de l’Internet moderne, née d’une dépendance excessive à l’égard d’une poignée de fournisseurs essentiels. Lorsqu’un de ces piliers centraux vacille, que ce soit en raison d’une mauvaise configuration, d’un bug logiciel ou d’un problème régional, les effets se répercutent à tous les niveaux. La concentration même des services, qui permet l’efficacité et l’évolutivité, crée également des points de défaillance uniques avec des conséquences en cascade.

Le mois dernier à Genève

Le monde de la gouvernance numérique a été très actif à Genève en novembre. Voici ce que nous avons essayé de suivre.

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Le CERN présente sa stratégie en matière d’intelligence artificielle pour faire progresser la recherche et les opérations

Le CERN a approuvé une stratégie globale en matière d’IA afin de guider son utilisation dans les domaines de la recherche, des opérations et de l’administration. Cette stratégie rassemble différentes initiatives au sein d’un cadre cohérent visant à promouvoir une IA responsable et efficace au service de l’excellence scientifique et opérationnelle.

Elle s’articule autour de quatre objectifs principaux : accélérer les découvertes scientifiques, améliorer la productivité et la fiabilité, attirer et développer les talents, et permettre le déploiement à grande échelle de l’IA grâce à des partenariats stratégiques avec l’industrie et les États membres.

Des outils communs et des expériences partagées entre les différents secteurs renforceront la communauté du CERN et garantiront un déploiement efficace.

La mise en œuvre impliquera des plans prioritaires et une collaboration avec les programmes de l’UE, l’industrie et les États membres afin de renforcer les capacités, d’obtenir des financements et de développer les infrastructures. Les applications de l’IA soutiendront les expériences de physique des hautes énergies, les futurs accélérateurs, les détecteurs et la prise de décision fondée sur les données.

Le groupe intersessions 2025-2026 de la Commission des Nations Unies pour la science et la technologie au service du développement (CSTD)

La Commission de la science et de la technique au service du développement (CSTD) de l’ONU a tenu sa réunion intersessions 2025-2026 le 17 novembre au Palais des Nations à Genève. L’ordre du jour était axé sur la science, la technologie et l’innovation à l’ère de l’IA, avec des contributions d’experts issus du monde universitaire, d’organisations internationales et du secteur privé. Les délégations ont également examiné les progrès réalisés dans la mise en œuvre du SMSI avant le processus SMSI+20 et ont reçu des informations actualisées sur la mise en œuvre du Pacte numérique mondial (PNM) et les travaux en cours sur la gouvernance des données au sein du groupe de travail dédié de la CSTD. Les conclusions et recommandations du panel seront examinées lors de la vingt-neuvième session de la Commission en 2026.

Quatrième réunion du groupe de travail multipartite de la CSTD des Nations Unies sur la gouvernance des données à tous les niveaux

Le groupe de travail multipartite de la CSTD sur la gouvernance des données à tous les niveaux s’est réuni pour la quatrième fois les 18 et 19 novembre. Le programme a débuté par des allocutions d’ouverture et l’adoption officielle de l’ordre du jour. Le secrétariat de la CNUCED a ensuite présenté un aperçu des contributions soumises depuis la dernière session, en soulignant les nouveaux domaines de convergence et de divergence entre les parties prenantes. La réunion s’est poursuivie par des délibérations de fond organisées autour de quatre axes couvrant les dimensions clés de la gouvernance des données : les principes applicables à tous les niveaux ; l’interopérabilité entre les systèmes ; le partage des avantages des données ; et la mise en place de flux de données sûrs, sécurisés et fiables, y compris au-delà des frontières. Ces discussions ont pour objectif d’explorer les approches pratiques, les défis existants et les voies possibles vers un consensus.

Après la pause déjeuner, les délégués se sont réunis à nouveau pour une séance plénière qui a duré tout l’après-midi afin de poursuivre les échanges thématiques, avec des occasions d’interaction entre les États membres, le secteur privé, la société civile, le monde universitaire, la communauté technique et les organisations internationales.

La deuxième journée a été consacrée aux étapes importantes du groupe de travail. Les délégations ont examiné les grandes lignes, le calendrier et les attentes concernant le rapport d’étape à présenter à l’Assemblée générale, ainsi que le processus de sélection du prochain président du groupe de travail. La session s’est conclue par un accord sur le calendrier des prochaines réunions et sur toute question supplémentaire soulevée par les participants.

Dialogue sur l’innovation 2025 : Les neurotechnologies et leurs implications pour la paix et la sécurité internationales

On 24 November, UNIDIR hosted its Innovations Dialogue on neurotechnologies and their implications for international peace and security in Geneva and online. Experts from neuroscience, law, ethics, and security policy discussed developments such as brain-computer interfaces and cognitive enhancement tools, exploring both their potential applications and the challenges they present, including ethical and security considerations. The event included a poster exhibition on responsible use and governance approaches.

14e Forum des Nations Unies sur les entreprises et les droits de l’Homme
Le 14e Forum des Nations Unies sur les entreprises et les droits de l’Homme s’est tenu du 24 au 26 novembre à Genève et en ligne, sur le thème « Accélérer l’action en faveur des entreprises et des droits de l’Homme face aux crises et aux transformations ». Le forum a abordé des questions clés, notamment la protection des droits de l’Homme à l’ère de l’IA et l’exploration des droits de l’Homme et du travail sur les plateformes dans la région Asie-Pacifique dans le contexte de la transformation numérique en cours. En marge de l’événement, une session a également examiné de près “le travail de l’ombre” derrière l’intelligence artificielle.


Weekly #241 Australia’s social media ban: Making it work

 Logo, Text

28 November-5 December 2025


HIGHLIGHT OF THE WEEK

Australia’s social media ban: Making it work

Australia’s under-16 social-media ban is moving from legislation to enforcement, and the first signs of impact are already visible. Ahead of the 10 December deadline, Meta has begun blocking teen users, warning that accounts flagged as belonging to under-16s will be restricted or shut down. Those mistakenly removed can appeal by submitting a government-issued ID or a video selfie age check—a process that is already prompting complaints about privacy and accuracy. YouTube, meanwhile, has criticised the framework as unrealistic and potentially harmful, arguing that overly rigid age controls could push young people toward far less safe online spaces. However, the platform will, ultimately, comply with the ban.

The Australian government remains confident the world will follow its lead, framing the ban as a model for global child-safety regulation. But with implementation underway, many are asking a basic question: how will the ban actually work in practice?

 Book, Publication, Comics, Person, Animal, Bird, Face, Head, Bus Stop, Outdoors, Bench, Furniture

Australia’s Online Safety Amendment (Social Media Minimum Age) Act 2024 bans anyone under 16 from creating or maintaining accounts on major social-media platforms. 

  • Companies such as Meta must take ‘reasonable steps’ to verify users’ ages or face fines of up to AUD$50 million. 
  • Platforms can choose from various verification methods, including government-issued ID checks, third-party age-assurance tools, facial-analysis systems, or data-based age inference. 
  • If an account appears to belong to someone under 16, platforms must restrict it, request verification, or close it. Users who are wrongly flagged can file appeals; however, the process varies. 
  • The law applies broadly to apps with social-networking features, while some smaller platforms fall outside the scope. 

Overall, enforcement relies heavily on industry compliance and emerging age-verification technologies.

Public and expert reactions reflect this tension between intention and reality.

Supporters argue the ban protects children from cyberbullying, harmful content, and addictive platform design, while setting a global precedent for stricter regulation of Big Tech. Some mental-health professionals cautiously welcome reduced exposure to high-risk environments. 

Critics warn that the policy may isolate teenagers, limit self-expression, and disproportionately harm vulnerable groups who rely on online communities. Age-verification trials reveal accuracy problems, with systems misclassifying teens and adults, raising concerns about wrongful account closures. Privacy advocates object to the increased collection of sensitive data, including IDs and facial images. Human rights groups say the ban restricts young people’s freedoms and may create a false sense of security. Tech companies publicly question the feasibility, but many have signalled compliance to avoid heavy fines. Meanwhile, many Australian teens reportedly plan to migrate to lesser-regulated apps, potentially exposing them to greater risks. Overall, the debate centres on safety versus autonomy, privacy, and effectiveness.

Yet signs of strain are already emerging. Teens are rapidly migrating to smaller or less regulated platforms, using VPNs, borrowing adult devices, or exploiting loopholes in verification systems. So what happens next? Will the government spend its time chasing teenagers across an ever-expanding maze of apps, mirrors, clones and VPNs? Because if the history of the internet teaches anything, it’s this: once something is banned, it rarely disappears — it simply moves, mutates, and comes back wearing a different username.

IN OTHER NEWS LAST WEEK

This week in AI governance

Australia. Australia has unveiled a new National AI Plan designed to harness AI for economic growth, social inclusion and public-sector efficiency — while emphasising safety, trust and fairness in adoption. The plan mobilises substantial investment: hundreds of millions of AUD are channelled into research, infrastructure, skills development and programmes to help small and medium enterprises adopt AI; the government also plans to expand nationwide access to the technology.

Practical steps include establishing a national AI centre, supporting AI adoption among businesses and nonprofits, enhancing digital literacy through schools and community training, and integrating AI into public service delivery. 

Part of the planned steps is the establishment of the AI Safety Institute (AISI), which we wrote about last week. 

Uzbekistan. Uzbekistan has announced the launch of the ‘5 million AI leaders’ project to develop its domestic AI capabilities. As part of this plan, the government will integrate AI-focused curricula into schools, vocational training and universities; train 4.75 million students, 150,000 teachers and 100,000 public servants; and launch large-scale competitions for AI startups and talent.

The programme also includes building high-performance computing infrastructure (in partnership with a major tech company), establishing a national AI transfer office abroad, and creating state-of-the-art laboratories in educational institutions — all intended to accelerate adoption of AI across sectors.

The government frames this as central to modernising public administration and positioning Uzbekistan among the world’s top 50 AI-ready countries.

The country will also adopt Rules and principles of ethics in the development and use of artificial intelligence technologies, a framework which will introduce unified standards for developers, implementers and users across the country. Developers must ensure algorithmic transparency, safeguard personal data, assess risks and avoid harmful use; users must comply with legislation, respect rights, and handle data responsibly. Any harm to human rights, national security or the environment will trigger legal liability.

Belgium. Belgium joins a growing number of countries and public-sector organisations that have restricted or blocked China’s DeepSeek over security concerns. All Belgian federal government officials must cease using DeepSeek, effective 1 December, and all instances of DeepSeek must be removed from official devices.

The move follows a warning from Centre for Cybersecurity Belgium, which identified serious data-protection risks associated with the tool and flagged its use as problematic for handling sensitive government information.

Canada. Canada has formally adopted the world’s first national standard for accessible and equitable AI with the release of CAN-ASC-6.2 – Accessible and Equitable Artificial Intelligence Systems. The standard aims to ensure AI systems are designed to be accessible, inclusive and fair — in particular for people with disabilities — embedding accessibility and equity throughout the AI lifecycle. It provides guidance for organisations and developers on how to prevent exclusion, guarantee equitable benefits, and avoid discriminatory or exclusionary system designs. The standard was developed with input from a diverse committee, including persons with disabilities and members of equity-deserving groups. Its publication marks a major step toward ensuring that AI boosts social inclusion and digital accessibility, rather than reinforcing inequality.

The EU. The European Commission has launched a formal antitrust investigation into whether Meta’s new restrictions on AI providers’ access to WhatsApp violate EU competition rules. 

Under a Meta policy introduced in October 2025, AI companies are barred from using the WhatsApp Business Solution if AI is their primary service, although limited support functions, such as automated support, remain allowed. The policy will take effect for existing AI providers on 15 January 2026 and has already been applied to newcomers since 15 October 2025. 

The Commission fears this could shut out third-party AI assistants from reaching users in the European Economic Area (EEA), while Meta’s own Meta AI would continue to operate on the platform.

The probe—covering the entire EEA except Italy, which has been conducting its own investigation since July—will examine whether Meta is abusing its dominant position in breach of Article 102 TFEU and Article 54 of the EEA Agreement.

European regulators say outcomes could guide future oversight as generative AI becomes woven into essential communications. The case signals growing concern about the concentration of power in rapidly evolving AI ecosystems.

Google DeepMind CEO Demis Hassabis stated that ‘AGI, probably the most transformative moment in human history, is on the horizon’. 


Revision 2 of the WSIS+20 outcome document released

A revised version of the WSIS+20 outcome document, Revision 2, was published on 3 December by the co-facilitators of the intergovernmental process. 

Revision 2 introduces several noteworthy changes compared to Revision 1. In the introduction, new commitments include catalysing women’s economic agency and highlighting the importance of applying a human-centric approach throughout the lifecycle of digital technologies. 

The section on digital divides is strengthened through a shift in title from bridging to closing digital divides, a new recognition that such divides pose particular challenges for developing countries, an explicit call to integrate accessibility-by-design in digital development, and a clarification that the internet and digital services need to become both fully accessible and affordable.

In the digital economy section, previous language about governments’ concerns with safeguarding employment rights and welfare has been removed. The section on social and economic development now includes new language on the need for greater international cooperation to promote digital inclusion and digital literacy, including capacity building and financial mechanisms. 

Environmental provisions are expanded: Revision 2 introduces new language emphasising responsible mining and processing practices for critical mineral resources (although it removes a reference to equitable access to such resources), and it brings back a paragraph on e-waste, restoring calls for improved data gathering, collaboration on safe and efficient waste management, and sharing of technology and best practices.

Several changes also appear in areas related to security, financing, and AI. The section on building confidence and security in the use of ICTs clarifies that such efforts must be consistent with international human rights law (not just human rights), and it restores language from the Zero Draft recognising the need to counter violence occurring or amplified by technology, as well as hate speech, discrimination, misinformation, cyberbullying, and child sexual exploitation and abuse, together with commitments to establish robust risk-mitigation and redress measures. 

The paragraph on future financial mechanisms for digital development is revised to clarify that a potential task force would examine such mechanisms, and that the Secretary-General would consider establishing it within existing mandates and resources and in coordination with WSIS Action Line facilitators and other relevant UN entities. It also notes that the task force would build on and complement ongoing financing initiatives and mechanisms involving all stakeholders. 

In the AI section, requests to establish an AI research programme and an AI capacity-building fellowship are now directed to the UN Inter-Agency Working Group on AI, with the fellowship explicitly dedicated to increasing AI research expertise.

Several changes were made to the paragraphs on the Internet Governance Forum (IGF). Revision 2 adds language specifying that, in making the IGF a permanent UN forum, its secretariat would continue to be ensured by UN DESA, and that the Forum should have a stable and sustainable basis with appropriate staffing and resources, in accordance with UN budgetary procedures. This is reflected in a strengthened request for the Secretary-General to submit a proposal to the General Assembly to ensure sustainable funding for the Forum through a mix of core UN funding and voluntary contributions (whereas previous language only asked for proposals on future funding). In the Follow-up section, the request for the Secretary-General’s report on WSIS follow-up – which also incorporates updates on the Global Digital Compact (GDC) implementation – is now set on a biennial basis, with a clear request for both the CSTD and ECOSOC to consider the report, marking a notable shift in the follow-up and review framework.


UN launches Digital Cooperation Portal to accelerate GDC action 

The UN has launched the Digital Cooperation Portal, a new platform designed to accelerate collective action on the Global Digital Compact (GDC). The portal maps digital initiatives, connects partners worldwide, and tracks progress on key priorities, including AI governance, digital public infrastructure, human rights online, and inclusive digital economies.

An integrated AI Toolbox allows users to explore AI applications that help them analyse, connect, and enhance their digital cooperation projects. By submitting initiatives, stakeholders can increase visibility, support global coordination, and join a growing network working toward an inclusive digital future.

The Portal is open to all stakeholders from September 2024 through the GDC’s high-level review in 2027.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

On Wednesday (3 December), Diplo, UNEP, and Giga are co-organising an event at the Giga Connectivity Centre in Geneva, titled ‘Digital inclusion by design: Leveraging existing infrastructure to leave no one behind’. The event looked at realities on the ground when it comes to connectivity and digital inclusion, and at concrete examples of how community anchor institutions like posts, schools, and libraries can contribute significantly to advancing meaningful inclusion. There was also a call for policymakers at national and international levels to keep these community anchor institutions in mind when designing inclusion strategies or discussing frameworks, such as the GDC and WSIS+20.

Organisations and institutions are invited to submit event proposals for the second edition of Geneva Security Week. Submissions are open until 6 January 2026. Co-organised once again by the UN Institute for Disarmament Research (UNIDIR) and the Swiss Federal Department of Foreign Affairs (FDFA), Geneva Security Week 2026 will take place from 4 to 8 May 2026 under the theme ‘Advancing Global Cooperation in Cyberspace’.

LOOKING AHEAD
 Person, Face, Head, Binoculars

OHCHR will hold its consultation on the rights-compatible use of digital tools in stakeholder engagement on 8–9 December, focusing on where technology can support engagement processes and where human involvement remains essential. The outcomes will feed into OHCHR’s report to the Human Rights Council in 2026.

The Inter-Parliamentary Union is organising ‘Navigating health misinformation in the age of AI’, a webinar that brings together parliamentarians, experts, and civil society to explore how misinformation and AI intersect to shape access to essential health services, particularly for women, children and adolescents. 

Registration is open for the WSIS+20 virtual consultation on revision 2 of the draft outcome document, to be held on 8 December. The session, organised by the Informal Multistakeholder Sounding Board, will gather targeted, paragraph-based input by stakeholders and provide process updates ahead of the General Assembly’s high-level meeting. Informal negotiations on Rev.2 will continue on 9, 10 and 11 December.



READING CORNER
UNDP 2

Rapid advances in AI are reshaping global development, raising urgent questions about whether all countries are prepared to benefit, or risk falling further behind.

computer 3923644 1280

Gaming and professional esports are rapidly emerging as powerful tools of global diplomacy, revealing how digital competition and shared virtual worlds can connect cultures, influence international relations, and empower new generations to shape the narratives that transcend traditional borders.

nov monthly

This month’s edition takes you from Washington to Geneva, COP30 to the WSIS+10 negotiations — tracing the major developments that are reshaping AI policy, online safety, and the resilience of the digital infrastructure we rely on every day.

Digital Watch newsletter – Issue 105 – November 2025

November 2025 in retrospect

This month’s edition takes you from Washington to Geneva, COP30 to the WSIS+20 negotiations — tracing the major developments that are reshaping AI policy, online safety, and the resilience of the digital infrastructure we rely on every day.

Here’s what we unpacked in this edition.

Is the AI bubble about to burst? — Will the AI bubble burst? Is AI now ‘too big to fail’? Will the US government bail out AI giants – and what would that mean for the global economy?

The global struggle to govern AI — Governments are racing to define rules, from national AI strategies to emerging global frameworks. We outline the latest moves

WSIS+20 Rev 1 highlights — A look inside the document now guiding negotiations among UN member states ahead of the high-level meeting of the General Assembly on 16–17 December 2025.

Code meets climate — What the UN member states discussed in terms of AI and digital at COP30.

Child safety online — From Australia to the EU, governments are rolling out new safeguards to protect children from online harms. We examine their approaches.

Digital draught — The Cloudflare outage exposed fragile dependencies in the global internet. We unpack what caused it — and what the incident reveals about digital resilience.

Last month in Geneva — Catch up on the discussions, events, and takeaways shaping international digital governance.

GLOBAL GOVERNANCE

France and Germany hosted a Summit on European Digital Sovereignty in Berlin to accelerate Europe’s digital independence. They presented a roadmap with seven priorities: simplifying regulation (including delaying some AI Act rules), ensuring fair cloud and digital markets, strengthening data sovereignty, advancing digital commons, expanding open-source digital public infrastructure, creating a Digital Sovereignty Task Force, and boosting frontier AI innovation. Over €12 billion in private investment was pledged. A major development accompanying the summit was the launch of the European Network for Technological Resilience and Sovereignty (ETRS) to reduce reliance on foreign technologies—currently over 80%—through expert collaboration, technology-dependency mapping, and support for evidence-based policymaking.

TECHNOLOGIES

The Dutch government has suspended its takeover of Nexperia, a Netherlands-based chipmaker owned by China’s Wingtech, following constructive talks with Chinese authorities. China has also begun releasing stockpiled chips to ease the shortage.

Baidu unveiled two in-house AI chips, the M100 for efficient inference on mixture-of-experts models (due early 2026) and the M300 for training trillion-parameter multimodal models (2027). It also outlined clustered architectures (Tianchi256 in H1 2026; Tianchi512 in H2 2026) to scale inference via large interconnects.IBM unveiled two quantum chips: Nighthawk (120 qubits, 218 tunable couplers) enabling ~30% more complex circuits, and Loon, a fault-tolerance testbed with six-way connectivity and long-range couplers.

INFRASTRUCTURE

Six EU states — Austria, France, Germany, Hungary, Italy and Slovenia — have jointly urged that the Digital Networks Act (DNA) be reconsidered, arguing that core elements of the proposal — including harmonised telecom-style regulation, network-fee dispute mechanisms and broader merger rules — should instead remain under national control.

CYBERSECURITY

Roblox will roll out mandatory facial age estimation (starting December in select countries, expanding globally in January) and segment users into strict age bands to block chats with adult strangers. Under-13s remain barred from private messages unless parents opt in.

Eurofiber confirmed a breach of its French ATE customer platform and ticketing system via third-party software, saying services stayed up and banking data was safe.

The FCC is set to vote on rescinding January rules under CALEA Section 105 that required major carriers to harden networks against unauthorised access and interception, measures adopted after the Salt Typhoon cyber-espionage campaign exposed telecom vulnerabilities.
The UK plans a Cyber Security and Resilience Bill to harden critical national infrastructure and the wider digital economy against rising cyber threats. About 1,000 essential service providers (health, energy, IT) would face strengthened standards, with potential expansion to 200+ data centres.

ECONOMIC

The UAE completed its first government transaction using the Digital Dirham, a CBDC pilot under the Central Bank’s Financial Infrastructure Transformation programme. In addition, the UAE’s central bank approved Zand AED, the country’s first regulated, multi-chain AED-backed stablecoin, issued by licensed bank Zand.

The Czech National Bank created a $1 million digital-assets test portfolio, holding bitcoin, a USD stablecoin, and a tokenised deposit, to gain hands-on experience with operations, security, and AML, with no plan for active investing.

Romania completed its first EU Digital Identity Wallet (EUDIW) real-money pilot, with Banca Transilvania and BPC enabling a cardholder to authenticate a purchase via the wallet instead of SMS OTP or card readers.

The European Commission has opened a DMA probe into whether Google Search unfairly demotes news publishers via its ‘site reputation abuse’ policy, which can lower rankings for outlets hosting partner content.

In terms of digital strategies, the European Commission’s 2030 Consumer Agenda outlines a plan to enhance protection, trust, and competitiveness while simplifying regulations for businesses.
Turkmenistan passed its first comprehensive virtual assets law, effective 1 Jan 2026, legalising crypto mining and permitting exchanges under strict state registration.

HUMAN RIGHTS

The Council of the EU has adopted new measures to accelerate the handling of cross-border data protection complaints, with harmonised admissibility criteria and strengthened procedural rights for both citizens and companies. A simplified cooperation process for straightforward cases will also reduce administrative burdens and enable faster resolutions.

India has begun enforcing its Digital Personal Data Protection Act 2023 through newly approved rules that set up initial governance structures, including a Data Protection Board, while granting organisations extra time to meet full compliance obligations.

LEGAL

OpenAI is resisting a narrowed legal demand from The New York Times for 20 million ChatGPT conversations—part of the Times’ lawsuit over alleged misuse of its content, warning that sharing the data could expose sensitive information and set far-reaching precedents for how AI platforms handle user privacy, data retention, and legal accountability.

A US judge let the Authors Guild’s lawsuit against OpenAI proceed, rejecting dismissal and allowing claims that ChatGPT’s summaries unlawfully replicate authors’ tone, plot, and characters.

Ireland’s media regulator has opened its first DSA investigation into X, probing whether users have accessible appeals and clear outcomes when content-removal requests are refused.

In a setback for the FTC, a US judge ruled that Meta does not currently wield monopoly power in social networking, scuttling a bid that could have forced the divestiture of Instagram and WhatsApp.

SOCIOCULTURAL

The European Commission launched the Culture Compass for Europe, a framework to put culture at the core of EU policy, foster identity and diversity, and bolster creative sectors. 

China’s cyberspace regulators launched a crackdown on AI deepfakes impersonating public figures in livestream shopping, ordering platform cleanups and marketer accountability.

DEVELOPMENT

West and Central African ministers adopted the Cotonou Declaration to accelerate digital transformation by 2030, targeting a Single African Digital Market, widespread broadband, interoperable digital infrastructure, and harmonised rules for cybersecurity, data governance, and AI. The initiative emphasises human capital and innovation, aiming to equip 20 million people with digital skills, create two million digital jobs, and boost African-led AI and regional digital infrastructure.

ITU’s Measuring digital development: Facts and Figures 2025 report finds that while global connectivity continues to expand—with nearly 6 billion people online in 2025—2.2 billion still remain offline, predominantly in low- and middle-income countries. Major gaps persist in connection quality, data usage, affordability, and digital skills, leaving many unable to fully benefit from the digital world.

Switzerland has formally associated to Horizon Europe, Digital Europe, and Euratom R&T, giving Swiss researchers EU-equivalent status to lead projects and win funding across all pillars from 1 January 2025.
Uzbekistan now grants full legal validity to personal data on the my.gov.uz public services portal, equating it with paper documents (effective 1 November). Citizens can access, share, and manage records entirely online.

Australia. Australia has unveiled a new National AI Plan designed to harness AI for economic growth, social inclusion and public-sector efficiency — while emphasising safety, trust and fairness in adoption. The plan mobilises substantial investment: hundreds of millions of AUD are channelled into research, infrastructure, skills development and programmes to help small and medium enterprises adopt AI; the government also plans to expand nationwide access to the technology.

Practical steps include establishing a national AI centre, supporting AI adoption among businesses and nonprofits, enhancing digital literacy through schools and community training, and integrating AI into public service delivery. 

To ensure responsible use, the government will establish the AI Safety Institute (AISI), a national centre tasked with consolidating AI safety research, coordinating standards development, and advising both government and industry on best practices. The Institute will assess the safety of advanced AI models, promote resilience against misuse or accidents, and serve as a hub for international cooperation on AI governance and research.

The report highlights Bangladesh’s relative strengths: a growing e-government infrastructure and generally high public trust in digital services. However, it also candidly maps structural challenges: uneven connectivity and unreliable power supply beyond major urban areas, a persistent digital divide (especially gender and urban–rural), limited high-end computing capacity, and insufficient data protection, cybersecurity and AI-related skills in many parts of society.

As part of its roadmap, the country plans to prioritise governance frameworks, capacity building, and inclusive deployment — especially ensuring that AI supports public-sector services in health, education, justice and social protection.

Belgium. Belgium joins a growing number of countries and public-sector organisations that have restricted or blocked China’s DeepSeek over security concerns. All Belgian federal government officials must cease using DeepSeek, effective 1 December, and all instances of DeepSeek must be removed from official devices.

The move follows a warning from Centre for Cybersecurity Belgium, which identified serious data-protection risks associated with the tool and flagged its use as problematic for handling sensitive government information.

Russia. At Russia’s premier AI conference (AI Journey), President Vladimir Putin announced the formation of a national AI task force, framing it as essential for minimising dependence on foreign AI. The plan includes building data centres (even powered by small-scale nuclear power) and using these to host generative AI models that protect national interests. Putin also argued that only domestically developed models should be used in sensitive sectors — like national security — to prevent data leakage.

Singapore. Singapore has launched a Global AI Assurance Sandbox, now open to companies worldwide that want to run real-world pilot tests for AI systems.

This sandbox is guided by 11 governance principles aligned with international standards — including NIST’s AI Risk Management Framework and ISO/IEC 42001. By doing this, Singapore hopes to bridge the gap between fragmented national AI regulations and build shared benchmarks for safety and trust.

The EU. A big political storm is brewing in the EU. The European Commission has rolled out what it calls the Digital Omnibus, a package of proposals aimed at simplifying its digital lawbook — a move welcomed by some as needed to improve the competitiveness of the EU’s digital actors, and criticised by others over potentially negative implications in areas such as digital rights. The package consists of the Digital Omnibus Regulation Proposal and the Digital Omnibus on AI Regulation Proposal.

On a separate, but related note, the European Commission has launched an AI whistle-blower tool, providing a secure and confidential channel for individuals across the EU to report suspected breaches of the AI Act, including unsafe or high‑risk AI deployments. With the launch of the tool, the EU aims to close gaps in the enforcement of the EU AI Act, increase the accountability of developers and deployers, and foster a culture of responsible AI usage across member states. The tool is also intended to foster transparency, allowing regulators to react faster to potential violations without relying just on audits or inspections.

What’s making waves in the EU? The Digital Omnibus on AI Regulation Proposal delays the implementation of ‘high-risk’ rules under the EU’s AI Act until 2027, giving Big Tech more time before stricter oversight takes effect. The entry into force of high-risk AI rules will now align with the availability of support tools, giving companies up to 16 months to comply. SMEs and small mid-cap companies will benefit from simplified documentation, broader access to regulatory sandboxes, and centralised oversight of general-purpose AI systems through the AI Office.

Cybersecurity reporting is also being simplified with a single-entry interface for incidents under multiple laws, while privacy rules are being clarified to support innovation without weakening protections under the GDPR. Cookie rules will be modernised to reduce repetitive consent requests and allow users to manage preferences more efficiently.

Data access will be enhanced through the consolidation of EU data legislation via the Data Union Strategy, targeted exemptions for smaller companies, and new guidance on contractual compliance. The measures aim to unlock high-quality datasets for AI and strengthen Europe’s innovation potential, while saving businesses billions and improving regulatory clarity.

The Digital Omnibus Regulation Proposal has implications for data protection in the EU. Proposed changes to the General Data Protection Regulation (GDPR) would redefine the definition of personal data, weakening the safeguards on when companies can use it — especially for AI training. Meanwhile, cookie-consent is being simplified into a ‘one click’ model that lasts up to six months.

Privacy and civil rights groups expressed concern that the proposed GDPR changes disproportionately benefit large technology firms. A coalition of 127 organisations has issued a public warning that this could become ‘the biggest rollback of digital fundamental rights in EU history.’ 

These proposals must go through the EU’s co-legislative process — Parliament and Council will debate, amend, and negotiate them. Given the controversy (support from industry, pushback from civil society), the final outcome could look very different from the Commission’s initial proposal.

The UK. The UK government has launched a major AI initiative to drive national AI growth, combining infrastructure investment, business support, and research funding. An immediate £150 million GPU deployment in Northamptonshire kicks off a £18 billion programme over five years to build sovereign AI capacity. Through an advanced-market commitment of £100 million, the state will act as a first customer for domestic AI hardware startups, helping de-risk innovation and boost competitiveness.

The plan includes AI Growth Zones, with a flagship site in South Wales expected to create over 5,000 jobs, and expanded access to high-performance computing for universities, startups, and research organisations. A dedicated £137 million “AI for Science” strand will accelerate breakthroughs in drug discovery, clean energy, and advanced materials, ensuring AI drives both economic growth and public value outcomes.

The USA. The shadow of regulation-limiting politics looms large in the USA. Trump-aligned Republicans have again pushed for a moratorium on state-level AI regulation. The idea is to block states from passing their own AI laws, arguing that a fragmented regulatory landscape would hinder innovation. One version of the proposal would tie federal broadband funding to states’ willingness to forego AI rules — effectively punishing any state that tries to regulate. Yet this pushback isn’t unopposed: more than 260 state lawmakers from across the US, Republican and Democrat alike, have decried the moratorium.

The President has formally established the Genesis Mission by Executive Order on 24 November 2025, tasking the US Department of Energy (DOE) with leading a nationwide AI-driven scientific research effort. The Mission will build a unified ‘American Science and Security Platform,’ combining the DOE’s 17 national laboratories’ supercomputers, federal scientific datasets that have accumulated over decades, and secure high-performance computing capacity — creating what the administration describes as ‘the world’s most complex and powerful scientific instrument ever built.’

Under the plan, AI will generate ‘scientific foundation models’ and AI agents capable of automating experiment design, running simulations, testing hypotheses and accelerating discoveries in key strategic fields: biotechnology, advanced materials, critical minerals, quantum information science, nuclear fission and fusion, space exploration, semiconductors and microelectronics.

The initiative is framed as central to energy security, technological leadership and national competitiveness — the administration argues that despite decades of rising research funding, scientific output per dollar has stagnated, and AI can radically boost research productivity within a decade.

To deliver on these ambitions, the Executive Order sets a governance structure: the DOE Secretary oversees implementation; the Assistant to the President for Science and Technology will coordinate across agencies; and DOE may partner with private sector firms, academia and other stakeholders to integrate data, compute, and infrastructure.

UAE and Africa. The AI for Development Initiative has been announced to advance digital infrastructure across Africa, backed by a US$1 billion commitment from the UAE. According to official statements, the initiative plans to channel resources to sectors such as education, agriculture, climate adaptation, infrastructure and governance, helping African governments to adopt AI-driven solutions even where domestic AI capacity remains limited.

Though full details remain to be seen (e.g. selection of partner countries, governance and oversight mechanisms), the scale and ambition of the initiative signal the UAE’s aspiration to act not just as an AI adoption hub, but as a regional and global enabler of AI-enabled development.

Uzbekistan. Uzbekistan has announced the launch of the ‘5 million AI leaders’ project to develop its domestic AI capabilities. As part of this plan, the government will integrate AI-focused curricula into schools, vocational training and universities; train 4.75 million students, 150,000 teachers and 100,000 public servants; and launch large-scale competitions for AI startups and talent.

The programme also includes building high-performance computing infrastructure (in partnership with a major tech company), establishing a national AI transfer office abroad, and creating state-of-the-art laboratories in educational institutions — all intended to accelerate adoption of AI across sectors.

The government frames this as central to modernising public administration and positioning Uzbekistan among the world’s top 50 AI-ready countries.

The AI bubble is inflating to the point of bursting. There are five causes of the current situation and five future scenarios that inform how to prevent or deal with a potential burst.

The frenzy of AI investment did not happen in a vacuum. Several forces have contributed to our tendency toward overvaluation and unrealistic expectations.

1st cause: The media hype machine. AI has been framed as the inevitable future of humanity. This narrative has created a powerful Fear of Missing Out (FOMO), prompting companies and governments to invest heavily in AI, often without a sober reality check.

2nd cause: Diminishing returns on computing power and data. The dominant, simple formula of the past few years has been: More compute (read: more Nvidia GPUs) + more data = better AI. This belief has led to massive AI factories: hyper-scale data centres and an alarming electricity and water footprint. Simply stacking more GPUs now yields incremental improvements.

3rd cause: Large language models’ (LLMs’) logical and conceptual limits. LLMs are encountering structural limitations that cannot be resolved simply by scaling data and compute. Despite the dominant narrative of imminent superintelligence, many leading researchers are sceptical that today’s LLMs can simply be ‘grown’ into human-level Artificial General Intelligence (AGI).

4th cause: Slow AI transformation. Most AI investments are still based on potential, not on realised, measurable value. The technology is advancing faster than society’s ability to absorb it. Previous AI winters in the 1970s and late 1980s followed periods of over-promising and under-delivering, leading to sharp cuts in funding and industrial collapse.

5th cause: Massive cost discrepancies. The latest wave of open-source models has shown that open-source models, at a few million dollars, can match or beat models costing hundreds of millions. This raises questions about the efficiency and necessity of current proprietary AI spending. 

 Balloon, Book, Comics, Publication, Person, Adult, Male, Man, Face, Head

Five scenarios outline how the current hype may resolve.

1st Scenario: The rational pivot (the textbook solution). A market correction could push AI development away from the assumption that more compute automatically yields better models. Instead, the field would shift toward smarter architectures, deeper integration with human knowledge and institutions, and smaller, specialised, often open-source systems. Policy is already moving this way: the US AI Action Plan frames open-weight models as strategic assets. Yet this pivot faces resistance from entrenched proprietary models, dependence on closed data, and unresolved debates about how creators of human knowledge should be compensated.

2nd Scenario: ‘Too big to fail’ (the 2008 bailout playbook). Another outcome treats major AI companies as essential economic infrastructure. Industry leaders already warn of “irrationality” in current investment levels, suggesting that a weak quarter from a key firm could rattle global markets. In this scenario, governments provide implicit or explicit backstops—cheap credit, favourable regulation, or public–private infrastructure deals—on the logic that AI giants are systemically important.

3rd Scenario: Geopolitical justification (China ante portas). Competition with China could become the dominant rationale for sustained public investment. China’s rapid progress, including low-cost open models like DeepSeek R1, is already prompting “Sputnik moment” comparisons. Support for national champions is then framed as a matter of technological sovereignty, shifting risk from investors to taxpayers.

4th Scenario: AI monopolisation (the Wall Street gambit). If smaller firms fail to monetise, AI capabilities could consolidate into a handful of tech giants, mirroring past monopolisation in search, social media, and cloud. Nvidia’s dominance in AI hardware reinforces this dynamic. Open-source models slow but do not prevent consolidation.

5th Scenario: AI winter and new digital toys. Finally, a mild AI winter could emerge as investment cools and attention turns to new frontiers—quantum computing, digital twins, immersive reality. AI would remain a vital infrastructure but no longer the centre of speculative hype.

The next few years will show whether AI becomes another over-priced digital toy – or a more measured, open, and sustainable part of our economic and political infrastructure.

This text was adapted from Dr Jovan Kurbalija’s article Is the AI bubble about to burst? Five causes and five scenarios. Read the original article below.

BLOG featured image 2025 AI bubble
www.diplomacy.edu

This text outlines five causes and five scenarios around the AI bubble and potential burst.

A revised version of the WSIS+20 outcome document – Revision 1 – was published on 7 November by the co-facilitators of the intergovernmental process. The document will serve as the basis for continued negotiations among UN member states ahead of the high-level meeting of the General Assembly on 16–17 December 2025.

While maintaining the overall structure of the Zero Draft released in August, Revision 1 introduces several changes and new elements. 

The new text includes revised – and in several places stronger – language emphasising the need to close rather than bridge digital divides, presented as multidimensional challenges that must be addressed to achieve the WSIS vision. 

At the same time, some issues were deprioritised: for instance, references to e-waste and the call for global reporting standards on environmental impacts were removed from the environment section.

Several new elements also appear. In the enabling environments section, states are urged to take steps towards avoiding or refraining from unilateral measures inconsistent with international law. 

There is also a new recognition of the importance of inclusive participation in standard-setting. 

The financial mechanisms section invites the Secretary-General to consider establishing a task force on future financial mechanisms for digital development, with outcomes to be reported to the UNGA at its 81st session. 

The internet governance section now includes a reference to the NetMundial+10 Guidelines.

Language on the Internet Governance Forum (IGF) remains largely consistent with the Zero Draft, including with regard to making the forum a permanent one and requesting the Secretary-General to make proposals concerning the IGF’s future funding. New text invites the IGF to further strengthen the engagement of governments and other stakeholders from developing countries in discussions on internet governance and emerging technologies. 

Several areas saw shifts in tone. Language in the human rights section has been softened in parts (e.g. references to surveillance safeguards and threats to journalists now being removed).

And there is a change in how the interplay between WSIS and the GDC is framed – the emphasis is now on alignment between WSIS and GDC processes rather than integration. For instance, if the GDC-WSIS joint implementation roadmap was initially requested to ‘integrate GDC commitments into the WSIS architecture’, it should now ‘aim to strengthen coherence between WSIS and GDC processes’. Corresponding adjustments are also reflected in the roles of the Economic and Social Council and the Commission on Science and Technology for Development.

What’s next? Registration is now open for the next WSIS+20 virtual stakeholder consultation, scheduled for Monday, 8 December 2025, to gather feedback on the revised draft outcome document (Rev2). Participants must register by Sunday, 7 December at 11:59 p.m. EST.

An initial Rev2 response and framework document will guide the session and will be posted as soon as it is available.

This consultation forms part of the preparations for the High-level Meeting of the General Assembly on the overall review of the implementation of the outcomes of the World Summit on the Information Society (WSIS+20), which will take place on 16 and 17 December 2025.

COP30, the 30th annual UN climate meeting, officially wrapped up last Friday, 21 November. As the dust settles in Belém, we take a closer look at the outcomes with implications for digital technologies and AI.

In agriculture, momentum is clearly building. Brazil and the UAE unveiled AgriLLM, the first open-source large language model designed specifically for agriculture, developed with support from international research and innovation partners. The goal is to give governments and local organisations a shared digital foundation to build tools that deliver timely, locally relevant advice to farmers. Alongside this, the AIM for Scale initiative aims to provide digital advisory services, including climate forecasts and crop insights, to 100 million farmers.

 Person, Book, Comics, Publication, Cleaning, Clothing, Hat, Outdoors

Cities and infrastructure are also stepping deeper into digital transformation. Through the Infrastructure Resilience Development Fund, insurers, development banks, and private investors are pooling capital to finance climate-resilient infrastructure in emerging economies — from clean energy and water systems to the digital networks needed to keep communities connected and protected during climate shocks. 

The most explicit digital agenda surfaced under the axis of enablers and accelerators. Brazil and its partners launched the world’s first Digital Infrastructure for Climate Action, a global initiative to help countries adopt open digital public goods in areas such as disaster response, water management, and climate-resilient agriculture. The accompanying innovation challenge is already backing new solutions designed to scale.

The Green Digital Action Hub was also launched and will help countries measure and reduce the environmental footprint of technology, while expanding access to tools that use technology for sustainability. 

Training and capacity building received attention through the new AI Climate Institute, which will help the Global South develop and deploy AI applications suited to local needs — particularly lightweight, energy-efficient models.

The Nature’s Intelligence Studio, grounded in the Amazon, will support nature-inspired innovation and introduce open AI tools that help match real-world sustainability challenges with bio-based solutions.

Finally, COP30 marked a first by placing information integrity firmly on the climate action agenda. With mis- and disinformation recognised as a top global risk, governments and partners launched a declaration and new multistakeholder process aimed at strengthening transparency, shared accountability, and public trust in climate information — including the digital platforms that shape it.

The big picture. Across all strands, COP30 sent a clear message: the digital layer of climate action is not optional — it is embedded in the core delivery of climate action.

The bans on under‑16s are advancing globally, and Australia has gone the farthest in this effort. Regulators there have now widened the scope of the ban to include platforms like Twitch, which is classified as age-restricted due to its social interaction features. Meta has begun notifying Australian users believed to be under 16 that their Facebook and Instagram accounts will be deactivated starting 4 December, a week before the law officially takes effect on 10 December.

To support families through the transition, the government has established a Parent Advisory Group, bringing together organisations representing diverse households to help carers guide children on online safety, communication, and safe ways to connect digitally.

The ban has already provoked opposition. Major social media platforms have criticised the ban, but have signalled they will comply, with YouTube being the latest to fall in line. However, the ban is now constitutionally challenged in the High Court by two 15‑year-olds, backed by the advocacy group Digital Freedom Project. They argue the law unfairly limits under‑16s’ ability to participate in public debate and political expression, effectively silencing young voices on issues that affect them directly.

Malaysia also plans to ban social media accounts for people under 16 starting in 2026. The Cabinet approved the measure to protect children from online harms such as cyberbullying, scams, and sexual exploitation. Authorities are considering approaches such as electronic age verification using ID cards or passports, although the exact enforcement date has not been set.

EU lawmakers have proposed similar protections. The European Parliament adopted a non-legislative report calling for a harmonised EU minimum age of 16 for social media, video-sharing platforms, and AI companions, with access for 13–16-year-olds allowed only with parental consent. Lawmakers back the Commission’s work on an EU age-verification app and the European digital identity wallet (eID), but stress that age-assurance must be accurate and privacy-preserving and does not absolve platforms from designing services that are safe by default.

Beyond age restrictions, the EU is strengthening broader safeguards. Member states have agreed on a Council position for a regulation to prevent and combat child sexual abuse online, setting out concrete, enforceable obligations for online providers. Platforms will have to carry out formal risk assessments to identify how their services could be used to disseminate child sexual abuse material (CSAM) or to solicit children, and then put in place mitigation measures — from safer default privacy settings for children and user reporting tools, to technical safeguards. Member states will designate coordinating and competent national authorities that can review those risk assessments, force providers to implement mitigations and, where necessary, impose penalty payments for non-compliance.

Importantly, the Council introduces a three-tier risk classification for online services (high, medium, low). Services judged high-risk — determined against objective criteria such as service type — can be required not only to apply stricter mitigations but also to contribute to the development of technologies to reduce those risks. Search engines can be ordered to delist results; competent authorities may require the removal or blocking of access to CSAM. The position keeps and aims to make permanent an existing temporary exemption that allows providers (for example, messaging services) to voluntarily scan content for CSAM — an exemption currently due to expire on 3 April 2026.

To operationalise and coordinate enforcement, the regulation foresees the creation of a new EU agency — the EU Centre on Child Sexual Abuse. The Centre will process and assess information reported by providers, operate a database of provider reports and a database of child-sexual-abuse indicators that companies can use for voluntary detection activities, help victims request removal or disabling of access to material depicting them, and share relevant information with Europol and national law enforcement. The Centre’s seat is not yet decided; that will be negotiated with the European Parliament. With the Council’s position agreed, formal trilogue negotiations with Parliament can begin (the Parliament adopted its position in November 2023).

The European Parliament’s report also addresses everyday online risks, calling for bans on the most harmful addictive practices (infinite scroll, autoplay, reward loops, pull-to-refresh) and for default disabling of other addictive features for minors; they urge outlawing engagement-based recommender algorithms for minors and extending clear DSA rules to online video platforms. Gaming features that mimic gambling — loot boxes, in-app randomised rewards, pay-to-progress mechanics — should be banned. The report also tackles commercial exploitation, urging prohibitions on platforms offering financial incentives for kidfluencing (children acting as influencers).

MEPs singled out generative AI risks — deepfakes, companionship chatbots, AI agents and AI-powered nudity apps that create non-consensual manipulated imagery — calling for urgent legal and ethical action. Rapporteur Christel Schaldemose framed the measures as drawing a clear line: platforms are ‘not designed for children’ and the experiment of letting addictive, manipulative design target minors must end.

A new multilateral initiative is also underway: the eSafety Commissioner (Australia), Ofcom (UK) and the European Commission’s DG CNECT will cooperate to protect children’s rights, safety and privacy online. 

The regulators will enforce online safety laws, require platforms to assess and mitigate risks to children, promote privacy-preserving technologies such as age verification, and partner with civil society and academia to keep regulatory approaches grounded in real-world dynamics.

A new trilateral technical group will be established to explore how age-assurance systems can work reliably and interoperably, strengthening evidence for future regulatory action.

The overall goal is to support children and families in using the internet more safely and confidently — by fostering digital literacy, critical thinking and by making online platforms more accountable.

On 18 November, Cloudflare — the invisible backbone behind millions of websites — went down, in what the company calls its most serious outage since 2019. Users around the world saw internal-server-error messages as services like X and ChatGPT temporarily went offline.

The culprit was an internal misconfiguration. A routine permissions change in a ClickHouse database led to a malformed ‘feature file’ used by Cloudflare’s Bot Management tool. That file unexpectedly doubled in size and, when pushed across Cloudflare’s global network, exceeded built‑in limits — triggering cascading failures.

As engineers rushed to isolate the bad file, traffic slowly returned. By mid‑afternoon, Cloudflare halted propagation, replaced the corrupted file, and rebooted key systems; full network recovery followed hours later.

The bigger picture. The incident is not isolated. Only last month, Microsoft Azure suffered a multi-hour outage that disrupted enterprise clients across Europe and the US, while Amazon Web Services (AWS) experienced intermittent downtime affecting streaming platforms and e-commerce sites. These events, combined with the Cloudflare blackout, underscore the fragility of global cloud infrastructure.

The outage comes at a politically sensitive moment in Europe’s cloud policy debate. Regulators in Brussels are already probing AWS and Microsoft Azure to determine whether they should be designated as ‘gatekeepers’ under the EU’s Digital Markets Act (DMA). These investigations aim to assess whether their dominance in cloud infrastructure gives them outsized control — even though, technically, they don’t meet the Act’s usual size thresholds. 

This recurring pattern highlights a major vulnerability in the modern internet, one born from an overreliance on a handful of critical providers. When one of these central pillars stumbles, whether from a misconfiguration, software bug, or regional issue, the effects ripple outward. The very concentration of services that enables efficiency and scale also creates single points of failure with cascading consequences.

The digital governance scene has been busy in Geneva in November. Here’s what we have tried to follow. 

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

CERN unveils AI strategy to advance research and operations

CERN has approved a comprehensive AI strategy to guide its use across research, operations, and administration. The strategy unites initiatives under a coherent framework to promote responsible and impactful AI for science and operational excellence.

It focuses on four main goals: accelerating scientific discovery, improving productivity and reliability, attracting and developing talent, and enabling AI at scale through strategic partnerships with industry and member states.

Common tools and shared experiences across sectors will strengthen CERN’s community and ensure effective deployment.

Implementation will involve prioritised plans and collaboration with EU programmes, industry, and member states to build capacity, secure funding, and expand infrastructure. Applications of AI will support high-energy physics experiments, future accelerators, detectors, and data-driven decision-making.

The UN Commission on Science and Technology for Development (CSTD) 2025–2026 inter-sessional panel

The UN Commission on Science and Technology for Development (CSTD) held its 2025–2026 inter-sessional panel on 17 November at the Palais des Nations in Geneva. The agenda focused on science, technology and innovation in the age of AI, with expert contributions from academia, international organisations, and the private sector. Delegations also reviewed progress on WSIS implementation ahead of the WSIS+20 process, and received updates on the implementation of the Global Digital Compact (GDC) and ongoing data governance work within the dedicated CSTD working group. The findings and recommendations of the panel will be considered at the twenty-ninth session of the Commission in 2026.

Fourth meeting of the UN CSTD multi-stakeholder working group on data governance at all levels

The CSTD’s multi-stakeholder working group on data governance at all levels met for the fourth time from 18 to 19 November. The programme began with opening remarks and the formal adoption of the agenda. The UNCTAD secretariat then provided an overview of inputs submitted since the last session, highlighting emerging areas of alignment and divergence among stakeholders. 

The meeting moved into substantive deliberations organised around four tracks covering key dimensions of data governance: principles applicable at all levels; interoperability between systems; sharing the benefits of data; and enabling safe, secure and trusted data flows, including across borders. These discussions are designed to explore practical approaches, existing challenges, and potential pathways toward consensus.

Following a lunch break, delegates reconvened for a full afternoon plenary to continue track-based exchanges, with opportunities for interaction among member states, the private sector, civil society, academia, the technical community, and international organisations.

The second day focused on the Working Group’s upcoming milestones. Delegations considered the outline, timeline, and expectations for the progress report to the General Assembly, as well as the process for selecting the next Chair of the Working Group. The session concluded with agreement on the scheduling of future meetings and any additional business raised by participants.

Innovations Dialogue 2025: Neurotechnologies and their implications for international peace and security

On 24 November, UNIDIR hosted its Innovations Dialogue on neurotechnologies and their implications for international peace and security in Geneva and online. Experts from neuroscience, law, ethics, and security policy discussed developments such as brain-computer interfaces and cognitive enhancement tools, exploring both their potential applications and the challenges they present, including ethical and security considerations. The event included a poster exhibition on responsible use and governance approaches.

14th UN Forum on Business and Human Rights

The 14th UN Forum on Business and Human Rights was held from 24 to 26 November in Geneva and online, under the theme ‘Accelerating action on business and human rights amidst crises and transformations.’ The forum addressed key issues, including safeguarding human rights in the age of AI and exploring human rights and platform work in the Asia-Pacific region amid the ongoing digital transformation. Additionally, a side event took a closer look at the labour behind AI.

Weekly #240 Code meets climate: AI and digital at COP30

 Logo, Text

21-28 November 2025


HIGHLIGHT OF THE WEEK

Code meets climate: AI and digital at COP30

COP30, the 30th annual UN climate meeting, officially wrapped up last Friday, 21 November. As the dust settles in Belém, we take a closer look at the outcomes with implications for digital technologies and AI.

In agriculture, momentum is clearly building. Brazil and the UAE unveiled AgriLLM, the first open-source large language model designed specifically for agriculture, developed with support from international research and innovation partners. The goal is to give governments and local organisations a shared digital foundation to build tools that deliver timely, locally relevant advice to farmers. Alongside this, the AIM for Scale initiative aims to provide digital advisory services, including climate forecasts and crop insights, to 100 million farmers.

 Person, Book, Comics, Publication, Cleaning, Clothing, Hat, Outdoors

Cities and infrastructure are also stepping deeper into digital transformation. Through the Infrastructure Resilience Development Fund, insurers, development banks, and private investors are pooling capital to finance climate-resilient infrastructure in emerging economies — from clean energy and water systems to the digital networks needed to keep communities connected and protected during climate shocks. 

The most explicit digital agenda surfaced under the axis of enablers and accelerators. Brazil and its partners launched the world’s first Digital Infrastructure for Climate Action, a global initiative to help countries adopt open digital public goods in areas such as disaster response, water management, and climate-resilient agriculture. The accompanying innovation challenge is already backing new solutions designed to scale.

The Green Digital Action Hub was also launched and will help countries measure and reduce the environmental footprint of technology, while expanding access to tools that use technology for sustainability. 

Training and capacity building received attention through the new AI Climate Institute, which will help the Global South develop and deploy AI applications suited to local needs — particularly lightweight, energy-efficient models.

The Nature’s Intelligence Studio, grounded in the Amazon, will support nature-inspired innovation and introduce open AI tools that help match real-world sustainability challenges with bio-based solutions.

Finally, COP30 marked a first by placing information integrity firmly on the climate action agenda. With mis- and disinformation recognised as a top global risk, governments and partners launched a declaration and new multistakeholder process aimed at strengthening transparency, shared accountability, and public trust in climate information — including the digital platforms that shape it.

The big picture. Across all strands, COP30 sent a clear message: the digital layer of climate action is not optional — it is embedded in the core delivery of climate action.

IN OTHER NEWS LAST WEEK

This week in AI governance

The USA. The Genesis Mission was formally established by Executive Order on 24 November 2025, tasking the US Department of Energy (DOE) with leading a nationwide AI-driven scientific research effort. The Mission will build a unified ‘American Science and Security Platform,’ combining the DOE’s 17 national laboratories’ supercomputers, federal scientific datasets that have accumulated over decades, and secure high-performance computing capacity — creating what the administration describes as ‘the world’s most complex and powerful scientific instrument ever built.’

Under the plan, AI will generate ‘scientific foundation models’ and AI agents capable of automating experiment design, running simulations, testing hypotheses and accelerating discoveries in key strategic fields: biotechnology, advanced materials, critical minerals, quantum information science, nuclear fission and fusion, space exploration, semiconductors and microelectronics. 

The initiative is framed as central to energy security, technological leadership and national competitiveness — the administration argues that despite decades of rising research funding, scientific output per dollar has stagnated, and AI can radically boost research productivity within a decade. 

To deliver on these ambitions, the Executive Order sets a governance structure: the DOE Secretary oversees implementation; the Assistant to the President for Science and Technology will coordinate across agencies; and DOE may partner with private sector firms, academia and other stakeholders to integrate data, compute, and infrastructure.

The UK. The UK government has launched a major AI initiative to drive national AI growth, combining infrastructure investment, business support, and research funding. An immediate £150 million GPU deployment in Northamptonshire kicks off a £18 billion programme over five years to build sovereign AI capacity. Through an advanced-market commitment of £100 million, the state will act as a first customer for domestic AI hardware startups, helping de-risk innovation and boost competitiveness.

The plan includes AI Growth Zones, with a flagship site in South Wales expected to create over 5,000 jobs, and expanded access to high-performance computing for universities, startups, and research organisations. A dedicated £137 million “AI for Science” strand will accelerate breakthroughs in drug discovery, clean energy, and advanced materials, ensuring AI drives both economic growth and public value outcomes.

The report highlights Bangladesh’s relative strengths: a growing e-government infrastructure and generally high public trust in digital services. However, it also candidly maps structural challenges: uneven connectivity and unreliable power supply beyond major urban areas, a persistent digital divide (especially gender and urban–rural), limited high-end computing capacity, and insufficient data protection, cybersecurity and AI-related skills in many parts of society. 

As part of its roadmap, the country plans to prioritise governance frameworks, capacity building, and inclusive deployment — especially ensuring that AI supports public-sector services in health, education, justice and social protection. 

Australia. Australia has launched the AI Safety Institute (AISI), a national centre tasked with consolidating AI safety research, coordinating standards development, and advising both government and industry on best practices. The Institute will assess the safety of advanced AI models, promote resilience against misuse or accidents, and serve as a hub for international cooperation on AI governance and research.

The EU. The European Commission has launched an AI whistle-blower tool, providing a secure and confidential channel for individuals across the EU to report suspected breaches of the AI Act, including unsafe or high‑risk AI deployments. The tool allows submissions in any EU official language, supports anonymity, and offers follow-up tracking, aiming to strengthen oversight and enforcement of EU AI regulations. 

With the launch of the tool, the EU aims to close gaps in the enforcement of the EU AI Act, increase the accountability of developers and deployers, and foster a culture of responsible AI usage across member states. The tool is also intended to foster transparency, allowing regulators to react faster to potential violations without relying just on audits or inspections.

United Arab Emirates. The AI for Development Initiative has been announced to advance digital infrastructure across Africa, backed by a US$1 billion commitment from the UAE. According to official statements, the initiative plans to channel resources to sectors such as education, agriculture, climate adaptation, infrastructure and governance, helping African governments to adopt AI-driven solutions even where domestic AI capacity remains limited. 

Though full details remain to be seen (e.g. selection of partner countries, governance and oversight mechanisms), the scale and ambition of the initiative signal the UAE’s aspiration to act not just as an AI adoption hub, but as a regional and global enabler of AI-enabled development.


From Australia to the EU: New measures shield children from online harms

The bans on under‑16s are advancing globally, and Australia has gone the farthest in this effort. Regulators there have now widened the scope of the ban to include platforms like Twitch, which is classified as age-restricted due to its social interaction features. Meta has begun notifying Australian users believed to be under 16 that their Facebook and Instagram accounts will be deactivated starting 4 December, a week before the law officially takes effect on 10 December.

To support families through the transition, the government has established a Parent Advisory Group, bringing together organisations representing diverse households to help carers guide children on online safety, communication, and safe ways to connect digitally.

The ban has already provoked opposition. Less than two weeks before enforcement, two 15‑year-olds, backed by the advocacy group Digital Freedom Project, filed a constitutional challenge in the High Court. They argue the law unfairly limits under‑16s’ ability to participate in public debate and political expression, effectively silencing young voices on issues that affect them directly.

Malaysia also plans to ban social media accounts for people under 16 starting in 2026. The Cabinet approved the measure to protect children from online harms such as cyberbullying, scams, and sexual exploitation. Authorities are considering approaches such as electronic age verification using ID cards or passports, although the exact enforcement date has not been set.

EU lawmakers have proposed similar protections. The European Parliament adopted a non-legislative report calling for a harmonised EU minimum age of 16 for social media, video-sharing platforms, and AI companions, with access for 13–16-year-olds allowed only with parental consent. They support accurate, privacy-preserving age verification via the EU age-verification app and eID wallet, but emphasise that platforms must still design services that are safe by default.

Beyond age restrictions, the EU is strengthening broader safeguards. Member states have agreed on a Council position for a regulation to prevent and combat child sexual abuse online, requiring platforms to block child sexual abuse material (CSAM) and child solicitation, assess risks, and implement mitigation measures, including safer default settings, content controls, and reporting tools. National authorities will oversee compliance and may impose penalties, while high-risk platforms could also contribute to developing technologies to reduce risks. A new EU Centre on Child Sexual Abuse would support enforcement, maintain abuse material databases, and assist victims in removing exploitative images.

The European Parliament’s report also addresses everyday online risks, calling for bans on addictive features—such as infinite scrolling, autoplay, pull-to-refresh, reward loops, engagement-based recommendation algorithms, and gambling-like game elements like loot boxes. It urges action against kidfluencing, commercial exploitation, and generative AI risks, including deepfakes, AI chatbots, and nudity apps producing non-consensual content. Enforcement measures include fines, platform bans, and personal liability for senior managers in cases of serious or persistent breaches.


G20 leaders set digital priorities for a more inclusive global future 

This past weekend, G20 leaders convened in Africa for the first time at their annual Leaders’ Summit. Discussions focused on AI, emerging digital technologies, bridging digital divides, and the role of critical minerals

In their joint declaration, G20 leaders emphasised the transformative potential of AI and emerging digital technologies for sustainable development and reducing inequalities. They stressed the need for international cooperation to ensure AI benefits are equitably shared and that associated risks—including human rights, transparency, accountability, safety, privacy, data protection, and ethical oversight—are carefully managed. The declaration recognised the UN as a central forum for promoting responsible AI governance globally.

The leaders welcomed initiatives launched under South Africa’s presidency, including the Technology Policy Assistance Facility (TPAF) by UNESCO, which supports countries in shaping AI policy through global experiences and research. They also highlighted the AI for Africa Initiative, designed to strengthen the continent’s AI ecosystem by expanding computing capacity, developing talent, creating representative datasets, enhancing infrastructure, and fostering Africa-centric sovereign AI capabilities, supported through long-term partnerships and voluntary contributions.

The declaration reaffirmed G20 commitments to bridging digital divides, including halving the gender digital divide by 2030, promoting universal and meaningful connectivity, and building inclusive, safe, and resilient digital economies. Leaders emphasised the role of digital public infrastructure, modernised education systems, teacher empowerment, and skills development in equipping societies for the digital age. Tourism innovation, enhanced air connectivity, market access, and digital tools for MSMEs were also noted as priorities for sustainable and inclusive economic growth.

The rising global demand for critical minerals driven by sustainable transitions, digitisation, and industrial innovation was highlighted in the declaration. Leaders acknowledged challenges faced by producer countries, including underinvestment, limited value addition, technological gaps, and socio-environmental pressures. They welcomed the G20 Critical Minerals Framework, a voluntary blueprint promoting investment, local beneficiation, governance, and resilient value chains.


Ongoing Nexperia saga: Netherlands’ chip seizure meets China’s legal challenge

Two weeks ago, the Netherlands temporarily suspended its takeover of Nexperia, the Dutch chipmaker owned by China’s Wingtech, following constructive talks with Chinese authorities. 

However, tensions have persisted. Wingtech has challenged the Dutch intervention in court, while Beijing continues to press for a full reversal. Meanwhile, Nexperia’s Dutch management has urged its Chinese units to cooperate to restore disrupted supply chains, which remain fragile after the earlier intervention. Wingtech now accuses the Dutch government of trying to permanently sever its control, leaving the situation unresolved: the company’s ownership and the stability of critical chip flows between Europe and China are still in dispute, with potential knock-on effects for global industries such as the automotive industry.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

The 14th UN Forum on Business and Human Rights was held from Monday to Wednesday in Geneva and online, under the theme ‘Accelerating action on business and human rights amidst crises and transformations.’ The forum addressed key issues such as safeguarding human rights in the age of AI and exploring human rights and platform work in the Asia-Pacific region amid the ongoing digital shift. Additionally, a side event took a closer look at the labour behind AI.

LOOKING AHEAD
 Person, Face, Head, Binoculars

A reminder: Civil society organisations have until 30 November 2025 (this Sunday) to apply for the CADE Capacity Development Programme 2025–2026. The programme helps CSOs strengthen their role in digital governance through a mix of technical courses, diplomatic skills training, and expert guidance. Participants can specialise in AI, cybersecurity, or infrastructure policy, receive on-demand helpdesk support, and the most engaged will join a study visit to Geneva. Fully funded by the EU, the programme offers full scholarships to selected organisations, with a special welcome to those from the Global South and women-led groups.

The 2025 International AI Standards Summit will be held on 2–3 December in Seoul, jointly organised by the International Organization for Standardization (ISO), the International Electrotechnical Commission (IEC), and the International Telecommunication Union (ITU), with hosting support from the Korean Agency for Technology and Standards (KATS). The summit will bring together policymakers, industry leaders, and experts to advance global AI standards, with a focus on interoperability, transparency, and human rights. By fostering international dialogue and cooperation, the event aims to lay the groundwork for responsible AI development and deployment worldwide. The event is by invitation only.

Next Wednesday (3 December), Diplo, UNEP, and Giga are co-organising an event at the Giga Connectivity Centre in Geneva, titled ‘Digital inclusion by design: Leveraging existing infrastructure to leave no one behind’. The event will explore how community anchor institutions—such as post offices, schools, and libraries—can help close digital divides by offering connectivity, digital skills, and access to essential online services. The session will feature the launch of the new UPU Digital Panorama report, showcasing how postal networks are supporting inclusive digital transformation, along with insights from Giga on connecting schools worldwide. Looking ahead to WSIS+20 and the Global Digital Compact, the discussion will consider practical next steps toward meaningful digital inclusion. The event will be held in situ, in Geneva, Switzerland.

Also on Wednesday, (3 December) Diplo will be hosting an online webinar, ‘Gaming and Africa’s youth: Opportunities, challenges, and future pathways’. The session will explore how gaming can support education, mental health, and cross-border business opportunities, while addressing risks such as addiction and regulatory gaps. Participants will discuss policies, investment, and capacity-building strategies to ensure ethical and inclusive growth in Africa’s gaming sector.



READING CORNER
AI and learning blog

Dismissing AI in education is futile. How we can use technology to enhance, rather than replace, genuine learning and critical thinking skills?

Weekly #239 Digital draught: When the cloud goes offline

 Logo, Text

14-21 November 2025


HIGHLIGHT OF THE WEEK

Digital draught: When the cloud goes offline

On 18 November, Cloudflare — the invisible backbone behind millions of websites — went down in what the company calls its most serious outage since 2019. Users around the world saw internal-server-error messages as services like X and ChatGPT temporarily went offline.

The culprit was an internal misconfiguration. A routine permissions change in a ClickHouse database led to a malformed ‘feature file’ used by Cloudflare’s Bot Management tool. That file unexpectedly doubled in size and, when pushed across Cloudflare’s global network, exceeded built‑in limits — triggering cascading failures. 

As engineers rushed to isolate the bad file, traffic slowly returned. By mid‑afternoon, Cloudflare halted propagation, replaced the corrupted file, and rebooted key systems; full network recovery followed hours later.

 Book, Comics, Publication, Person, Advertisement, Poster, Face, Head, People, Octagón

The bigger picture. The incident is not isolated. Only last month, Microsoft Azure suffered a multi-hour outage that disrupted enterprise clients across Europe and the US, while Amazon Web Services (AWS) experienced intermittent downtime affecting streaming platforms and e-commerce sites. These events, combined with the Cloudflare blackout, underscore the fragility of global cloud infrastructure.

The outage comes at a politically sensitive moment in Europe’s cloud policy debate. Regulators in Brussels are already probing AWS and Microsoft Azure to determine whether they should be designated as ‘gatekeepers’ under the EU’s Digital Markets Act (DMA). These investigations aim to assess whether their dominance in cloud infrastructure gives them outsized control — even though, technically, they don’t meet the Act’s usual size thresholds. 

This recurring pattern highlights a major vulnerability in the modern internet, one born from an overreliance on a handful of critical providers. When one of these central pillars stumbles, whether from a misconfiguration, software bug, or regional issue, the effects ripple outward. The very concentration of services that enables efficiency and scale also creates single points of failure with cascading consequences.

IN OTHER NEWS LAST WEEK

This week in AI and data governance

Singapore. Singapore has launching a Global AI Assurance Sandbox, now open to companies worldwide that want to run real-world pilot tests for AI systems. 

This sandbox is guided by 11 governance principles aligned with international standards — including NIST’s AI Risk Management Framework and ISO/IEC 42001. By doing this, Singapore hopes to bridge the gap between fragmented national AI regulations and build shared benchmarks for safety and trust. 

Russia. At Russia’s premier AI conference (AI Journey), President Vladimir Putin announced the formation of a national AI task force, framing it as essential for minimising dependence on foreign AI. The plan includes building data centres (even powered by small-scale nuclear power), and using these to host generative AI models that protect national interests. Putin also argued that only domestically developed models should be used in sensitive sectors — like national security — to prevent data leakage. 

The USA. The shadow of regulation-limiting politics looms large in the USA. Trump-aligned Republicans have again pushed for a moratorium on state-level AI regulation. The idea is to block states from passing their own AI laws, arguing that a fragmented regulatory landscape would hinder innovation. 

One version of the proposal would tie federal broadband funding to states’ willingness to forego AI rules — effectively punishing any state that tries to regulate. Yet this pushback isn’t unopposed: more than 260 state lawmakers from across the US, Republican and Democrat alike, have decried the moratorium. 

The EU. A big political storm is brewing in the EU. The European Commission has rolled out what it calls the Digital Omnibus, a package of proposals aimed at simplifying its digital lawbook — a move welcomed by some as needed to improve the competitiveness of the EU’s digital actors, and criticised by others over potentially negative implications in areas such as digital rights. The package consists of the Digital Omnibus Regulation Proposal and the Digital Omnibus on AI Regulation Proposal.

What’s making waves., The Digital omnibus on AI Regulation Proposal delays the implementation of ‘high-risk’ rules under the EU’s AI Act until 2027, giving Big Tech more time before stricter oversight takes effect. The entry into force of high-risk AI rules will now align with the availability of support tools, giving companies up to 16 months to comply. SMEs and small mid-cap companies will benefit from simplified documentation, broader access to regulatory sandboxes, and centralised oversight of general-purpose AI systems through the AI Office.

Cybersecurity reporting is also being simplified with a single-entry interface for incidents under multiple laws, while privacy rules are being clarified to support innovation without weakening protections under the GDPR. Cookie rules will be modernised to reduce repetitive consent requests and allow users to manage preferences more efficiently.

Data access will be enhanced through the consolidation of EU data legislation via the Data Union Strategy, targeted exemptions for smaller companies, and new guidance on contractual compliance. The measures aim to unlock high-quality datasets for AI and strengthen Europe’s innovation potential, while saving businesses billions and improving regulatory clarity.

The Digital Omnibus Regulation Proposal has implications for data protection for the EU. Proposed changes to the General Data Protection Regulation (GDPR) a would redefine the definition of personal data, weakening the safeguards on when companies can use it — especially for AI training. Meanwhile, cookie-consent is being simplified into a ‘one click’ model that lasts up to six months. 

Ring the alarm. Privacy and civil rights groups expressed concern that the proposed GDPR changes disproportionately benefit large technology firms. A coalition of 127 organisations has issued a public warning that this could become ‘the biggest rollback of digital fundamental rights in EU history.’ 

These proposals must go through the EU’s co-legislative process — Parliament and Council will debate, amend, and negotiate them. Given the controversy (support from industry, pushback from civil society), the final outcome could look very different from the Commission’s initial proposal.


Privacy in motion

In the EU, policymakers are making adjustments to improve the implementation of the General Data Protection Regulation (GDPR). The Council of the EU has adopted new measures to accelerate the handling of cross-border data protection complaints. Among the key changes is the introduction of harmonised criteria for determining whether a complaint is admissible, ensuring that citizens receive the same treatment no matter where they file a GDPR complaint. The rules also strengthen the rights of both complainants and companies under investigation, including clearer procedures for participation in the case and access to preliminary findings. To reduce administrative burdens, the regulation introduces a simplified cooperation procedure for straightforward cases, allowing authorities to close cases more quickly without relying on the full cooperation framework. 

India has begun implementing its new national data protection system, marking a significant step toward a more structured privacy framework. The Digital Personal Data Protection Act 2023 is now in force, following the approval of implementing rules that outline how the law will be applied. These rules establish initial institutional and procedural requirements, including the creation of a Data Protection Board, while giving organisations additional time to comply with other obligations such as consent management and breach reporting.

The common thread. Regulators in the EU and India are moving from writing the data protection rules to the rather complex task of implementing them.


Europe’s push for digital independence 

France and Germany jointly hosted the Summit on European Digital Sovereignty in Berlin to accelerate action on Europe’s digital independence. The two countries introduced a joint roadmap highlighting seven strategic priorities:

  1. Regulatory simplification: A more innovation-friendly EU framework, including a proposed 12-month postponement of AI Act high-risk requirements and targeted GDPR simplification.
  2. Fairer digital markets: Continued efforts to ensure contestable cloud and digital markets, including the European Commission’s market investigation into cloud hyperscalers.
  3. Data sovereignty: Stronger safeguards for sensitive data, protection from non-EU extraterritorial risks, and mandatory privacy-enhancing technologies aligned with cybersecurity rules.
  4. Digital commons: Advancement of the Digital Commons-EDIC initiative with partner countries.
  5. Digital public infrastructure & open source: Support for the European Digital Identity Wallet and wider deployment of open-source tools in public administrations.
  6. Digital Sovereignty Task Force: A new Franco-German body to define sovereignty indicators and propose concrete policy measures by 2026.
  7. Frontier AI: Actions to create a world-leading European environment for breakthrough AI innovation.

The summit also served as a catalyst for major private-sector commitments, with more than €12 billion in investment pledged toward key digital technologies.

German Chancellor Friedrich Merz called the summit ‘an important milestone’ toward a more sovereign and competitive digital Europe, while French President Emmanuel Macron emphasised a ‘historic convergence’ of European digital ambition.

A major development accompanying the summit was the launch of the European Network for Technological Resilience and Sovereignty (ETRS). This new coalition of leading think tanks and experts aims to enhance Europe’s capacity for innovation and reduce its reliance on foreign technologies. Founding members include Bertelsmann Stiftung (Germany), CEPS (Belgium), the AI & Society Institute (France), and the Polish Economic Institute.

The ETRS will act as a shared knowledge engine connecting academia, civil society, industry, and public institutions to support evidence-driven policymaking. From 2026 onward, it will launch expert workshops, strategic mapping of technology dependencies, and an international pool of specialists focused on digital sovereignty. The network is open to new participants, with more than a dozen already joining.

The gist of it. ‘Europe currently relies on the United States and China for more than 80 percent of its critical digital technologies, ranging from cloud computing and artificial intelligence to semiconductors,’ ETRS noted in a statement. That figure illustrates why the EU is taking this approach. For years, the EU has been a world leader in rule-making — but it has also been playing a high-stakes game of catch-up in developing the technologies it regulates. Now, the bloc is aiming to become a master of both.


Cotonou Declaration sets ambitious 2030 digital goals for West and Central Africa

West and Central African digital economy ministers have launched an ambitious initiative for digital transformation with the Cotonou Declaration, adopted at a regional summit in Cotonou, Benin, on November 17–18, 2025. The Declaration sets targets for 2030, including a Single African Digital Market, 90% broadband coverage, interoperable digital infrastructures like IDs and payments, doubled intra-African e-commerce, and harmonised frameworks for cybersecurity, data governance, and AI.

Human capital is central: 20 million people are expected to gain basic digital skills, and two million new digital jobs or entrepreneurial opportunities will be created, especially for youth and women. Ministers also pledged to strengthen innovation ecosystems and promote African-led AI, building regional cloud and data infrastructure to drive economic growth.

Investment coordination will be facilitated through national digital compacts aligning reforms, funding, and partnerships.


Dutch retreat calms Nexperia chip dispute with China

The Dutch government has suspended its takeover of Nexperia, a Netherlands-based chipmaker owned by China’s Wingtech, following constructive talks with Chinese authorities.

Dutch Economy Minister Vincent Karremans stated that the pause in the takeover is intended as a goodwill gesture, and that dialogue with China will continue — the decision was made in consultation with the EU and international partners.

The EU’s trade chief, Maroš Šefčovič, welcomed the move, saying it could help stabilise chip supply chains.

China has also begun releasing stockpiled chips to ease the shortage.

The heart of the matter. The episode underscored the fragility of global semiconductor supply chains.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

The UN Commission on Science and Technology for Development (CSTD) held its 2025–2026 inter-sessional panel on 17 November at the Palais des Nations in Geneva. The agenda focused on science, technology and innovation in the age of AI, with expert contributions from academia, international organisations, and the private sector. Delegations also reviewed progress on WSIS implementation ahead of the WSIS+20 process, and received updates on the implementation of the Global Digital Compact (GDC) and ongoing data governance work within the dedicated CSTD working group. The findings and recommendations of the panel will be considered at the twenty-ninth session of the Commission in 2026.

The CSTD’s multi-stakeholder working group on data governance at all levels met for the fourth time from 18 to 19 November. Delegates reviewed recent inputs, discussed principles, interoperability, benefit-sharing, and secure data flows, and planned next steps for the Working Group’s progress report to the UN General Assembly.

LOOKING AHEAD
 Person, Face, Head, Binoculars

The G20 Leaders’ Summit is scheduled for 22 and 23 November in Johannesburg, South Africa. This annual meeting brings together the heads of state and government from the 19 member countries, plus the African Union and the EU. Expected on the agenda: AI. data governance, and critical minerals. Not expected: the USA’s attendance.

The second half of ITU’s World Telecommunication Development Conference 2025 (WTDC‑25) in Baku, Azerbaijan, will be held next week. The conference brings together governments, regulators, industry, civil society, and other stakeholders to discuss strategies for universal, meaningful, and affordable connectivity. Participants are also reviewing policy frameworks, investment priorities, and digital development initiatives. They will also adopt a Declaration, Strategic Plan, and Action Plan to guide global ICT development through 2029.

On 24 November, UNIDIR will host its Innovations Dialogue on neurotechnologies and their implications for international peace and security in Geneva and online. Experts from neuroscience, law, ethics, and security policy will discuss developments such as brain-computer interfaces and cognitive enhancement tools, exploring both their potential applications and the challenges they present, including ethical and security considerations. The event includes a poster exhibition on responsible use and governance approaches.

Several national and regional IGFs will also be held next week: the Polish IGF (24-25 November), the North African IGF (24-26 November), and the Nigerian IGF (24-27 November).

DiploFoundation is inviting civil society organisations to apply by 30 November 2025 for the CADE Capacity Development Programme 2025–2026. The programme helps CSOs strengthen their role in digital governance through a mix of technical courses, diplomatic skills training, and expert guidance. Participants can specialise in AI, cybersecurity, or infrastructure policy, receive on-demand helpdesk support, and the most engaged will join a study visit to Geneva. Fully funded by the EU, the programme offers full scholarships to selected organisations, with a special welcome to those from the Global South and women-led groups.



READING CORNER
FF2025 Social share

ITU’s Measuring digital development: Facts and Figures 2025 offers a snapshot of the most important ICT indicators, including estimates for the current year.

gdpr general data protection regulation concept computer with a gdpr icon on the digital tablet screen stockpack istock scaled 1

EU data protection law and competitiveness are struggling to work cohesively, according to senior Union leaders. That is why the GDPR and ePD are next on the digital omnibus’ chopping…

AI in schools

Is AI destroying the value of learning? From elementary classrooms to universities, educators face a new reality: students using AI to bypass critical thinking. Read Part 1 of this series

650 312

The alarmism that followed the 1972 ‘Limits of Growth’ report, which predicted civilisation’s collapse by c. 2040, pushed policy towards centralisation, token gestures, and factional debate. Aldo Matteucci analyses.

Lettre d’information du Digital Watch – Numéro 104 – Mensuelle Octobre 2025

Rétrospective d’octobre 2025

Les articles de ce mois-ci retracent l’évolution des règles du monde numérique, de la protection en ligne des enfants à la lutte mondiale pour les terres rares, en passant par l’intelligence artificielle et la cybercriminalité.

Voici ce que nous avons décrypté dans cette édition.

Nouvelles règles pour l’espace numérique : Les pays renforcent les mesures de sécurité en ligne et redéfinissent les limites numériques pour les jeunes utilisateurs.

La lutte mondiale pour contrôler l’IA : Nous avons examiné comment les États et les géants de la technologie se font concurrence pour façonner l’avenir de l’IA.

Répit pour les terres rares : Des couloirs commerciaux aux interdictions d’exportation, les nations recalibrent leur approche pour sécuriser les minéraux qui sous-tendent l’économie numérique.

Quand le cloud vacille : Ce que les pannes d’AWS et de Microsoft révèlent sur la résilience, la dépendance et les risques d’un Internet de plus en plus centralisé.

Promesses et dangers : le monde signe le nouveau traité des Nations unies sur la cybercriminalité à Hanoï —

Une étape importante pour la politique numérique mondiale, mais qui soulève de profondes questions sur les droits, la juridiction et l’application.

Le mois dernier à Genève — Découvrez les discussions, les événements et les conclusions qui façonnent la gouvernance numérique internationale.


GOUVERNANCE NUMÉRIQUE

Les co facilitateurs du processus SMSI+20 ont publié la révision 1 du document final pour l’examen de la mise en œuvre du Sommet mondial sur la société de l’information après vingt ans, qui reflète les contributions et les propositions recueillies auprès des parties prenantes et des États membres tout au long du processus consultatif mené jusqu’à présent.

INTELLIGENCE ARTIFICIELLE

Le président chinois Xi Jinping a réitéré la proposition de la Chine de créer un organisme mondial dédié à l’IA, intitulé World Artificial Intelligence Cooperation Organisation (WAICO), afin de coopérer sur les stratégies de développement, les règles de gouvernance et les normes technologiques.

La Commission européenne envisage de suspendre ou d’assouplir certains éléments de la loi européenne sur l’IA, la législation phare de l’Union européenne visant à réglementer les systèmes d’IA à haut risque. Les ajustements potentiels pourraient inclure des délais de mise en conformité reportés, des obligations moins strictes pour les applications à haut risque et une approche progressive de la mise en application.

La Commission européenne évalue actuellement si ChatGPT doit être classé comme un très grand moteur de recherche en ligne (VLOSE) au titre de la loi sur les services numériques (DSA), une mesure qui entraînerait des obligations étendues en matière de transparence, d’audit et d’évaluation des risques et qui pourrait potentiellement empiéter sur les exigences de la future loi sur l’IA.

La Déclaration sur la superintelligence, approuvée par des chercheurs et des technologues de renom, préconise une surveillance et une gouvernance rigoureuses des systèmes d’IA avancés afin de prévenir tout préjudice involontaire, faisant écho aux préoccupations des régulateurs et des gouvernements du monde entier.

TECHNOLOGIES

Le prix Nobel de physique 2025 a été décerné à John Clarke, Michel H. Devoret et John M. Martinis pour avoir démontré que des effets quantiques clés, tels que l’effet tunnel et la quantification de l’énergie, peuvent se produire dans des circuits supraconducteurs de la taille d’une main, faisant ainsi progresser la physique fondamentale et jetant les bases des technologies quantiques modernes.

L’UNESCO a approuvé le premier cadre mondial sur l’éthique des neurotechnologies, établissant de nouvelles normes pour garantir que les progrès de la science du cerveau respectent les droits et la dignité humains.

La feuille de route scientifique et technologique entre les États-Unis et la Corée élargit la coopération dans les domaines de l’IA, de la quantique, de la 6G, de la sécurité de la recherche et de l’espace civil, dans le but d’harmoniser les politiques en faveur de l’innovation et de favoriser les « exportations rouillées ».

Le président américain Donald Trump et le président chinois Xi Jinping ont signé un accord qui annule effectivement les récentes mesures de contrôle des exportations de Pékin sur les terres rares et autres minéraux critiques.

Le cadre américano-japonais pour la sécurité de l’approvisionnement en minéraux critiques et en terres rares engage les deux nations à mener des activités conjointes d’extraction, de traitement et de stockage, dans le but de réduire leur dépendance vis-à-vis de la Chine et de renforcer la résilience de la chaîne d’approvisionnement indo-pacifique.

Les ministres de l’Énergie du G7 ont convenu de créer une alliance pour la production de minéraux critiques, soutenue par plus d’une vingtaine de nouveaux investissements et partenariats.

Le ministère chinois du Commerce a assoupli sa position dans l’affaire Nexperia et a décidé d’accorder des dérogations au cas par cas à ses restrictions à l’exportation des produits Nexperia, tandis que les Pays-Bas ont indiqué qu’ils pourraient suspendre leurs mesures de contrôle d’urgence si l’approvisionnement redevenait normal.

La Maison Blanche a confirmé que les puces IA les plus avancées restaient interdites aux acheteurs chinois. Les responsables américains ont également indiqué qu’ils pourraient bloquer les ventes de modèles réduits, renforçant ainsi les contrôles à l’exportation. La Chine renforcerait les contrôles douaniers sur les processeurs IA de Nvidia destinés au marché chinois dans les principaux ports, soulignant ainsi que les contrôles à l’exportation et les contre-mesures font désormais partie intégrante de la chaîne d’approvisionnement.

INFRASTRUCTURE

La Commission européenne a approuvé la création du Consortium pour une infrastructure numérique européenne (EDIC), qui rassemble la France, l’Allemagne, les Pays-Bas et l’Italie afin de développer des systèmes numériques ouverts et interopérables qui renforcent la souveraineté de l’Europe et soutiennent les gouvernements et les entreprises.

CYBERSÉCURITÉ

La Convention des Nations Unies contre la cybercriminalité, premier traité mondial visant à lutter contre la cybercriminalité, a été ouverte à la signature lors d’une cérémonie de haut niveau au cours de laquelle 72 pays l’ont ratifiée.

Le Brésil fait progresser sa première loi nationale sur la cybersécurité, le Cadre juridique de la cybersécurité, afin de centraliser la surveillance et de renforcer la protection des citoyens et des entreprises dans un contexte marqué par de récentes cyberattaques très médiatisées contre des hôpitaux et des données personnelles.

Discord a confirmé une cyberattaque contre un fournisseur tiers de vérification de l’âge qui a exposé les images d’identité officielles et les données personnelles d’environ 70 000 utilisateurs, y compris des informations partielles sur les cartes de crédit et les échanges avec le service client, bien qu’aucun numéro de carte complet, mot de passe ou activité plus large n’ait été compromis ; la plateforme elle-même est restée sécurisée.

Le rapport annuel sur les risques liés aux infrastructures critiques en Australie, publié par le ministère de l’Intérieur, met en garde contre la vulnérabilité croissante de secteurs essentiels tels que l’énergie, la santé, la banque, l’aviation et les systèmes numériques en raison des tensions géopolitiques, des perturbations de la chaîne d’approvisionnement, des cybermenaces, des risques climatiques, du sabotage physique, des initiés malveillants et de l’érosion de la confiance du public.

Le Comité international de la Croix-Rouge (CICR) et l’Académie de Genève ont publié un rapport conjoint analysant l’application du droit international humanitaire (DIH) à la participation des civils aux activités cybernétiques et numériques pendant les conflits armés, en s’appuyant sur des recherches mondiales et des contributions d’experts.

Le Danemark, qui assure actuellement la présidence du Conseil de l’UE, a retiré sa proposition visant à exiger l’analyse des messages privés cryptés à la recherche de contenus pédopornographiques (CSAM), abandonnant ainsi la proposition dite « Chat Control ». À la place, le Danemark soutiendra désormais un régime volontaire de détection des CSAM.

Un nombre croissant de pays s’apprêtent à interdire l’accès des mineurs aux principales plateformes, le Danemark se préparant à exclure les moins de 15 ans, et la Nouvelle-Zélande et l’Australie les moins de 16 ans.

La présidence danoise du Conseil de l’UE a fait progresser la déclaration du Jutland, plaçant la vérification de l’âge au cœur de la sécurité en ligne et soutenant un système européen lié au portefeuille d’identité numérique européen. Les ministres de l’UE ont approuvé un système commun de vérification tout en permettant à chaque pays de fixer sa propre limite d’âge.

ÉCONOMIE

Une coalition d’États d’Afrique, des Caraïbes et du Pacifique, menée par la Barbade, a présenté une proposition à l’Organisation mondiale du commerce (OMC) visant à prolonger le moratoire de longue date sur les droits de douane appliqués aux transmissions électroniques.

L’Assemblée nationale française a approuvé l’augmentation de 3 % à 6 % de la taxe sur les services numériques appliquée aux géants américains de la technologie tels que Google, Apple, Meta et Amazon, malgré les avertissements du ministre de l’Économie Roland Lescure quant à d’éventuelles représailles commerciales de la part des États-Unis et le fait qu’il ait qualifié cette augmentation de « disproportionnée ».

Les législateurs français ont approuvé à une faible majorité l’amendement du député centriste Jean-Paul Matteï visant à étendre l’impôt sur la fortune aux « actifs improductifs » tels que les produits de luxe, l’immobilier et les monnaies numériques. L’amendement a été adopté par 163 voix contre 150 à l’Assemblée nationale, avec le soutien des socialistes et des membres d’extrême droite.

L’Agence des services financiers du Japon soutiendra un projet pilote mené par MUFG, Sumitomo Mitsui et Mizuho Bank visant à émettre conjointement des monnaies stables adossées au yen pour les paiements des entreprises.

DROITS DE L’HOMME

Le Bureau de l’UNESCO pour les Caraïbes a lancé une enquête régionale sur le genre et l’IA afin de documenter la violence en ligne, les préoccupations en matière de confidentialité et les biais algorithmiques affectant les femmes et les filles, dont les résultats seront intégrés dans une note d’orientation régionale.

Un briefing des Nations unies met en garde contre les graves violations des droits humains résultant d’une coupure des télécommunications pendant 48 heures à l’échelle nationale en Afghanistan, qui a gravement perturbé l’accès aux soins de santé, aux services d’urgence, aux services bancaires, à l’éducation et aux communications quotidiennes, exacerbant les vulnérabilités existantes de la population.

La Tanzanie a imposé une coupure nationale d’Internet pendant ses élections générales tendues, perturbant gravement la connectivité et bloquant des plateformes telles que X, WhatsApp et Instagram, comme l’a confirmé NetBlocks, empêchant les journalistes, les observateurs électoraux et les citoyens de partager des informations alors que des manifestations et des troubles étaient signalés ; le gouvernement a déployé l’armée, suscitant des inquiétudes quant au contrôle de l’information.

Le Défenseur des droits français a jugé que l’algorithme Facebook de Meta discriminait indirectement les sexes dans les offres d’emploi, violant ainsi les lois anti-discrimination, à la suite d’une plainte déposée par Global Witness et les associations de défense des droits des femmes Fondation des Femmes et Femmes Ingénieures.Les défenseurs de la vie privée ont proposé une charte américaine des droits sur Internet afin de protéger les libertés numériques contre l’expansion des lois sur la censure en ligne, telles que la loi britannique sur la sécurité en ligne, la loi européenne sur les services numériques et les projets de loi américains tels que le KOSA et le STOP HATE Act, qui, selon eux, portent atteinte aux libertés civiles en permettant au gouvernement et aux entreprises de contrôler la liberté d’expression sous prétexte de sécurité.

JURIDIQUE

Une décision historique rendue par un tribunal fédéral américain a définitivement interdit à la société israélienne de logiciels espions NSO Group de cibler les utilisateurs de WhatsApp, empêchant ainsi NSO d’accéder aux systèmes de WhatsApp et limitant de fait les activités de la société sur la plateforme.

Un avocat général de la CJUE a estimé que les autorités nationales de concurrence pouvaient légalement saisir les courriels des employés lors d’enquêtes sans autorisation judiciaire préalable, à condition qu’un cadre juridique strict et des garanties efficaces soient mis en place.

Le gouvernement australien d’Albanese a rejeté l’introduction d’une exception relative à l’exploration de textes et de données dans sa législation sur le droit d’auteur, donnant la priorité à la protection des créateurs locaux malgré les demandes du secteur technologique en faveur d’une exemption pour l’IA qui permettrait l’utilisation sans licence de contenus protégés par le droit d’auteur.Un tribunal britannique s’est largement rallié à Stability AI dans son litige avec Getty Images, jugeant que l’utilisation par l’entreprise des images de Getty pour entraîner ses modèles d’IA ne violait pas le droit d’auteur ni le droit des marques.

SOCIOCULTUREL

La Commission européenne a publié des conclusions préliminaires selon lesquelles Meta et TikTok ont enfreint les obligations de transparence et d’accès des chercheurs prévues par le DSA, notamment en rendant difficile pour les utilisateurs le signalement de contenus illégaux et en limitant le contrôle indépendant des données de la plateforme.

Aux Pays-Bas, un tribunal a accordé à Meta jusqu’au 31 décembre 2025 pour mettre en œuvre des options de désactivation plus simples pour les fils d’actualité basés sur des algorithmes sur Facebook et Instagram, à la suite d’une décision antérieure selon laquelle la conception du fil d’actualité de Meta enfreignait les obligations de la DSA.

L’Australie exigera des services de streaming comptant plus d’un million d’abonnés locaux qu’ils investissent au moins 10 % de leurs dépenses locales dans de nouveaux contenus australiens, notamment des séries, des émissions pour enfants, des documentaires, des programmes artistiques et éducatifs.

DÉVELOPPEMENT

Le Bureau des applications de l’intelligence artificielle, de l’économie numérique et du travail à distance des Émirats arabes unis, en partenariat avec Google, a lancé l’initiative   « AI for All » le 29 octobre 2025, afin de fournir une formation complète aux compétences en IA dans tout le pays jusqu’en 2026, ciblant les étudiants, les enseignants, les universitaires, les fonctionnaires, les PME, les créatifs et les créateurs de contenu.

KEPSA et Microsoft ont lancé la Kenya AI Skilling Alliance (KAISA) à Nairobi, une plateforme nationale réunissant le gouvernement, le monde universitaire, le secteur privé et des partenaires afin de favoriser l’adoption inclusive et responsable de l’IA dans un contexte de fragmentation de l’écosystème de l’IA au Kenya.

Le Programme des Nations unies pour le développement (PNUD) a élargi sa Blockchain Academy, en partenariat avec la Fondation Algorand, afin de former 24 000 personnes dans le monde entier issues du PNUD, des Volontaires des Nations unies et du Fonds d’équipement des Nations unies (FENU), renforçant ainsi les connaissances et les applications de la blockchain pour les objectifs de développement durable.


Une nouvelle vague de protectionnisme numérique se profile à l’échelle mondiale, cette fois au nom de la sécurité des enfants.

Un petit groupe de pays, de plus en plus nombreux, cherche à interdire l’accès des mineurs aux principales plateformes. Le Danemark se joint à cette tendance en se préparant à interdire les réseaux sociaux aux utilisateurs de moins de 15 ans. Le gouvernement n’a pas encore communiqué tous les détails, mais cette mesure reflète une prise de conscience croissante dans de nombreux pays que les coûts liés à l’accès illimité des enfants aux réseaux sociaux, qu’il s’agisse de problèmes de santé mentale ou d’exposition à des contenus préjudiciables, ne sont plus acceptables.

La Nouvelle-Zélande va également présenter un projet de loi au Parlement visant à restreindre l’accès aux réseaux sociaux pour les enfants de moins de 16 ans, obligeant les plateformes à vérifier l’âge des utilisateurs avant de leur permettre d’utiliser leurs services.

Pour trouver l’inspiration, Copenhague et Wellington n’ont pas besoin de chercher bien loin. L’Australie a déjà présenté l’un des projets les plus détaillés pour une interdiction nationale des moins de 16 ans, qui devrait entrer en vigueur le 10 décembre 2025.La loi oblige les plateformes à vérifier l’âge des utilisateurs, à supprimer les comptes des mineurs et à bloquer les réinscriptions. Les plateformes devront également communiquer clairement avec les utilisateurs concernés, même si des questions subsistent, notamment celle de savoir si les contenus supprimés seront restaurés lorsque l’utilisateur aura 16 ans. 

Bien qu’elles aient publiquement exprimé leur opposition, Meta Platforms (propriétaire de Facebook/Instagram), TikTok et Snap Inc. ont annoncé qu’elles se conformeraient à la loi australienne.Les entreprises technologiques affirment que l’interdiction pourrait involontairement pousser les jeunes vers des coins moins réglementés d’Internet et soulèvent des préoccupations pratiques quant à la mise en œuvre d’une vérification fiable de l’âge.

Le commissaire australien à la sécurité électronique a officiellement notifié aux principales plateformes de réseaux sociaux, notamment Facebook, Instagram, TikTok, Snapchat et YouTube, qu’elles doivent se conformer aux nouvelles restrictions d’âge minimum en vigueur à partir du 10 décembre.

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

Au sein de l’UE, la présidence danoise a proposé la déclaration du Jutland, une initiative politique visant à renforcer les mesures de protection qui place la vérification de l’âge au cœur de la sécurité en ligne des mineurs. La déclaration soutient que les plateformes accessibles aux mineurs doivent garantir « un niveau élevé de confidentialité, de sûreté et de sécurité » et qu’une vérification efficace de l’âge est « l’un des outils essentiels » pour limiter l’exposition à des contenus illégaux ou préjudiciables et à des conceptions manipulatrices. Elle soutient explicitement les solutions à l’échelle de l’UE liées au portefeuille d’identité numérique européen (EUDI), présenté comme un moyen de vérifier l’âge avec une divulgation minimale de données, et appelle à un contrôle plus strict des fonctionnalités addictives (défilement infini, lecture automatique, séries) et des monétisations risquées (certaines loot boxes, micro-transactions). Le texte met également l’accent sur les paramètres par défaut « sécurité dès la conception », le soutien aux parents et aux enseignants, et la participation significative des enfants au processus politique.

Deux jours plus tard, les ministres ont soutenu en partie le plan danois: ils se sont ralliés au système commun européen de vérification de l’âge, mais ont résisté à l’idée d’une limite d’âge unique à l’échelle de l’UE. Le compromis qui se profile consiste à normaliser la « méthode de vérification » au niveau européen tout en laissant le « choix de l’âge » à la législation nationale, afin d’éviter la fragmentation des systèmes techniques tout en respectant les choix nationaux. Des projets pilotes pour l’approche européenne sont en cours dans plusieurs États membres et s’alignent sur le déploiement du portefeuille électronique européen (EUDI Wallet) prévu pour fin 2026.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

Cependant, le Danemark a officiellement renoncé à sa campagne au sein de l’UE visant à rendre obligatoire l’analyse des messages privés sur les plateformes cryptées, une proposition souvent appelée « Chat Control ». Les responsables ont invoqué la résistance politique et publique croissante, en particulier les préoccupations relatives à la vie privée et à la surveillance, comme catalyseur de ce revirement. Cette mesure visait à obliger les plateformes technologiques à détecter automatiquement les contenus pédopornographiques dans les communications privées et cryptées de bout en bout. À la place, le Danemark va désormais soutenir un dispositif volontaire de détection des contenus pédopornographiques, renonçant à son insistance précédente sur le balayage obligatoire.

Ajoutant une dimension mondiale, le 7 novembre, la Commission européenne, le commissaire australien à la sécurité électronique et l’Ofcom britannique se sont engagés à renforcer la sécurité des enfants en ligne. Les trois régulateurs ont notamment convenu de créer un groupe de coopération technique sur les solutions de vérification de l’âge (méthodes permettant de vérifier l’âge en toute sécurité), de partager des preuves, de mener des recherches indépendantes et de tenir les plateformes responsables des décisions de conception et de modération qui affectent les enfants. Si chaque région conserve son propre processus législatif, cet accord témoigne d’un alignement transnational croissant sur la manière dont les enfants sont protégés dans les espaces numériques.

Parallèlement la pression réglementaire s’intensifie . La Commission européenne a envoyé de nouvelles demandes d’informations relatives à la DSA aux principales plateformes, notamment Snapchat, YouTube, Apple et Google, afin de déterminer comment elles protègent les mineurs contre les contenus préjudiciables et comment fonctionnent leurs systèmes de vérification de l’âge. Cette enquête fait suite aux lignes directrices finales de la Commission sur la protection des mineurs dans le cadre de la DSA, publiées en juillet, qui définissent des mesures « appropriées et proportionnées » pour les services accessibles aux mineurs (article 28, paragraphe 1, de la DSA), allant des mesures de protection de la vie privée par défaut à l’atténuation des risques pour les systèmes de recommandation. Les infractions peuvent entraîner des amendes substantielles.

Les poursuites judiciaires se multiplient également. En Italie, des familles ont intenté une action en justice contre Facebook, Instagram et TikTok, affirmant que ces plateformes n’ont pas protégé les mineurs contre des algorithmes exploitants et des contenus inappropriés.

De l’autre côté de l’Atlantique, la ville de New York a intenté un procès contre les principales plateformes de réseaux sociaux, les accusant d’avoir délibérément conçu des fonctionnalités qui rendent les enfants dépendants et nuisent à leur santé mentale.

La date d’un procès historique sur la sécurité des enfants en ligne a été fixée. En janvier 2026, la Cour supérieure du comté de Los Angeles examinera une affaire regroupant des centaines de plaintes déposées par des parents et des districts scolaires contre Meta, Snap, TikTok et YouTube. Les plaignants affirment que ces plateformes créent une dépendance et exposent les jeunes à des risques pour leur santé mentale, tout en offrant des contrôles parentaux inefficaces et des fonctionnalités de sécurité insuffisantes. Le fondateur de Meta, Mark Zuckerberg, le directeur d’Instagram, Adam Mosseri, et le PDG de Snap, Evan Spiegel, ont été convoqués pour témoigner en personne, malgré les arguments des entreprises selon lesquels cela serait trop contraignant. Le juge a souligné que le témoignage direct des PDG était essentiel pour évaluer si les entreprises avaient fait preuve de négligence en ne prenant pas de mesures pour atténuer les dommages.

Les plateformes de jeux en ligne, en particulier celles qui sont populaires auprès des enfants, font également l’objet d’un réexamen. La plateforme Roblox (qui permet aux utilisateurs de créer des mondes et des chats) a été critiquée pour ne pas avoir protégé ses plus jeunes utilisateurs. Aux États-Unis, par exemple, le procureur général de Floride a émis des citations à comparaître accusant Roblox d’être un « terrain fertile pour les prédateurs » d’enfants. Aux Pays-Bas, la plateforme fait l’objet d’une enquête par les autorités de protection de l’enfance sur la manière dont elle protège ses jeunes utilisateurs. En Irak, le gouvernement a interdit Roblox à l’échelle nationale, invoquant « des contenus sexuels, des blasphèmes et des risques de chantage en ligne ». Aux Pays-Bas, la plateforme fait l’objet d’une enquête des autorités chargées de la protection de l’enfance sur la manière dont elle protège les jeunes utilisateurs. En Irak, le gouvernement a interdit Roblox à l’échelle nationale, invoquant « des contenus à caractère sexuel, des propos blasphématoires et des risques de chantage en ligne à l’encontre de mineurs ».

Les réseaux sociaux et les jeux vidéo ne sont pas les seuls concernés. Les chatbots basés sur l’intelligence artificielle sont désormais surveillés de près quant à leur interaction avec les mineurs. En Australie, le commissaire à la sécurité en ligne a envoyé des notifications à quatre entreprises de chatbots basés sur l’intelligence artificielle, leur demandant de détailler leurs mesures de protection des enfants.

Les réseaux sociaux et les jeux vidéo ne sont pas les seuls concernés. Les chatbots IA font désormais l’objet d’une surveillance étroite quant à leur interaction avec les mineurs. En Australie, le commissaire à la sécurité électronique a envoyé des notifications à quatre entreprises de chatbots IA leur demandant de détailler leurs mesures de protection des enfants, en particulier la manière dont elles les protègent contre l’exposition à des contenus sexuels ou incitant à l’automutilation.

Parallèlement, Meta a annoncé de nouvelles mesures de contrôle parental : les parents pourront désactiver les discussions privées de leurs adolescents avec des personnages IA, bloquer certains bots et consulter les sujets abordés par leurs adolescents, mais pas l’intégralité des transcriptions. Ces règles devraient être mises en place au début de l’année prochaine aux États-Unis, au Royaume-Uni, au Canada et en Australie. Ces changements font suite aux critiques selon lesquelles les chatbots IA de Meta permettaient des conversations suggestives ou inappropriées pour l’âge des mineurs.

Une vue d’ensemble. Pour les jeunes, le monde numérique est un espace essentiel pour leur développement social, émotionnel et cognitif, façonné par le contenu et les interactions qu’ils y trouvent. Cette nouvelle réalité exige des parents qu’ils dépassent la simple question du temps passé devant les écrans pour comprendre la nature des expériences en ligne de leurs enfants. Elle envoie également un message clair aux entreprises technologiques en matière de responsabilité et met les régulateurs au défi de créer des règles à la fois applicables et adaptables à l’innovation rapide.

Ensemble, ces développements suggèrent que l’ère de l’autorégulation des médias sociaux touche peut-être à sa fin. Le débat mondial ne porte pas sur la question de savoir si l’espace numérique a besoin de gardiens, mais sur la conception finale de ses dispositifs de sécurité. Alors que les gouvernements envisagent des interdictions, des poursuites judiciaires et des mandats de surveillance, ils s’efforcent de trouver un équilibre entre deux impératifs : protéger les enfants contre les dangers tout en préservant les droits fondamentaux à la vie privée et à la liberté d’expression.

La lutte mondiale pour diriger l’IA

Le monde débat sans cesse de l’avenir et de la gouvernance de l’IA. Voici quelques-unes des dernières initiatives dans ce domaine.

Mesures réglementaires 

L’Italie est entrée dans l’histoire en devenant le premier État membre de l’UE à adopter sa propre loi nationale sur l’IA, allant au-delà du cadre de la loi européenne sur l’intelligence artificielle. Cette loi entrera en vigueur le 10 octobre et introduira des règles spécifiques aux secteurs de la santé, de la justice, du travail et de l’administration publique. Parmi ses dispositions figurent des obligations de transparence, des sanctions pénales en cas d’utilisation abusive de l’IA (telles que les deepfakes préjudiciables), de nouveaux organismes de contrôle et des mesures de protection des mineurs (par exemple, le consentement parental pour les moins de 14 ans).

Cependant, selon certaines informations, la Commission européenne envisagerait de suspendre ou d’assouplir certains éléments de la loi européenne sur l’IA, la législation phare de l’Union européenne visant à réglementer les systèmes d’IA à haut risque. Les ajustements potentiels pourraient inclure un report des délais de mise en conformité, un assouplissement des obligations relatives aux applications à haut risque et une approche progressive de la mise en application, probablement en réponse au lobbying des autorités américaines et des entreprises technologiques.

Ajoutant une couche de complexité réglementaire de plus, la Commission européenne évalue actuellement si ChatGPT doit être classé comme un très grand moteur de recherche en ligne (VLOSE) au titre de la loi sur les services numériques (DSA). Cette désignation entraînerait des obligations, notamment des évaluations des risques systémiques, des rapports de transparence, des audits indépendants et l’accès des chercheurs aux données, ce qui pourrait créer des exigences réglementaires qui se chevauchent avec celles de la loi sur l’IA.

Pendant ce temps, outre-Atlantique, la Californie a adopté une loi ambitieuse en matière de transparence et de protection des lanceurs d’alerte, destinée aux développeurs d’IA de pointe, c’est-à-dire ceux qui déploient des modèles volumineux et gourmands en ressources informatiques. En vertu de la loi SB 53 (Transparency in Frontier Artificial Intelligence Act), les entreprises doivent publier leurs protocoles de sécurité, surveiller les risques et divulguer les « incidents de sécurité critiques ». Il est essentiel de noter que les employés qui estiment qu’il existe un risque catastrophique (même sans preuve irréfutable) sont protégés contre les représailles. La Californie a également adopté la première loi dédiée à la « sécurité des chatbots IA », ajoutant des exigences en matière de divulgation et de sécurité pour les systèmes conversationnels.

En Asie, lors du sommet 2025 de la Coopération économique Asie-Pacifique (APEC), le président chinois Xi Jinping a réitéré sa proposition de créer un organisme mondial chargé de coordonner le développement et la gouvernance de l’IA à l’échelle internationale. Cet organisme, provisoirement baptisé « Organisation mondiale de coopération en matière d’intelligence artificielle », n’est pas mentionné dans l’Initiative de l’APEC sur l’intelligence artificielle (IA) (2026-2030).

Une impulsion en faveur de la souveraineté en matière d’IA

À Bruxelles, la Commission européenne élabore simultanément une stratégie pour la souveraineté numérique, en essayant de mettre fin à la dépendance de l’UE vis-à-vis des infrastructures étrangères en matière d’IA. Sa nouvelle stratégie « Apply AI » vise à consacrer 1 milliard d’euros au déploiement de plateformes européennes d’IA, à leur intégration dans les services publics (santé, défense, industrie) et au soutien de l’innovation technologique locale. La Commission a également lancé une initiative intitulée « AI in Science » afin de consolider la position de l’Europe à la pointe de la recherche en IA, grâce à un réseau appelé RAISE.

Le Japon accordera la priorité aux technologies d’intelligence artificielle développées localement dans sa nouvelle stratégie nationale, visant à renforcer la sécurité nationale et à réduire la dépendance vis-à-vis des systèmes étrangers. Le gouvernement affirme que le développement d’une expertise nationale est essentiel pour éviter une dépendance excessive vis-à-vis des modèles d’intelligence artificielle américains et chinois.

IA, contenu et avenir de la recherche

Alors que l’IA continue de transformer la manière dont les individus accèdent à l’information et interagissent avec elle, les gouvernements et les entreprises technologiques sont confrontés aux opportunités et aux dangers des outils de recherche et de contenu basés sur l’IA.

En Europe, l’organisme néerlandais de surveillance électorale a récemment mis en garde les électeurs contre le recours aux chatbots IA pour obtenir des informations électorales, soulignant le risque que ces systèmes induisent involontairement les citoyens en erreur avec des contenus inexacts ou biaisés.

Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

De même, l’Inde a proposé de nouvelles règles informatiques strictes exigeant que les deepfakes et les contenus générés par l’IA soient clairement identifiés, dans le but de limiter les abus et d’accroître la transparence dans l’écosystème numérique.

Parallèlement, les moteurs de recherche, qui constituent traditionnellement les portes d’accès à la connaissance en ligne, connaissent une vague d’innovation. OpenAI a dévoilé son nouveau navigateur, ChatGPT Atlas, qui réinvente la manière dont les utilisateurs interagissent avec le web. Atlas introduit un « mode agent », une fonctionnalité premium qui permet d’accéder à l’ordinateur portable d’un utilisateur, de naviguer sur des sites web et d’explorer Internet à sa place, en exploitant l’historique de navigation et les requêtes de l’utilisateur pour fournir des résultats guidés et explicables. Altman l’a décrit simplement : « Il utilise Internet à votre place. » Deux jours plus tard, Microsoft a dévoilé une offre équivalente : son mode Copilot dans Edge, au sein du navigateur Microsoft Edge. La conception, les fonctions et le timing étaient remarquablement similaires, soulignant la convergence rapide des principales plateformes vers ce paradigme de navigateur IA de nouvelle génération.

En résumé. En fin de compte, chaque nouvelle loi et chaque nouvelle proposition internationale sont confrontées au même défi, presque paradoxal : comment établir un ensemble de règles pour une technologie qui redéfinit continuellement ses propres capacités au fil des mois. La question fondamentale est la suivante : un cadre de gouvernance peut-il être suffisamment agile ?

Une accalmie dans le domaine des terres rares : la lutte pour les ressources stratégiques se poursuit

Début octobre, la Chine a renforcé son emprise sur la chaîne d’approvisionnement technologique mondiale en élargissant considérablement ses restrictions sur les exportations de terres rares. Les nouvelles règles ne concernent plus uniquement les minerais bruts, mais englobent désormais les matériaux transformés, les équipements de fabrication et même le savoir-faire utilisé pour raffiner et recycler les terres rares.

Les exportateurs doivent obtenir l’autorisation du gouvernement non seulement pour expédier ces éléments, mais aussi pour tout produit qui en contient à un niveau supérieur à 0,1 %. Les licences seront refusées si les utilisateurs finaux sont impliqués dans la production d’armes ou des applications militaires. Les semi-conducteurs ne seront pas épargnés non plus : les fabricants de puces seront désormais soumis à un examen minutieux au cas par cas, Pékin exigeant une visibilité totale sur les spécifications techniques et les utilisateurs finaux avant d’accorder son autorisation.

La Chine restreint également l’expertise humaine. Les ingénieurs et les entreprises chinois ne sont pas autorisés à participer à des projets liés aux terres rares à l’étranger, sauf autorisation expresse du gouvernement.

Le contexte géopolitique dans lequel cette évolution s’inscrit est essentiel : alors que les tensions entre les États-Unis et la Chine s’intensifient, Pékin fait valoir son influence, à savoir sa domination sur les minéraux qui alimentent les technologies de pointe.

À titre d’information, la Chine contrôle actuellement jusqu’à 70 % de l’extraction mondiale de terres rares, environ 85 % du raffinage et environ 90 % de la production d’alliages et d’aimants. Cette position lui sert depuis longtemps de levier stratégique, qui, selon certains analystes chinois, reste intacte malgré l’accord actuel.

 Person, Head, Face

Fin octobre, Trump et Xi ont annoncé une avancée décisive concernant les minéraux de terres rares. « La question des terres rares est réglée, et cela pour le monde entier », a déclaré Trump, signalant ainsi la suppression de l’un des derniers obstacles majeurs dans les chaînes d’approvisionnement mondiales. La réunion a également ouvert la voie à des réductions tarifaires et à la reprise du commerce agricole.

En vertu de cet accord, la Chine suspendra la réglementation restrictive annoncée le 9 octobre et délivrera des licences d’exportation générales pour les terres rares, le gallium, le germanium, l’antimoine et le graphite, garantissant ainsi un accès continu aux acheteurs américains et à leurs fournisseurs. Cette mesure supprime de facto les contrôles renforcés par la Chine depuis 2023 et fait suite à la déclaration de Trump selon laquelle il n’y a désormais « plus aucun obstacle » à la circulation des terres rares.

Cette pause offre un répit aux industries mondiales qui dépendent de ces minéraux, sur lesquels reposent des secteurs aussi variés que les véhicules électriques, les smartphones, les systèmes de défense avancés et les technologies liées aux énergies renouvelables. Elle ne contribue toutefois guère à apaiser les préoccupations structurelles qui motivent les efforts de diversification.

En Europe, la Commission européenne prépare un plan, qui pourrait être prêt dans quelques semaines, visant à réduire la dépendance vis-à-vis des minéraux critiques chinois. La quasi-totalité de l’approvisionnement européen en 17 minéraux rares provient actuellement de Chine, une dépendance que Bruxelles considère comme insoutenable malgré les concessions temporaires de Pékin. La stratégie émergente de l’UE devrait refléter le plan de diversification énergétique REPowerEU, en mettant l’accent sur le recyclage, le stockage et le développement de voies d’approvisionnement alternatives.

L’UE exprime toutefois sa frustration face aux signaux contradictoires envoyés par Washington et Pékin sur la question des terres rares. Bruxelles reste incertaine quant à la mesure dans laquelle les concessions récemment annoncées par la Chine s’appliqueront aux entreprises européennes, et les observateurs avertissent que le bloc manque de moyens de pression à court terme pour influencer la politique de Pékin. Cette incertitude souligne le délicat exercice d’équilibre auquel se livre l’Europe : pousser à la diversification des fournisseurs tout en restant dépendante d’eux.

Une dynamique similaire se développe parmi les gouvernements du G7. Réunis à Toronto, les ministres de l’Énergie du G7 ont convenu de créer une alliance pour la production de minéraux essentiels, soutenue par plus d’une vingtaine de nouveaux investissements et partenariats. Le groupe, composé du Canada, de la France, de l’Allemagne, de l’Italie, du Japon, du Royaume-Uni et des États-Unis, a également convenu d’investir jusqu’à 20,2 millions de dollars canadiens dans la collaboration internationale en matière de recherche et développement sur ces matières premières. Le secrétaire américain à l’Énergie, Chris Wright, a présenté l’accord du G7 comme un engagement à « développer notre propre capacité à extraire, traiter, raffiner et créer des produits ». Ces mesures « envoient un message très clair au monde entier », a déclaré le ministre canadien de l’Énergie, Tim Hodgson, ajoutant : « Nous sommes déterminés à réduire la concentration du marché et les dépendances ».

Au-delà du triangle États-Unis-Chine-Europe, Moscou s’est également lancé dans la course. Le président russe Vladimir Poutine a ordonné au gouvernement d’élaborer une feuille de route pour augmenter la production russe de minéraux rares et renforcer les liaisons de transport avec la Chine et la Corée du Nord d’ici le 1er décembre. La Russie revendique des réserves de plusieurs centaines de millions de tonnes de minéraux critiques, mais ne fournit actuellement qu’une petite partie de la demande mondiale, un écart qu’elle cherche désormais à combler.

En Asie du Sud-Est, la Malaisie trace sa propre voie. Le gouvernement a confirmé qu’il maintiendrait son interdiction d’exporter des terres rares brutes malgré l’accord entre les États-Unis et la Chine, signalant ainsi qu’il continuerait à mettre l’accent sur la transformation à valeur ajoutée au niveau national. Taipei a minimisé l’impact des restrictions imposées par Pékin sur les terres rares, affirmant que Taïwan pouvait s’approvisionner ailleurs pour la plupart de ses besoins.

Quelle est la prochaine étape ? La trêve sur les contrôles à l’exportation pourrait apaiser les marchés à court terme. Cependant, avec le G7 qui forge de nouvelles alliances, l’Europe qui accélère sa diversification et Pékin qui est déterminée à maintenir son contrôle sur les terres rares comme levier stratégique, la concurrence mondiale pour les minéraux critiques ne fait que s’intensifier. La lutte sous-jacente pour la résilience de la chaîne d’approvisionnement est loin d’être terminée.

Lorsque le cloud rencontre des difficultés : ce que les pannes d’AWS et de Microsoft révèlent sur la résilience du cloud

En l’espace de seulement dix jours, deux des plus grands fournisseurs de services cloud au monde, Amazon Web Services (AWS) et Microsoft Azure, ont subi des pannes majeures qui ont eu des répercussions dans le monde entier, soulignant à quel point l’infrastructure numérique de la vie moderne est devenue fragile.

Pendant quelques heures lundi, une grande partie de l’Internet est devenue inaccessible. Ce qui a été un problème dans un centre de données Amazon Web Services (AWS) — la région US-East-1 en Virginie — s’est rapidement transformé en une panne mondiale. Une erreur de configuration apparemment mineure du système de noms de domaine (DNS) a déclenché une réaction en chaîne, mettant hors service les systèmes qui gèrent le trafic entre les serveurs.

La cause principale a été identifiée comme une défaillance de la résolution DNS pour les points de terminaison internes, affectant en particulier les points de terminaison API DynamoDB. (Remarque : DynamoDB est une base de données cloud qui stocke des informations pour les applications et les sites web, tandis que les points de terminaison API sont les points d’accès où ces services lisent ou écrivent ces données. Pendant la panne d’AWS, ces points de terminaison ont cessé de fonctionner correctement, empêchant les applications de récupérer ou d’enregistrer des informations.)

Étant donné que de nombreux sites Web, applications et services (des plateformes de réseaux sociaux et jeux aux portails bancaires et gouvernementaux) dépendent d’AWS, la panne a affecté les foyers, les bureaux et les gouvernements du monde entier.

Les ingénieurs d’AWS se sont empressés d’isoler la panne et ont finalement rétabli le fonctionnement normal en fin d’après-midi. Cependant, le mal était déjà fait. Cette panne a révélé une réalité préoccupante du monde numérique actuel : lorsqu’un fournisseur rencontre des difficultés, une grande partie d’Internet est également affectée. On estime qu’un tiers des services en ligne mondiaux fonctionnent sur l’infrastructure AWS.

Le 29 octobre 2025, une panne généralisée affectant les services cloud de Microsoft a perturbé les principaux sites web et services dans le monde entier, notamment l’aéroport d’Heathrow, NatWest, Asda, M&S, Starbucks et Minecraft. Le problème, également attribué à la configuration DNS d’Azure, a duré plusieurs heures avant que les services ne reviennent progressivement à la normale.

Selon les données de suivi de Downdetector, des milliers de signalements provenant de plusieurs pays ont été enregistrés lorsque les sites web et les services en ligne ont cessé de fonctionner pendant plusieurs heures. Microsoft a déclaré que la cause principale résidait dans sa plateforme de cloud computing Azure, attribuant la dégradation à des problèmes DNS et à un changement de configuration involontaire.

Considérées conjointement, ces deux pannes révèlent une vulnérabilité structurelle plus profonde. Elles ont mis en évidence plusieurs risques systémiques dans l’infrastructure numérique actuelle.

Premièrement, cette panne a souligné la dépendance mondiale vis-à-vis d’un petit nombre de fournisseurs de cloud de très grande envergure. Cette dépendance constitue un point de défaillance unique : une perturbation chez un seul fournisseur peut perturber des milliers de services qui en dépendent.

Deuxièmement, la cause profonde, à savoir une erreur de résolution DNS, a révélé comment un composant d’un système complexe peut être le catalyseur d’une perturbation massive.

Troisièmement, bien que les fournisseurs de cloud proposent plusieurs « zones de disponibilité » à des fins de redondance, cet événement a démontré qu’une défaillance dans une région critique peut toujours avoir des conséquences à l’échelle mondiale.

La leçon à en tirer est claire : alors que le cloud computing occupe une place de plus en plus centrale dans l’économie numérique, la résilience et la diversification ne peuvent être des considérations secondaires. Pourtant, il existe peu de véritables alternatives à l’échelle d’AWS et d’Azure, hormis Google Cloud, les petits concurrents tels que IBM et Alibaba, et les nouveaux acteurs européens, loin derrière.

Promesses et risques : le monde ratifie le nouveau traité des Nations unies sur la cybercriminalité à Hanoï

Le premier traité mondial visant à prévenir et à lutter contre la cybercriminalité, la Convention des Nations Unies contre la cybercriminalité, a été ouvert à la signature lors d’une cérémonie de haut niveau co-organisée par le gouvernement vietnamien et le Secrétariat des Nations Unies les 25 et 26 octobre.

À l’issue des deux jours de signature, 72 États avaient signé la convention à Hanoï, ce qui constitue un signe fort de soutien initial qui témoigne de la nécessité perçue d’une meilleure coopération transfrontalière sur des questions allant des rançongiciels et de la fraude en ligne à l’exploitation sexuelle et à la traite des enfants. La convention établit un cadre pour harmoniser le droit pénal, normaliser les pouvoirs d’enquête et accélérer l’entraide judiciaire et l’échange de preuves électroniques.

Cependant, la cérémonie n’a pas été sans controverse. Des groupes de défense des droits humains et des coalitions de la société civile ont émis des avertissements publics avant la signature, soulignant que des définitions vagues de la cybercriminalité et des pouvoirs d’enquête étendus pourraient permettre aux gouvernements de justifier la surveillance ou de réprimer des activités en ligne légitimes, telles que le journalisme, l’activisme ou la recherche en matière de cybersécurité. Sans limites juridiques précises et sans contrôle indépendant, des mesures telles que l’interception de données, le décryptage forcé ou la surveillance en temps réel pourraient porter atteinte à la vie privée et à la liberté d’expression.

Les grandes entreprises technologiques et plusieurs organisations de défense des droits ont demandé des garanties plus solides et plus claires, ainsi qu’une rédaction précise afin d’éviter tout abus. L’ONUDC, l’agence des Nations unies qui a mené les négociations, a répondu en soulignant les garanties intégrées et les dispositions visant à soutenir le renforcement des capacités des États disposant de moins de ressources.

Concrètement, la signature n’est que la première étape de la procédure : le traité n’entrera en vigueur que 90 jours après sa ratification par 40 États conformément à leurs procédures nationales, une exigence qui déterminera la rapidité avec laquelle la convention deviendra opérationnelle.

Les observateurs qui suivent les développements se concentrent sur trois questions immédiates : quels signataires procéderont rapidement à la ratification, comment les différents pays transposeront les obligations de la convention dans leur législation nationale (et s’ils y intégreront des garanties solides en matière de droits humains), et quels mécanismes régiront la coopération technique et le partage transfrontalier des preuves dans la pratique.

La signature à Hanoï marque une étape importante : elle crée un ancrage juridique pour une coopération internationale plus approfondie en matière de cybercriminalité, à condition que sa mise en œuvre respecte les droits fondamentaux et les principes de l’État de droit.

Le mois dernier à Genève

Le mois d’octobre a été riche en événements dans le domaine de la gouvernance numérique à Genève. Voici ce que nous avons tenté de retenir.

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Semaine de la paix à Genève 2025

L’édition 2025 de la Semaine de la paix à Genève réunira des artisans de la paix, des décideurs politiques, des universitaires et des représentants de la société civile afin de discuter et de faire progresser les initiatives de consolidation de la paix. Le programme couvre un large éventail de sujets, notamment la prévention des conflits, l’aide humanitaire, la consolidation de la paix environnementale et la cohésion sociale. Les sessions de cette année exploreront les nouvelles technologies, la cybersécurité et l’IA, y compris la polarisation alimentée par l’IA, l’IA pour la prise de décision dans des contextes fragiles, l’utilisation responsable de l’IA dans la consolidation de la paix et les approches numériques pour soutenir le retour volontaire et digne des communautés déplacées.

Sommet GESDA 2025

Le sommet GESDA 2025 rassemble des scientifiques, des diplomates, des décideurs politiques et des leaders d’opinion afin d’explorer les liens entre la science, la technologie et la diplomatie. Organisé au CERN à Genève avec une participation hybride, le programme de trois jours comprend des sessions sur les percées scientifiques émergentes, les technologies à double usage et l’accès équitable à l’innovation. Les participants prendront part à des discussions interactives, des ateliers et des démonstrations afin d’examiner comment la science de pointe peut éclairer la prise de décision au niveau mondial, soutenir la diplomatie et relever des défis tels que le changement climatique et le développement durable.

151e Assemblée de l’UIP

La 151e Assemblée de l’UIP s’est tenue à Genève, en Suisse, du 19 au 23 octobre 2025. Sous le thème « Défendre les normes humanitaires et soutenir l’action humanitaire en temps de crise », l’Assemblée a tenu son débat général et examiné les progrès réalisés dans la mise en œuvre des résolutions précédentes.

Les discussions ont également porté sur la protection des victimes d’adoptions internationales illégales, examiné les modifications apportées aux statuts et au règlement de l’UIP et fixé les priorités pour les travaux à venir des commissions. La réunion a fourni une plateforme de dialogue sur les questions humanitaires, démocratiques et de gouvernance entre les parlements nationaux.

16e session de la Conférence des Nations unies sur le commerce et le développement (CNUCED 16)

La 16e Conférence des Nations unies sur le commerce et le développement (CNUCED 16) s’est tenue du 20 au 23 octobre 2025 à Genève, réunissant des dirigeants mondiaux, des ministres et des experts de 170 pays autour du thème « Façonner l’avenir : stimuler la transformation économique pour un développement équitable, inclusif et durable ».

Au cours de quatre jours et de 40 sessions de haut niveau, les délégués ont discuté du commerce, de l’investissement, de la technologie et de la durabilité, définissant ainsi l’orientation de la CNUCED pour les quatre prochaines années.

La transformation numérique a été un thème récurrent tout au long de la conférence. Les délégués ont souligné que si les progrès technologiques ouvrent de nouvelles perspectives, ils risquent également d’aggraver les inégalités.

L’événement s’est conclu par l’adoption du Consensus de Genève pour un ordre économique juste et durable. Cet accord réaffirme l’engagement en faveur d’un développement mondial plus équitable et plus inclusif, en mettant fortement l’accent sur la réduction de la fracture numérique.

Le Consensus de Genève invite la CNUCED à aider les pays en développement à renforcer leurs infrastructures numériques, à développer leurs compétences et à créer des cadres politiques pour tirer parti de l’économie numérique.

Des initiatives concrètes ont été annoncées : la Suisse s’est engagée à verser 4 millions de francs suisses pour soutenir les travaux de la CNUCED dans le domaine du commerce électronique et de l’économie numérique, tandis qu’un nouveau partenariat avec l’Organisation de coopération numérique permettra de faire progresser la mesure des données numériques, la participation des femmes et le soutien aux PME.

Le CICR et l’Académie de Genève publient un rapport conjoint sur la participation des civils aux activités cybernétiques pendant les conflits

Le Comité international de la Croix-Rouge (CICR) et l’Académie de Genève pour le droit international humanitaire et les droits de l’Homme ont publié conjointement un rapport examinant comment le droit international humanitaire (DIH) s’applique à la participation des civils aux activités cybernétiques et autres activités numériques pendant les conflits armés. Le rapport s’appuie sur des recherches approfondies menées à l’échelle mondiale et sur des consultations d’experts dans le cadre de leur initiative.

La publication aborde des questions juridiques clés, notamment la protection des civils et des entreprises technologiques pendant les conflits armés, et les circonstances dans lesquelles ces protections peuvent être compromises. Elle analyse en outre les obligations du DIH à l’égard des civils, tels que les personnes se livrant à des activités de piratage informatique, lorsqu’ils sont directement impliqués dans les hostilités, ainsi que les responsabilités des États en matière de protection des civils et des infrastructures civiles et de garantie du respect du DIH par les populations sous leur contrôle.

Le rapport du CICR et de l’Académie de Genève propose également des recommandations pratiques à l’intention des gouvernements, des entreprises technologiques et des organisations humanitaires visant à limiter la participation des civils aux hostilités, à minimiser les dommages et à soutenir le respect du droit international humanitaire.


Weekly #238 Strengthening democracy in the digital age: The EU’s New ‘Democracy Shield’

 Logo, Text

10-14 November 2025


HIGHLIGHT OF THE WEEK

Strengthening democracy in the digital age: The EU’s new ‘Democracy Shield’

The EU Commission has unveiled the European Democracy Shield, a new initiative aimed at strengthening and protecting democracies across the European Union. The Shield lays out a wide range of measures designed to empower citizens, safeguard institutions, and promote resilience against emerging threats to democratic processes. 

The announcement is accompanied by a detailed 30-page document, but a one-page factsheet is also available for a quick overview. We’ll endeavour to keep our breakdown somewhere in the middle. 

As ever, the focus of our newsletter is on the digital dimension, so we will highlight the aspects of the initiative that intersect with technology, online information, and the digital space.

 Armor, Shield

The new measures that make up the Democracy Shield fall into three priority areas:

  • reinforcing situational awareness and support response capacity to safeguard the integrity of the information space,
  • strengthening democratic institutions, free and fair elections and free and independent media,
  • boosting societal resilience and citizens’ engagement.

Measures in the first priority area include:

  • The Commission and the European Board for Digital Services will prepare a Digital Services Act (DSA) incidents and crisis protocol. The protocol will help authorities coordinate and respond quickly to major disruptions or information operations, including those that span multiple countries. The protocol will work alongside existing EU crisis tools, such as the Cybersecurity Blueprint, to keep actions aligned and consistent. The European Centre for Democratic Resilience and its stakeholder platform may help support cooperation between these mechanisms.
  • The Commission will continue its engagement with signatories of the Code of Conduct on Disinformation to strengthen measures to tackle manipulative techniques online. This may include working with platforms to make recommender systems more transparent and to demonetise disinformation (including removing financial incentives for disinformation, such as advertising revenue) and to develop new indicators to track the platforms’ progress. The Commission will also explore additional steps with signatories, such as improving the detection and labelling of AI-generated or manipulated content and developing voluntary user-verification tools. These efforts would complement the AI Act and other EU rules. The upcoming EU Digital Identity Wallets, available by the end of 2026, could help support these measures by enabling secure online identification.
  • An independent European Network of Fact-Checkers will be set up with the Commission’s support. The network will strengthen independent fact-checking across all EU languages and neighbouring countries, especially during crises. The network will also set up an independent repository that gathers fact-checks from trusted organisations, making it easier for journalists, platforms, researchers, and civil society to access verified information and coordinate across borders. It will also support cross-border cooperation and offer legal and psychological protection for fact-checkers, helping boost Europe’s overall resilience to disinformation. 
  • The mandate of the European Digital Media Observatory will be expanded. It will develop stronger monitoring tools, especially for elections and crises, covering all EU member states and candidate countries. 
  • The Commission will support setting up a common research support framework to strengthen monitoring of information manipulation and disinformation campaigns. This will include giving academics and researchers better access to data and advanced technology, including data available through the DSA and the Political Advertising Regulation. This work will also help develop tools to detect AI-generated or manipulated content—like deepfake audio, images, and videos—and track new forms of coordinated online manipulation, including bots, cross-platform tactics, and algorithm-driven amplification.

Measures in the second priority area include:

  • The Commission, supported by ECNE and the European AI Office, will work with member states and stakeholders to create guidance on using AI responsibly in elections. It will encourage political actors to adopt voluntary commitments on the responsible use of new technologies (notably AI) in political activities and share best practices. 
  • The Commission will update the DSA Elections Toolkit, with support from national Digital Services Coordinators and ECNE. The aim is to incorporate lessons from recent elections and help very large online platforms and very large search engines (VLOPs and VLOSEs) manage risks to civic debate and elections, as is their DSA obligation.
  • The Commission will support the setting up of a voluntary EU network of influencers to raise awareness about relevant EU rules on engaging in political campaigning and promote the exchange of best practices. The Commission will also encourage ethical standards and voluntary commitments, including regarding information integrity, and support work by influencers to promote digital literacy.  
  • The EU will reinforce cooperation with international election observers to strengthen capacities to monitor disinformation on social media during election observation outside the EU.
  • The Commission will review the Audiovisual Media Services Directive (AVMSD). It will assess ways to support media sustainability under the Audiovisual Media Services Directive, including boosting the prominence of media of general interest and modernising advertising rules. The role of influencers will be considered in the AVMSD review and the forthcoming Digital Fairness Act to complement existing rules.
  • The Commission will address challenges to the media ecosystem in the context of the review of the Directive on copyright in the Digital Single Market. The aim is to address challenges from generative AI, including online piracy and the unauthorised use of copyrighted material to train AI models, which threaten media revenues, quality, and diversity.
  • The Commission will provide guidance to maintain competition and foster media plurality and diversity in the context of the revision of the Merger Guidelines. Under the Digital Markets Act, the Commission will prioritise promoting independent and diverse media, including through greater transparency in online advertising. 
  • The Commission will support the digital transformation of media. Efforts will focus on pan-European platforms for real-time news in multiple languages, innovative content formats, and exploring the future pathways for the EU’s tech environment, with an initial focus on the future of social networking platforms to strengthen EU digital sovereignty.
  • The Commission will support quality independent media and journalism beyond the EU border. It will scale up rapid-response measures with partners to provide tools that counter digital censorship, surveillance, and shutdowns, ensuring that citizens, civil society, and journalists under authoritarian regimes can access reliable information.

Measures in the third priority area include:

  • The Commission will develop the 2026 Basic Skills Support Scheme for Schools, which will include citizenship and digital skills. Part of this package will be a 2030 Roadmap on the future of digital education and skills, building on the review of the Digital Education Action Plan, focusing on digital skills, AI literacy and critical thinking and boosting democratic resilience in the digital world. 
  • The Commission will update the Guidelines for teachers and educators on disinformation and digital literacy. These guidelines will address issues like generative AI, misinformation, and social media. It will also develop an EU citizenship competence framework and guidelines to strengthen citizenship education, support media literacy, and inform curricula and training programmes.
  • The Commission will set up a European civic tech hub to support the civic tech sector. It will stimulate innovation in online platforms that enable participation in democracy, leveraging AI for participation. It will also organise a civic tech hackathon to showcase innovative projects.

The bottom line. This is the EU’s most direct attempt yet to hard-code democratic values into its digital infrastructure. By targeting everything from recommender algorithms to AI deepfakes and influencer networks, the Shield aims to change the very environment where opinion is formed. The goal is clear: to ensure that in the battle for attention, integrity has a fighting chance.

IN OTHER NEWS LAST WEEK

Recalibrating the digital agenda: Highlights from the WSIS+20 Rev 1 document

A revised version of the WSIS+20 outcome document – Revision 1 – was published on 7 November by the co-facilitators of the intergovernmental process. The document will serve as the basis for continued negotiations among UN member states ahead of the high-level meeting of the General Assembly on 16–17 December 2025.

While maintaining the overall structure of the Zero Draft released in August, Revision 1 introduces several changes and new elements. 

The new text includes revised – and in several places stronger – language emphasising the need to close rather than bridge digital divides, presented as multidimensional challenges that must be addressed to achieve the WSIS vision. At the same time, some issues were deprioritised: for instance, references to e-waste and the call for global reporting standards on environmental impacts were removed from the environment section.

Several new elements also appear. In the enabling environments section, states are urged to take steps towards avoiding or refraining from unilateral measures inconsistent with international law. There is also a new recognition of the importance of inclusive participation in standard-setting. The financial mechanisms section introduces an invitation for the Secretary-General to consider establishing a task force on future financial mechanisms for digital development, with outcomes to be reported to the UNGA at its 81st session. The internet governance section now includes a reference to the NetMundial+10 Guidelines.

Language on the Internet Governance Forum (IGF) remains largely consistent with the Zero Draft, including with regard to making the forum a permanent one and requesting the Secretary-General to make proposals concerning the IGF’s future funding. New text invites the IGF to further strengthen the engagement of governments and other stakeholders from developing countries in discussions on internet governance and emerging technologies. 

Several areas saw shifts in tone. Language in the human rights section has been softened in parts (e.g. references to surveillance safeguards and threats to journalists now being removed). And there is a change in how the interplay between WSIS and the GDC is framed – the emphasis is now on alignment (rather than integration) – a shift reflected in the revised language on the joint WSIS-GDC implementation roadmap, and updates to the described roles of ECOSOC and the CSTD.


EU’s revised Chat Control: A step back from mass scanning, but privacy worries persist

After more than three years of difficult negotiations, the EU’s Regulation to Prevent and Combat Child Sexual Abuse (CSAR) — also known as the ‘Chat Control’ proposal — has returned in a significantly revised form. In a dramatic shift, the latest version proposed by Denmark abandons mandatory scanning obligations, instead making CSAM detection voluntary for messaging providers.

Under the new text, platforms are no longer legally required to scan every link, image, or video shared by users. Rather, they may choose to opt into CSAM scanning. This change is being framed as a compromise — a way to preserve encryption and user privacy while still giving space for abuse-detection tools.

But the reform comes with caveats. Article 4 introduces what’s called a ‘mitigation measure,’ targeted at services deemed high risk. For those platforms, the law could demand that they take ‘all appropriate risk mitigation measures.’ The language is vague, and critics argue it’s a back door to re-imposing scanning obligations down the line. Indeed, the Danish Presidency’s proposal includes a review clause: the European Commission could, in the future, reassess whether detection duties should be mandatory — potentially proposing new legislation to reintroduce them. 

On the targeting front, the European Parliament continues to push for court-ordered scanning. Their vision would restrict detection orders to specific people or groups suspected of involvement in child sexual abuse — a more precise and rights-sensitive approach. 

The Danish compromise, by contrast, lacks this kind of suspect-based targeting. According to the Council’s draft, detection orders may be issued only to “identifiable parts or components” of a service — like certain channels or user groups — but it doesn’t explicitly limit orders only to those under suspicion. 

A particularly controversial provision strikes at anonymity. In the new draft, users may no longer be able to create fully anonymous chat or email accounts. To register, they might have to provide ID or even their face — potentially making users more identifiable. Critics warn that it could seriously chill sensitive use cases: think LGBTQ+ conversations, whistle-blowers talking to journalists, or political activists operating under pseudonyms. 

There are also strong obligations on service providers to build age-verification systems to protect minors. But how exactly these systems would work — without violating privacy, creating data risk, or excluding users — remains unclear. Several digital-rights groups have raised alarms that mandatory age checks could undermine anonymity or force providers to collect more data than necessary.

The crux of the matter. While the new proposal marks a step back from mandatory mass scanning, the voluntary framework could evolve over time into something more coercive.

What’s next? Tough negotiations, in a short period of time – Denmark will likely be keen to finalise the file before the Cypriot presidency begins in January.

New trilateral alliance to protect kids online

A new cooperation is underway between three major regulators: eSafety Commissioner (Australia), Ofcom (UK) and the European Commission’s DG CNECT, aimed at protecting children’s rights, safety and privacy online. 

The regulators will enforce online safety laws, require platforms to assess and mitigate risks to children, promote privacy-preserving technologies such as age verification, and partner with civil society and academia to keep regulatory approaches grounded in real-world dynamics. 

A new trilateral technical group will be established to explore how age-assurance systems can work reliably and interoperably, strengthening evidence for future regulatory action. 

The overall goal is to support children and families in using the internet more safely and confidently — by fostering digital literacy, critical thinking and by making online platforms more accountable.

The bottom line.  While growing alignment on child online safety is welcomed, and regulatory enforcement broadly supported, the push for age verification remains contested. All eyes will be on the trilateral technical group’s output.


OpenAI pushes back as NYT seeks millions of ChatGPT conversations

OpenAI is pushing back against a major legal request from The New York Times for access to millions of ChatGPT conversation records, citing privacy concerns and the potential erosion of user trust. 

What began as a request for 1.4 billion chats has now been narrowed to around 20 million conversations spanning December 2022 through November 2024, but OpenAI maintains that even sharing this reduced set could expose sensitive user information.

While the company previously allowed the automatic deletion of user chats within 30 days, a court preservation order from May 2025 now requires that deleted conversations be retained indefinitely in many cases. OpenAI has said it will attempt to “de-identify” the data before sharing, but privacy experts caution that anonymised chats can often be re-identified, leaving users exposed.

The case highlights a growing tension between content owners seeking enforcement or accountability and AI platform providers, balancing user privacy with legal obligations

In perspective. This dispute may set precedents for how large-scale AI conversation data is governed, influencing future policies on data retention, deletion, and user privacy. This shifts the paradigm of digital permanence; it’s no longer just about data being stored forever, but about it being used to build the next generation of technology.


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

CERN unveils AI strategy to advance research and operations

CERN has approved a comprehensive AI strategy to guide its use across research, operations, and administration. The strategy unites initiatives under a coherent framework to promote responsible and impactful AI for science and operational excellence.

It focuses on four main goals: accelerating scientific discovery, improving productivity and reliability, attracting and developing talent, and enabling AI at scale through strategic partnerships with industry and member states.

Common tools and shared experiences across sectors will strengthen CERN’s community and ensure effective deployment.

Implementation will involve prioritised plans and collaboration with EU programmes, industry, and member states to build capacity, secure funding, and expand infrastructure. Applications of AI will support high-energy physics experiments, future accelerators, detectors, and data-driven decision-making.

LOOKING AHEAD
 Person, Face, Head, Binoculars

The UN Commission on Science and Technology for Development (CSTD) will hold its 2025–2026 inter-sessional panel on 17 November at the Palais des Nations in Geneva. The agenda focuses on science, technology and innovation in the age of AI, with expert contributions from academia, international organisations, and the private sector. Delegations will also review progress on WSIS implementation ahead of the WSIS+20 process, and receive updates on the Global Digital Compact (GDC) and data governance work within the CSTD.

A day later, the CSTD’s multi-stakeholder working group on data governance at all levels will meet for the fourth time. Over two days (18 and 19 November), delegates will review recent inputs, discuss principles, interoperability, benefit-sharing, and secure data flows, and plan next steps for the Working Group’s progress report to the UN General Assembly. The meeting will also address leadership and scheduling of future sessions, aiming to strengthen international cooperation on data governance for sustainable development.

The International Telecommunication Union (ITU) will hold the World Telecommunication Development Conference 2025 (WTDC‑25) in Baku, Azerbaijan, from 17–28 November 2025. The conference will bring together governments, regulators, industry, civil society, and other stakeholders to discuss strategies for universal, meaningful, and affordable connectivity. Participants will review policy frameworks, investment priorities, and digital‑development initiatives, and adopt a Declaration, Strategic Plan, and Action Plan to guide global ICT development through 2029.



READING CORNER
Books and diplomacy

What can fiction teach us about diplomacy? Explore how 2024-2025 bestsellers reveal real-world hard power, soft power, and economic diplomacy.

Digital Watch newsletter – Issue 104 – October 2025

October 2025 in retrospect

This month’s stories trace the shifting rules of the digital world — from child protection online to the global tug-of-war over rare earths, AI and cybercrime.

Here’s what we unpacked in this edition.

New rules for the digital playground — Countries are tightening online safety measures and redefining digital boundaries for young users.

The global struggle to steer AI — We examined how states and tech giants are competing to shape AI’s future.

Rare-earth respite — From trade corridors to export bans, nations are recalibrating their approach to securing the minerals that underpin the digital economy.

When the cloud falters — What the AWS and Microsoft outages reveal about resilience, dependence, and the risks of an increasingly centralised internet.

Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi — A milestone moment for global digital policy, but one raising deep questions about rights, jurisdiction, and enforcement.

Last month in Geneva — Catch up on the discussions, events, and takeaways shaping international digital governance.

GLOBAL GOVERNANCE

The Co-Facilitators of the WSIS+20 process released Revision 1 of the outcome document for the twenty-year review of the implementation of the World Summit on the Information Society, reflecting the input and proposals gathered from stakeholders and member states throughout the consultative process to date.

ARTIFICIAL INTELLIGENCE

Chinese President Xi Jinping reiterated China’s proposal to establish a global AI body, titled World Artificial Intelligence Cooperation Organisation (WAICO), to cooperate on development strategies, governance rules and technological standards.

The European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement.

The European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA), a move that would trigger extensive transparency, audit, and risk-assessment duties and potentially overlap with forthcoming AI Act requirements.

The Superintelligence Statement, endorsed by leading researchers and technologists, urges careful oversight and governance of advanced AI systems to prevent unintended harms—echoing the concerns of regulators and governments worldwide.

TECHNOLOGIES

The 2025 Nobel Prize in Physics was awarded to John Clarke, Michel H. Devoret, and John M. Martinis for proving that key quantum effects—tunnelling and energy quantisation—can occur in hand-sized superconducting circuits, advancing fundamental physics and laying foundations for modern quantum technologies.

UNESCO has approved the world’s first global framework on the ethics of neurotechnology, setting new standards to ensure that advances in brain science respect human rights and dignity. 

The US–Korea Science and Technology Roadmap broadens cooperation on AI, quantum, 6G, research security, and civil space, aiming for pro-innovation policy alignment and “rusted exports.

US President Donald Trump and Chinese President Xi Jinping signed a deal that effectively rolls back Beijing’s recent export controls on rare earth elements and other critical minerals.

The US–Japan Framework for Securing the Supply of Critical Minerals and Rare Earths commits both nations to joint mining, processing, and stockpiling—an effort to reduce reliance on China and strengthen Indo-Pacific supply-chain resilience. 

G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships.

China’s commerce ministry signalled a softened position in the Nexperia case and moved to issue case-by-case exemptions to its export curbs on Nexperia products, while the Netherlands indicated it could suspend its emergency control measures if normal supplies resume.

The White House confirmed the most advanced AI chips remain off-limits to Chinese buyers. US officials also signalled they may block sales of scaled-down models, further tightening export controls. China is reportedly tightening customs checks on Nvidia’s China-market AI processors at major ports, underscoring how export controls and counter-measures are now a permanent feature of the supply chain.

INFRASTRUCTURE

The European Commission has approved the creation of the Digital Commons European Digital Infrastructure Consortium, bringing together France, Germany, the Netherlands, and Italy to develop open, interoperable digital systems that enhance Europe’s sovereignty and support governments and businesses.

CYBERSECURITY

The UN Convention against Cybercrime, the first global treaty to tackle cybercrime, was opened for signature in a high-level ceremony during which 72 countries signed.

Brazil is advancing its first national cybersecurity law, the Cybersecurity Legal Framework, to centralise oversight and bolster protections for citizens and businesses amid recent high-profile cyberattacks on hospitals and personal data.

Discord confirmed a cyberattack on a third-party age-verification provider that exposed official ID images and personal data of approximately 70,000 users, including partial credit card details and customer service chats, although no full card numbers, passwords, or broader activity were compromised; the platform itself remained secure.

Australia’s Critical Infrastructure Annual Risk Review, released by the Department of Home Affairs, warns of growing vulnerabilities in essential sectors like energy, healthcare, banking, aviation, and digital systems due to geopolitical tensions, supply chain disruptions, cyber threats, climate risks, physical sabotage, malicious insiders, and eroding public trust.

The International Committee of the Red Cross (ICRC) and the Geneva Academy have released a joint report analysing the application of international humanitarian law (IHL) to civilian involvement in cyber and digital activities during armed conflicts, drawing on global research and expert input.

Denmark, currently holding the EU Council presidency, has withdrawn its proposal to require scanning of private encrypted messages for child sexual abuse material (CSAM), abandoning the so-called ‘Chat Control’ proposal. Instead, Denmark will now support a voluntary regime for CSAM detection.

A growing number of countries are moving to ban minors from major platforms, with Denmark preparing to bar under-15s, and New Zealand and Australia under-16s.
The Danish EU Council presidency advanced the Jutland Declaration, making age verification central to online safety and backing an EU-wide system linked to the European Digital Identity Wallet, and EU ministers endorsed a common verification layer while allowing each country to set its own age limit.

ECONOMIC

A coalition of African, Caribbean and Pacific states led by Barbados has submitted a proposal to the World Trade Organization (WTO) seeking to extend the longstanding moratorium on customs duties applied to electronic transmissions. 

France’s National Assembly has approved raising its digital services tax on major US tech giants like Google, Apple, Meta, and Amazon from 3% to 6%, despite Economy Minister Roland Lescure’s warnings of potential US trade retaliation and labelling the hike ‘disproportionate’.

French lawmakers narrowly approved centrist MP Jean-Paul Matteï’s amendment to expand the wealth tax to ‘unproductive assets’ like luxury goods, property, and digital currencies, passing 163-150 in the National Assembly with backing from socialists and far-right members.

Japan’s Financial Services Agency will support a pilot by MUFG, Sumitomo Mitsui, and Mizuho Bank to jointly issue yen-backed stablecoins for corporate payments.

HUMAN RIGHTS

UNESCO’s Office for the Caribbean has launched a regional survey on gender and AI to document online violence, privacy concerns, and algorithmic bias affecting women and girls, with results feeding into a regional policy brief.

A UN briefing warns of the profound human rights violations from a 48-hour nationwide telecommunications shutdown in Afghanistan, which severely disrupted access to healthcare, emergency services, banking, education, and daily communications, exacerbating the population’s existing vulnerabilities.

Tanzania imposed a nationwide internet shutdown during its tense general election, severely disrupting connectivity and blocking platforms like X, WhatsApp, and Instagram, as confirmed by NetBlocks, hampering journalists, election observers, and citizens from sharing updates amid reports of protests and unrest; the government deployed the army, raising alarms over information control.

France’s Défenseur des Droits ruled that Meta’s Facebook algorithm indirectly discriminates by gender in job advertising, violating anti-discrimination laws, following a complaint by Global Witness and women’s rights groups Fondation des Femmes and Femmes Ingénieures.

Privacy advocates have proposed a US Internet Bill of Rights to safeguard digital freedoms against expanding online censorship laws like the UK’s Online Safety Act, the EU’s Digital Services Act, and US bills such as KOSA and the STOP HATE Act, which they argue undermine civil liberties by enabling government and corporate speech control under safety pretexts.

LEGAL

A landmark US federal court ruling has permanently barred the Israeli spyware company NSO Group from targeting WhatsApp users, prohibiting NSO from accessing WhatsApp’s systems, effectively restricting the company’s operations on the platform. 

An Advocate General of the CJEU has opined that national competition authorities can lawfully seize employee emails during investigations without prior judicial approval, provided a strict legal framework and effective safeguards are in place.

Australia’s Albanese Government has rejected introducing a Text and Data Mining Exception to its copyright laws, prioritising protections for local creators despite the tech sector’s demands for an AI exemption that would allow unlicensed use of copyrighted materials.

A UK court largely sided with Stability AI in its legal battle with Getty Images, ruling that the company’s use of Getty’s images to train its AI models did not violate copyright or trademark law.

SOCIOCULTURAL

The European Commission has issued preliminary findings that Meta and TikTok breached transparency and researcher-access obligations under the DSA, specifically by making it difficult for users to flag illegal content and limiting independent scrutiny of platform data.

In the Netherlands, a court has granted Meta until 31 December 2025 to implement simpler opt-out options for algorithm-driven timelines on Facebook and Instagram, following an earlier ruling that Meta’s timeline design breached DSA obligations. 

Australia will require streaming services with over 1 million local subscribers to invest at least 10% of their local spending in new Australian content, including drama, children’s shows, documentaries, arts, and educational programs.

DEVELOPMENT

The UAE’s Artificial Intelligence, Digital Economy, and Remote Work Applications Office, in partnership with Google, launched the ‘AI for All’ initiative on 29 October 2025, to provide comprehensive AI skills training across the country through 2026, targeting students, teachers, university learners, government employees, SMEs, creatives, and content creators.

KEPSA and Microsoft launched the Kenya AI Skilling Alliance (KAISA) in Nairobi, a national platform uniting the government, academia, private sector, and partners to foster inclusive and responsible AI adoption amid Kenya’s AI ecosystem fragmentation.

The UN Development Programme (UNDP) has expanded its Blockchain Academy, in partnership with the Algorand Foundation, to train 24,000 personnel worldwide from UNDP, UN Volunteers, and the UN Capital Development Fund (UNCDF), enhancing blockchain knowledge and application for sustainable development goals.

A new wave of digital protectionism is taking shape around the world — this time in the name of children’s safety.

A small but growing club of countries is seeking to ban minors from major platforms. Denmark is joining the trend by preparing to ban social media for users under 15. The government has yet to release full details, but the move reflects a growing recognition across many countries that the costs of children’s unrestricted access to social media — from mental health issues to exposure to harmful content — are no longer acceptable.

New Zealand will also introduce a bill in parliament to restrict social media access for children under 16, requiring platforms to conduct age verification before allowing use.

For inspiration, Copenhagen and Wellington do not have to look far. Australia has already outlined one of the most detailed blueprints for a nationwide ban on under-16s, set to take effect on 10 December 2025. The law requires platforms to verify users’ ages, remove underage accounts, and block re-registrations. Platforms will also need to communicate clearly with affected users, although questions remain, including whether deleted content will be restored when a user turns 16.

Despite having publicly articulated their opposition, Meta Platforms (owner of Facebook/Instagram), TikTok, and Snap Inc. announced that they will comply with the Australian law. The tech firms argue that the ban may inadvertently push youth toward less-regulated corners of the internet, and raise practical concerns over the enforcement of reliable age verification.

The Australian eSafety Commissioner has formally notified major social media platforms, including Facebook, Instagram, TikTok, Snapchat, and YouTube, that they must comply with new minimum age restrictions effective from 10 December. 

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

In the EU, the Danish presidency tabled the Jutland Declaration, a political push for stronger protections that puts age verification at the centre of online safety for minors. The declaration argues that platforms accessible to minors must ensure ‘a high level of privacy, safety, and security’ and that effective age verification is ‘one of the essential tools’ to curb exposure to illegal or harmful content and manipulative design. It explicitly backs EU-wide solutions tied to the European Digital Identity (EUDI) Wallet, positioned as a way to verify age with minimal data disclosure, and calls out addictive features (infinite scroll, autoplay, streaks) and risky monetisation (certain loot boxes, micro-transactions) for tighter controls. The text also stresses ‘safety-by-design’ defaults, support for parents and teachers, and meaningful participation of children in the policy process.

Two days later, ministers backed the Danish plan in part: countries rallied behind the common EU layer for age verification but resisted a single EU-wide age limit. The emerging compromise is to standardise ‘how to verify’ at the EU level while leaving ‘what age to set’ to national law, avoiding fragmentation of technical systems while respecting domestic choices. Pilots for the EU approach are expanding in several member states and align with the EUDI Wallet rollout due by the end of 2026.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

However, Denmark has officially abandoned its push within the EU to mandate the scanning of private messages on encrypted platforms – a proposal often referred to as ‘Chat Control.’ Officials cited mounting political and public resistance, particularly concerns over privacy and surveillance, as the catalyst for reversal. The measure had aimed to require tech platforms to automatically detect child sexual abuse material (CSAM) in private, end-to-end encrypted communications. Instead, Denmark will now support a voluntary regime for CSAM detection, relinquishing the previous insistence on compulsory scanning.

Adding a global dimension, on 7 November, the European Commission, Australia’s eSafety Commissioner and the UK’s Ofcom committed to strengthening child online safety. The three regulators agreed specifically to establish a technical cooperation group on age-assurance solutions (methods to verify age safely), share evidence, conduct independent research, and hold platforms accountable for design and moderation decisions that affect children. While each region retains its own law-making path, the agreement signals a growing trans-national alignment around how children are protected in digital spaces.

Regulatory pressure is rising in parallel. The European Commission sent fresh DSA information requests to major platforms, including Snapchat, YouTube, Apple and Google, probing how they keep minors away from harmful content and how their age-assurance systems work. The probe follows the Commission’s final DSA guidelines on protecting minors issued in July, which spell out ‘appropriate and proportionate’ measures for services accessible to minors (Article 28(1) DSA), from default privacy safeguards to risk mitigation for recommender systems. Violations can lead to substantial fines.

Lawsuits are also picking up. In Italy, families have launched legal action against Facebook, Instagram, and TikTok, claiming that the platforms failed to protect minors from exploitative algorithms and inappropriate content. 

Across the Atlantic, New York City has filed a sweeping lawsuit against major social media platforms, accusing them of deliberately designing features that addict children and harm their mental health. 

A landmark trial on child safety online has been given a start date. In January 2026, the Los Angeles County Superior Court will hear a consolidated case bringing together hundreds of claims from parents and school districts against Meta, Snap, TikTok, and YouTube. Plaintiffs allege that these platforms are addictive and expose young people to mental health risks, while providing ineffective parental controls and weak safety features. Meta founder Mark Zuckerberg, Instagram head Adam Mosseri, and Snap CEO Evan Spiegel have been ordered to testify in person, despite the companies’ arguments that it would be burdensome. The judge emphasised that direct testimony from CEOs is crucial to assess whether the companies were negligent in failing to take steps to mitigate harm.

Online gaming platforms, especially those popular with children, are also being re-examined. The platform Roblox (which allows user-generated worlds and chats) has come under fire for failing to protect its youngest users. In the USA, for example, the Florida Attorney General has issued criminal subpoenas accusing Roblox of being ‘a breeding ground for predators’ for children. In the Netherlands, the platform is facing an investigation by child-welfare authorities into how it safeguards young users. In Iraq, the government has banned Roblox nationwide, citing “sexual content, blasphemy and risks of online blackmail against minors.” 

Social media and gaming aren’t the only fronts. AI chatbots are now under scrutiny for how they interact with minors. In Australia, the eSafety Commissioner has sent notices to four AI chatbot companies asking them to detail their child-protection steps — specifically, how they guard against exposure to sexual or self-harm material. 

Meanwhile, Meta has announced new parental-control measures: parents will be able to disable their teens’ private chats with AI characters, block specific bots, and view what topics their teens are discussing, though not full transcripts. These rules are expected to roll out early next year in the USA, UK, Canada and Australia. These changes follow criticism that Meta’s AI-character chatbots enabled flirtatious or age-inappropriate conversations with minors.

The big picture. For youth, the digital world is a primary space for social, emotional, and cognitive development, shaped by the content and interactions they find there. This new reality requires parents to look beyond simple screen time to understand the nature of their children’s online experiences. It also sends a clear message to tech companies about accountability and challenges regulators to create rules that are both enforceable and adaptable to rapid innovation.

Together, these developments suggest that the era of self-regulation for social media may be drawing to a close. The global debate is not about whether the digital playground needs guardians, but about the final design of its safety features. As governments weigh bans, lawsuits, and surveillance mandates, they struggle to balance two imperatives: protecting children from harm while safeguarding fundamental rights to privacy and free expression. 

The world is incessantly debating the future and governance of AI. Here are some of the latest moves in the space.

Regulatory moves 

Italy has made history as the first member state in the EU to pass its own national AI law, going beyond the framework of the EU’s Artificial Intelligence Act. From 10 October, the law comes into effect, introducing sector-specific rules across health, justice, work, and public administration.  Among its provisions: transparency obligations, criminal penalties for misuse of AI (such as harmful deepfakes), new oversight bodies, and protections for minors (e.g. parental consent if under 14). 

However, reports indicate that the European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement – likely in response to lobbying from US authorities and tech companies.

Adding another layer of regulatory complexity, the European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA). This designation would bring obligations, including systemic-risk assessments, transparency reporting, independent audits, and researcher access to data, potentially creating overlapping regulatory requirements alongside the AI Act.

Meanwhile, across the Atlantic, California has signed into law a bold transparency and whistleblower regime aimed at frontier AI developers – those deploying large, compute-intensive models. Under SB 53 (the Transparency in Frontier Artificial Intelligence Act), companies must publish safety protocols, monitor risks, and disclose ‘critical safety incidents.’ Crucially, employees who believe there is a catastrophic risk (even without full proof) are shielded from retaliation. California also adopted the first dedicated ‘AI chatbot safety’ law, adding disclosure and safety expectations for conversational systems.

In Asia, at the Asia-Pacific Economic Cooperation (APEC) 2025 summit, Chinese President Xi Jinping reiterated his proposal to establish a global AI body to coordinate AI development and governance internationally. This body, tentatively titled World Artificial Intelligence Cooperation Organization, is not referenced in the APEC Artificial Intelligence (AI) Initiative (2026-2030).

A push for AI sovereignty

In Brussels, the European Commission is simultaneously strategising for digital sovereignty – trying to break the EU’s dependence on foreign AI infrastructure. Its new ‘Apply AI’ strategy aims to channel €1 billion into deploying European AI platforms, integrating them into public services (health, defence, industry), and supporting local tech innovation. The Commission also launched an ‘AI in Science’ initiative to solidify Europe’s position at the forefront of AI research, through a network called RAISE. 

Japan will prioritise home-grown AI technology in its new national strategy, aiming to strengthen national security and reduce dependence on foreign systems. The government says developing domestic expertise is essential to prevent overreliance on US and Chinese AI models.

AI, content, and the future of search

As AI continues to reshape how people access and interact with information, governments and tech companies are grappling with the opportunities—and dangers—of AI-driven content and search tools. 

In Europe, the Dutch electoral watchdog recently warned voters against relying on AI chatbots for election information, highlighting concerns that such systems can inadvertently mislead citizens with inaccurate or biased content. 

Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

At the same time, search engines—the traditional gateways to online knowledge—are experiencing a wave of innovation. OpenAI has unveiled its new browser, ChatGPT Atlas, which reimagines the way users interact with the web. Atlas introduces an ‘agent mode,’ a premium feature that can access a user’s laptop, click through websites, and explore the internet on their behalf, leveraging browsing history and user queries to provide guided, explainable results. Altman described it simply: ‘It’s using the internet for you.’ Two days later, Microsoft unveiled an equivalent offering—its Copilot Mode in Edge within the Microsoft Edge browser. The design, functions and timing were notably similar, underscoring how the major platforms are rapidly converging on this next-generation AI browser paradigm.

The bottom line. Ultimately, every new law and international proposal faces the same, almost paradoxical challenge: how to establish a rulebook for a technology that is continually rewriting its own capabilities by the month. The fundamental question is: Can any governance framework ever be agile enough?

Rare-earth respite: The battle for strategic resources marches on

The beginning of October saw China tighten its grip on the global tech supply chain by significantly expanding its restrictions on its rare earth exports. The new rules no longer focus solely on raw minerals — they now encompass processed materials, manufacturing equipment, and even the expertise used to refine and recycle rare earths. 

Exporters must seek government approval not only to ship these elements, but also for any product that contains them at a level exceeding 0.1%. Licences will be denied if the end users are involved in weapons production or military applications. Semiconductors won’t be spared either — chipmakers will now face intrusive case-by-case scrutiny, with Beijing demanding full visibility into tech specifications and end users before granting approval.

China is also sealing off human expertise. Engineers and companies in China are prohibited from participating to rare earth projects abroad unless the government explicitly permits it.

The geopolitical context in which this development took place is central: with US–China tensions elevated, Beijing has been signalling its leverage —dominance over the minerals powering advanced technologies.

By way of background. China currently controls up to 70% of global rare earth extraction, roughly 85% of refining, and about 90% of alloy and magnet production. That position has long served as strategic leverage, which some Chinese analysts argue remains intact despite the current deal. 

 Person, Head, Face

In late October, Trump and Xi announced a breakthrough on rare-earth minerals. ‘All of the rare earth is settled, and that’s for the world,’ Trump said, signalling the removal of one of the last major bottlenecks in global supply chains. The meeting also paved the way for tariff reductions and the renewal of agricultural trade.

Under the agreement, China will suspend the global implementation of expansive restrictions announced on 9 October and issue general export licenses for rare earths, gallium, germanium, antimony, and graphite, ensuring continued access for US buyers and their suppliers. The move is a de facto removal of controls China has tightened since 2023 and follows Trump’s declaration that there is now ‘no roadblock at all’ on rare earth flows.

The pause offers breathing room for global industries that rely on the minerals underpinning everything from electric vehicles and smartphones to advanced defence systems and renewable energy technologies. Yet it does little to ease the structural concerns driving diversification efforts.

In Europe, the European Commission is preparing a plan, potentially ready within weeks, to reduce reliance on Chinese critical minerals. Nearly all of Europe’s supply of 17 rare earth minerals currently comes from China, a dependence that Brussels views as unsustainable despite Beijing’s temporary concessions. The emerging EU strategy is expected to mirror the REPowerEU energy diversification blueprint, with a focus on recycling, stockpiling, and developing alternative supply routes.

The EU, however, is signalling frustration at mixed signals from Washington and Beijing on the rare‑earth front. Brussels remains uncertain about how far China’s newly stated concessions will apply to European firms, and observers warn that the bloc lacks near-term leverage to sway Beijing’s policy. This uncertainty underscores Europe’s tricky balancing act: pushing for supplier diversification while remaining dependent on them.

Similar momentum is building among G7 governments. Meeting in Toronto, G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships. The group – which consists of Canada, France, Germany, Italy, Japan, the UK and the USA  – also agreed to channel up to C$20.2 million into international collaboration in research and development of the commodities. US Energy Secretary Chris Wright framed the G7 alignment as a commitment to ‘establish our own ability to mine, process, refine and create the products’. These moves ‘send the world a very clear message’, Canadian Energy Minister Tim Hodgson said, adding ‘We are serious about reducing market concentration and dependencies’.

Beyond the US–China–Europe triangle, Moscow has also entered the race. Russian President Vladimir Putin has ordered the government to draw up a roadmap for increasing Russia’s rare-earth mineral production and strengthening transportation links with China and North Korea by 1 December. Russia claims reserves of hundreds of millions of metric tonnes of critical minerals but currently supplies only a small fraction of global demand – a gap it now seeks to close.

In Southeast Asia, Malaysia is charting its own course. The government confirmed it will maintain its ban on raw rare-earth exports despite the US–China deal, signalling continued emphasis on domestic value-added processing. Taipei has downplayed the impact of Beijing’s rare-earth curbs, saying Taiwan can source most of its needs elsewhere. 

What’s next? The truce on export controls may calm markets in the short term. However, with the G7 forging new alliances, Europe accelerating its diversification, and Beijing determined to maintain its control over rare earths as a strategic leverage, the global contest over critical minerals is only deepening. The underlying contest for supply chain resilience is far from over.

In the span of just ten days, two of the world’s largest cloud service providers — Amazon Web Services (AWS) and Microsoft Azure — suffered major outages that rippled across the globe, underscoring just how fragile the digital backbone of modern life has become.

For a few hours on Monday, much of the internet flickered out of reach. What began as an issue in one Amazon Web Services (AWS) data centre — the US-East-1 region in Virginia — quickly cascaded into a global failure. A seemingly minor Domain Name System (DNS) configuration error triggered a chain reaction, knocking out the systems that handle traffic between servers. 

The root cause was identified as a failure in the DNS resolution for internal endpoints, particularly affecting DynamoDB API endpoints. (Sidenote: DynamoDB is a cloud database that stores information for apps and websites, while API endpoints are the access points where these services read or write that data. During the AWS outage, these endpoints stopped working properly, preventing apps from retrieving or saving information.)

Because so many websites, apps and services — from social media platforms and games to banking and government portals — rely on AWS, the outage affected homes, offices, and governments worldwide. 

AWS engineers rushed to isolate the fault, eventually restoring normal operations by late afternoon. But the damage had already been done. The outage exposed a fragile truth about today’s digital world: when one provider falters, much of the internet stumbles with it. An estimated one-third of the world’s online services run on AWS infrastructure.

On 29 October 2025, a widespread outage affecting Microsoft’s cloud services disrupted major websites and services worldwide, including Heathrow Airport, NatWest, Asda, M&S, Starbucks, and Minecraft. The problem, also traced to Azure’s DNS configuration, lasted several hours before services gradually returned to normal.

According to tracking data from Downdetector, thousands of reports from multiple countries surfaced as websites and online services failed for several hours. Microsoft said the root cause lay with its Azure cloud‑computing platform, attributing the degradation to DNS issues and an inadvertent configuration change. 

Taken together, the two outages point to a deeper systemic vulnerability. They highlighted several systemic risks in today’s digital infrastructure

First, the outage underscored the global dependence on a small number of hyperscale cloud providers. This dependence acts as a single point of failure: a disruption within one provider can disrupt thousands of services relying on it. 

Secondly, the root cause, being a DNS resolution error, revealed how one component in a complex system can be the catalyst for massive disruption. 

Thirdly, despite cloud providers offering multiple ‘availability zones’ for redundancy, the event demonstrated that a fault in one critical region can still have worldwide consequences.

The lesson here is clear: as cloud computing becomes ever more central to the digital economy, resilience and diversification cannot be afterthoughts. Yet few true alternatives exist at AWS’s at Azure’s scale beyond Google Cloud, with smaller rivals from IBM to Alibaba, and fledgling European plays, far behind.

The first global treaty aimed at preventing and responding to cybercrime, the UN Convention against Cybercrime, was opened for signature in a high-level ceremony co-hosted by the Government of Viet Nam and the UN Secretariat on 25 and 26 October. 

At the close of the two-day signing window, 72 states had signed the convention in Hanoi — a strong initial show of support that underlines the perceived need for better cross-border cooperation on issues ranging from ransomware and online fraud to child sexual exploitation and trafficking. The convention establishes a framework for harmonising criminal law, standardising investigative powers, and expediting mutual legal assistance and the exchange of electronic evidence. 

But the ceremony was not without controversy. Human rights groups and civil society coalitions issued public warnings in the run-up to the signing, warning that vague definitions of cybercrime and expansive investigative powers could enable governments to justify surveillance or suppress legitimate online activities, such as journalism, activism, or cybersecurity research. Without precise legal limits and independent oversight, measures like data interception, compelled decryption, or real-time monitoring could erode privacy and freedom of expression.

Major tech companies and several rights organisations urged stronger, clearer safeguards and precise drafting to prevent misuse. UNODC, the UN office that led the negotiations, responded by pointing to built-in safeguards and to provisions meant to support capacity building for lower-resourced states

Practically, the signing is only the procedural first step — the treaty will enter into force only 90 days after 40 states ratify it under their domestic procedures, a requirement that will determine how quickly the Convention becomes operational. 

Observers following the aftermath focus on three immediate questions: which signatories will move quickly to ratify, how individual countries will transpose Convention obligations into national law (and whether they will embed robust human rights safeguards), and what mechanisms will govern technical cooperation and cross-border evidence sharing in practice. 

The Hanoi signing marks a milestone: it creates a legal anchor for deeper international cooperation on cybercrime — provided implementation respects fundamental rights and rule-of-law principles.

The digital governance scene has been busy in Geneva in October. Here’s what we have tried to follow. 

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Geneva Peace Week 2025

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.

151st Assembly of the IPU

The 151st Assembly of the IPU took place in Geneva, Switzerland, on 19-23 October 2025. Under the theme ‘Upholding humanitarian norms and supporting humanitarian action in times of crisis,’ the Assembly held its general debate and reviewed progress on previous resolutions.

Discussions also addressed the protection of victims of illegal international adoption, considered amendments to the IPU Statutes and Rules, and set priorities for upcoming committee work. The meeting provided a platform for dialogue on humanitarian, democratic, and governance issues among national parliaments.

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th UN Conference on Trade and Development (UNCTAD16) took place from 20–23 October 2025 in Geneva, bringing together world leaders, ministers, and experts from 170 countries under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

Over four days and 40 high-level sessions, delegates discussed trade, investment, technology, and sustainability, setting UNCTAD’s direction for the next four years.

Digital transformation was a prominent feature throughout the conference. Delegates highlighted that while technological progress opens new opportunities, it also risks deepening inequalities.

The event concluded with the adoption of the Geneva Consensus for a Just and Sustainable Economic Order. The agreement reaffirmed commitments to fairer and more inclusive global development, placing a strong emphasis on narrowing digital divides.

The Geneva Consensus calls on UNCTAD to help developing countries strengthen digital infrastructure, build skills, and create policy frameworks to harness the digital economy. 

Concrete initiatives were announced: Switzerland pledged CHF 4 million to support UNCTAD’s e-commerce and digital economy work, while a new partnership with the Digital Cooperation Organization will advance digital data measurement, women’s participation, and SME support.

ICRC and Geneva Academy publish joint report on civilian involvement in cyber activities during conflicts

The International Committee of the Red Cross (ICRC) and the Geneva Academy of International Humanitarian Law and Human Rights have jointly released a report examining how international humanitarian law (IHL) applies to civilian participation in cyber and other digital activities during armed conflicts. The report is based on extensive global research and expert consultations conducted within the framework of their initiative.

The publication addresses key legal issues, including the protection of civilians and technology companies during armed conflict, and the circumstances under which such protections may be at risk. It further analyses the IHL obligations of civilians, such as individuals engaging in hacking, when directly involved in hostilities, as well as the responsibilities of states to safeguard civilians and civilian infrastructure and to ensure compliance with IHL by populations under their control.

The ICRC and Geneva Academy report also offers practical recommendations for governments, technology companies, and humanitarian organisations aimed at limiting civilian involvement in hostilities, minimising harm, and supporting adherence to international humanitarian law.

Weekly #237 A rare-earth pause in a long geopolitical game

 Logo, Text

31 October-10 November 2025


HIGHLIGHT OF THE WEEK

 A rare-earth pause in a long geopolitical game

A temporary easing of tensions in the global scramble for critical minerals has emerged from Washington and Beijing – but the underlying contest for supply chain resilience is far from over.

Following high-stakes talks in early November, US President Donald Trump and Chinese President Xi Jinping signed a deal that effectively rolls back Beijing’s recent export controls on rare earth elements and other critical minerals. Under the agreement, China will suspend the global implementation of expansive restrictions announced on 9 October and issue general export licenses for rare earths, gallium, germanium, antimony, and graphite, ensuring continued access for US buyers and their suppliers. The move is a de facto removal of controls China has tightened since 2023 and follows Trump’s declaration that there is now ‘no roadblock at all’ on rare earth flows.

The pause offers breathing room for global industries that rely on the minerals underpinning everything from electric vehicles and smartphones to advanced defence systems and renewable energy technologies. Yet it does little to ease the structural concerns driving diversification efforts.

In Europe, the European Commission is preparing a plan, potentially ready within weeks, to reduce reliance on Chinese critical minerals. Nearly all of Europe’s supply of 17 rare earth minerals currently comes from China, a dependence that Brussels views as unsustainable despite Beijing’s temporary concessions. The emerging EU strategy is expected to mirror the REPowerEU energy diversification blueprint, with a focus on recycling, stockpiling, and developing alternative supply routes.

The EU, however, is signalling frustration at mixed signals from Washington and Beijing on the rare‑earth front. Brussels remains uncertain about how far China’s newly stated concessions will apply to European firms, and observers warn that the bloc lacks near-term leverage to sway Beijing’s policy. This uncertainty underscores Europe’s tricky balancing act: pushing for supplier diversification while remaining dependent on them.

Similar momentum is building among G7 governments. Meeting in Toronto, G7 energy ministers agreed to establish a critical minerals production alliance, backed by more than two dozen new investments and partnerships. The group – which consists of Canada, France, Germany, Italy, Japan, the UK and the USA  – also agreed to channel up to C$20.2 million into international collaboration in research and development of the commodities. US Energy Secretary Chris Wright framed the G7 alignment as a commitment to ‘establish our own ability to mine, process, refine and create the products’. These moves ‘send the world a very clear message’, Canadian Energy Minister Tim Hodgson said, adding ‘We are serious about reducing market concentration and dependencies’.

Beyond the US–China–Europe triangle, Moscow has also entered the race. Russian President Vladimir Putin has ordered the government to draw up a roadmap for increasing Russia’s rare-earth mineral production and strengthening transportation links with China and North Korea by 1 December. Russia claims reserves of hundreds of millions of metric tonnes of critical minerals but currently supplies only a small fraction of global demand – a gap it now seeks to close.

 Person, Head, Face

A refresher. China currently controls up to 70% of global mine production, roughly 85% of refining, and about 90% of alloy and magnet production. That position has long served as strategic leverage, which some Chinese analysts argue remains intact despite the current deal. 

What’s next? The truce on export controls may calm markets in the short term. However, with the G7 forging new alliances, Europe accelerating its diversification, and Beijing determined to maintain its control over rare earths as a strategic leverage, the global contest over critical minerals is only deepening.

IN OTHER NEWS LAST WEEK

EU steps in as Dutch chip action provokes China

A governance intervention in the Netherlands has spiralled into a global semiconductor standoff – and a race to stabilise automotive supply chains.

After Dutch authorities moved to assert control over chipmaker Nexperia on national-security grounds, Beijing responded by restricting exports from the company’s China operations. Nexperia then halted wafer (thin slices of semiconductor material used to make microchips) shipments to its Chinese assembly plant.

The disruption sent ripples through carmakers and suppliers; several trimmed sales guidance as inventory buffers tightened.

Brussels stepped in to mediate. European Commission officials and the EU trade chief convened talks with Nexperia and China, trying to find a solution that would restore flows without undercutting Europe’s security concerns. 

Diplomacy produced an important tactical breakthrough in early November. China’s commerce ministry signalled a softened position and moved to issue case-by-case exemptions to its export curbs on Nexperia products

By 4 November, the Commission judged that the worst-case disruption had been avoided and that there was ‘time and space’ to seek a longer-term solution – a pragmatic assessment that reflected partial resumption of talks and early signs of coordination. That breathing room allowed negotiators to focus on exemptions, procedural fixes and assurances rather than immediate rationing.

The big picture. For now, a fragile stabilisation is taking shape: partial export clearances, continued negotiations, and heightened quality checks across supply chains. But the episode has underscored Europe’s reliance on offshore packaging capacity – and the challenge of balancing security scrutiny with industrial continuity.

US–China chip tensions tighten around Nvidia

A fast-moving week in the AI chip race saw Washington and Beijing harden positions – with Nvidia caught squarely in the middle.

Nvidia CEO Jensen Huang initially expressed hope that the company’s new Blackwell chips could still be sold in China. But former President Donald Trump quickly shut that door, saying the top-end processors ‘are not for other people,’ as the White House confirmed the most advanced AI chips remain off-limits to Chinese buyers. US officials also signalled they may block sales of scaled-down models, further tightening export controls.

China responded by banning foreign AI chips in state-funded data centres and offering cheap power to domestic tech giants to accelerate local semiconductor production – part of its push to reduce reliance on US suppliers.

The big picture. The week underscored a sharpening semiconductor stand-off: Washington determined to keep frontier AI technology at home, and Beijing racing to ensure it never needs it.


The global struggle to steer AI

At the Asia-Pacific Economic Cooperation (APEC) 2025 summit, Chinese President Xi Jinping reiterated his proposal to establish a global AI body to coordinate AI development and governance internationally. This body, tentatively titled World Artificial Intelligence Cooperation Organization, is not referenced in the APEC Artificial Intelligence (AI) Initiative (2026-2030).

Meanwhile, Europe is contemplating recalibrating its regulatory approach. Reports indicate that the European Commission is considering pausing or easing certain elements of the EU AI Act, the bloc’s flagship legislation designed to regulate high-risk AI systems. The potential adjustments could include delayed compliance deadlines, softer obligations on high-risk applications, and a phased approach to enforcement – likely in response to lobbying from US authorities and tech companies.

Adding another layer of regulatory complexity, the European Commission is evaluating whether ChatGPT should be classified as Very Large Online Search Engines (VLOSE) under the Digital Services Act (DSA). This designation would bring obligations, including systemic-risk assessments, transparency reporting, independent audits, and researcher access to data, potentially creating overlapping regulatory requirements alongside the AI Act.


Protecting children online

Denmark, which currently holds the presidency of the EU Council, officially abandoned its push within the EU to mandate the scanning of private messages on encrypted platforms – a proposal often referred to as ‘Chat Control.’ Officials cited mounting political and public resistance, particularly concerns over privacy and surveillance, as the catalyst for reversal. The measure had aimed to require tech platforms to automatically detect child sexual abuse material (CSAM) in private, end-to-end encrypted communications. Instead, Denmark informed that it will now support a voluntary regime for CSAM detection, relinquishing the previous insistence on compulsory scanning

Meanwhile, Denmark is going forward with its national plans for child safety online – the government has announced an agreement to ban access to social media for anyone under 15. While it is still unclear how such a ban will be enforced, Denmark’s minister for digital affairs, Caroline Stage, noted that tech giants will be forced to make proper age verification.
Copenhagen is following Australia’s example, where a social media ban for under-16s will take place from 10 December. The eSafety Commissioner has formally notified major social media platforms, including Facebook, Instagram, TikTok, Snapchat, and YouTube, that they must comply with new minimum age restrictions from this date.


States press for extension of digital‑trade tariff moratorium at WTO

A coalition of African, Caribbean and Pacific states led by Barbados has submitted a proposal to the World Trade Organization (WTO) seeking to extend the longstanding moratorium on customs duties applied to electronic transmissions. The moratorium  – effectively preventing tariffs on digital goods such as e‑books, video games and transmission of software – was first introduced in 1998 and has been periodically renewed. 

Under the current renewal, the moratorium is set to expire in March 2026 or at the next Ministerial Conference, whichever comes first. 

The proposal from the African, Caribbean and Pacific states, which is yet to specify a definitive duration, would see the moratorium remain in force ‘until our next session.’

What’s next? The matter will be discussed at the next WTO Ministerial Conference (MC14) in March 2026 in Yaoundé, Cameroon.

The heart of the matter. For these countries, extending the moratorium is about maintaining open, affordable, and predictable digital trade, reducing administrative burdens, and promoting economic development through digital channels. Essentially, it’s a way to support growth in the digital economy while avoiding trade conflicts and tariffs that could disproportionately affect smaller or developing states.


UNESCO adopts first global ethical framework for neurotechnology

UNESCO has approved the world’s first global framework on the ethics of neurotechnology, setting new standards to ensure that advances in brain science respect human rights and dignity. 

The Recommendation calls on governments to regulate neurotechnologies, ensure they remain accessible, and protect vulnerable groups, especially children and workers. It urges bans on non-therapeutic use in young people and warns against monitoring employees’ mental activity or productivity without explicit consent.

UNESCO also stresses the need for transparency and better regulation of products that may alter behaviour or foster addiction.

Developed after consultations with over 8,000 contributors from academia, industry, and civil society, the framework was drafted by an international group of experts led by scientists Hervé Chneiweiss and Nita Farahany. 

What’s next? The text will enter into force on 12 November, at the conclusion of the UNESCO General Conference in Samarkand, Uzbekistan. UNESCO pledged to support its member states in reviewing their policies, developing roadmaps tailored to their priorities, and strengthening their capacities to address the challenges posed by neurotechnology.


LOOKING AHEAD
 Person, Face, Head, Binoculars
COP 30

The 2025 United Nations Climate Change Conference, known as COP30, will be held from 10 to 21 November 2025 in Belém, Brazil. 

ATF Final Logo 09

The Africa Tech Festival 2025 will be held from 11 to 13 November 2025 at the Cape Town International Convention Centre, South Africa. 



READING CORNER
AI and art feature

AI can now write, paint, and act. Does this devalue human craft and authenticity? Explore the debate on whether generative AI is a tool that frees creators or one that replaces them.