Weekly #236 Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi

 Logo, Text

24 – 31 October 2025


HIGHLIGHT OF THE WEEK

Promise and peril: The world signs on to the UN’s new cybercrime treaty in Hanoi

Last weekend, the first global treaty aimed at preventing and responding to cybercrime, the UN Convention against Cybercrime, was opened for signature in a high-level ceremony co-hosted by the Government of Viet Nam and the UN Secretariat. 

At the close of the two-day signing window, 72 states had signed the convention in Hanoi — a strong initial show of support that underlines the perceived need for better cross-border cooperation on issues ranging from ransomware and online fraud to child sexual exploitation and trafficking. The convention establishes a framework for harmonising criminal law, standardising investigative powers, and expediting mutual legal assistance and the exchange of electronic evidence. 

 Person, Book, Comics, Publication, People, Head

But the ceremony was not without controversy. Human rights groups and civil society coalitions issued public warnings in the run-up to the signing, warning that vague definitions of cybercrime and expansive investigative powers could enable governments to justify surveillance or suppress legitimate online activities, such as journalism, activism, or cybersecurity research. Without precise legal limits and independent oversight, measures like data interception, compelled decryption, or real-time monitoring could erode privacy and freedom of expression.

Major tech companies and several rights organisations urged stronger, clearer safeguards and precise drafting to prevent misuse. UNODC, the UN office that led the negotiations, responded by pointing to built-in safeguards and to provisions meant to support capacity building for lower-resourced states

Practically, the signing is only the procedural first step — the treaty will enter into force only 90 days after 40 states ratify it under their domestic procedures, a requirement that will determine how quickly the Convention becomes operational. 

Observers following the aftermath focus on three immediate questions: which signatories will move quickly to ratify, how individual countries will transpose Convention obligations into national law (and whether they will embed robust human rights safeguards), and what mechanisms will govern technical cooperation and cross-border evidence sharing in practice. 

The Hanoi signing marks a milestone: it creates a legal anchor for deeper international cooperation on cybercrime — provided implementation respects fundamental rights and rule-of-law principles.

IN OTHER NEWS THIS WEEK

Regulators close in on Big Tech

Over the past week, regulatory pressure on major online platform firms has intensified across multiple jurisdictions. From age-based access restrictions in Australia to algorithmic feed controls in Europe, tech giants now find themselves navigating an increasingly complex patchwork of enforcement regimes and political expectations.

In Canberra, the Australian Parliament has moved ahead with the implementation of its landmark under-16 social media access ban, effective 10 December 2025. Meta Platforms (owner of Facebook/Instagram), TikTok, and Snap Inc. announced that they will comply with the law, despite having publicly articulated their opposition. The tech firms argue that the ban may inadvertently push youth toward less-regulated corners of the internet, and raise practical concerns over the enforcement of reliable age verification.

The same week, the government took Microsoft to court, accusing it of misleading more than two million consumers by quietly bundling its AI assistant Copilot into Microsoft 365 subscriptions and raising prices by up to 45%. Regulators argue the company failed to make clear that cheaper, Copilot-free options still existed—a case that extends Australia’s scrutiny from online safety to pricing and consumer transparency.

In Europe, the Digital Services Act (DSA) is emerging as a tangible enforcement tool for regulating the design and transparency of algorithms on large platforms. In the Netherlands, a court has granted Meta until 31 December 2025 to implement simpler opt-out options for algorithm-driven timelines on Facebook and Instagram, following an earlier ruling that Meta’s timeline design breached DSA obligations. 

Separately, the European Commission has issued preliminary findings that Meta and TikTok breached transparency and researcher-access obligations under the DSA, specifically by making it difficult for users to flag illegal content and limiting independent scrutiny of platform data.


Washington redraws tech alliances with Tokyo, Seoul, and Beijing

The USA is tightening its grip on the global tech order. Within a week, Washington has inked new science and technology agreements with South Korea and Japan, while President Donald Trump’s meeting with Chinese President Xi Jinping produced a rare thaw in trade relations.

The US–Japan Framework for Securing the Supply of Critical Minerals and Rare Earths commits both nations to joint mining, processing, and stockpiling—an effort to reduce reliance on China and strengthen Indo-Pacific supply-chain resilience. 

The US–Korea Science and Technology Roadmap broadens cooperation on AI, quantum, 6G, research security, and civil space, aiming for pro-innovation policy alignment and “rusted exports.

In Seoul, Trump and Xi announced a breakthrough on rare-earth minerals. ‘All of the rare earth is settled, and that’s for the world,’ Trump said, signalling the removal of one of the last major bottlenecks in global supply chains. The meeting also paved the way for tariff reductions and renewed agricultural trade.

Despite expectations, Trump did not raise Nvidia’s Blackwell chip with Xi. Still, momentum could continue: US Treasury Secretary Whitney Bessent says a new trade deal could be signed as early as next week.


Europe tightens grip as Nexperia cuts off Chinese plant

The standoff between Nexperia and European authorities entered a new phase this week. 

According to a letter from interim CEO René Penning de Vries, Nexperia halted supplies to its Dongguan site on 26 October over ‘payment irregularities’ by local management—a move that further deepens the company’s internal split following the Dutch government’s intervention. 

At the same time, EU tech chief Henna Virkkunen announced she will meet Nexperia’s leadership on Friday, amid growing concern that production disruptions could ripple through Europe’s automotive and industrial supply chains. Virkkunen said lessons from the case will feed into the upcoming revision of the EU Chips Act, which aims to strengthen the bloc’s technological resilience.

A refresher: Nexperia, based in the Netherlands but owned by China’s Wingtech Technology, has been under government oversight since late September. Dutch authorities said the move was needed to fix ‘governance problems’ and protect key technology and production capacity in Europe. The decision led to the removal of Nexperia’s Chinese CEO and strained ties with its parent company. The situation has since become a symbol of Europe’s growing efforts to protect its semiconductor industry from foreign control and supply chain risks.


Microsoft Azure outage underlines global cloud vulnerability

On 29 October 2025, a widespread outage affecting Microsoft’s cloud services disrupted major websites and services worldwide, including Heathrow Airport, NatWest, Asda, M&S, Starbucks, and Minecraft. The problem, traced to Azure’s DNS configuration, lasted several hours before services gradually returned.

According to tracking data from Downdetector, thousands of reports from multiple countries surfaced as websites and online services failed for several hours. Microsoft said the root cause lay with its Azure cloud‑computing platform, attributing the degradation to DNS issues and an inadvertent configuration change. 

The scale of the outage highlights the fragility of the internet’s infrastructure, given that Microsoft Azure holds roughly one-fifth of the global cloud market share. 

Earlier in the month, on 20 October, AWS suffered a major outage triggered by a DNS issue. These episodes highlight that reliance on a small number of providers creates systemic vulnerability — when one platform falters, many services are affected simultaneously.


Are AI systems fair and safe? Caribbean women weigh in through UNESCO survey

UNESCO’s Office for the Caribbean has launched a regional survey examining gender and AI, titled Perception of AI Fairness and Online Safety among Women and Girls in the Caribbean. The initiative will document gender-based online violence, generative AI’s implications for privacy, and potential biases in large AI models. It aims to address the lack of data on how women and girls experience technology, AI, and online violence in the region. 

The findings will be used to develop a regional policy brief comparing regional data with global insights. UNESCO will share the findings during a one-day regional workshop on 10 December 2025, Human Rights Day – empowering young Caribbean women with tools to navigate AI safely and confidently


LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Countries unite around a ‘Geneva Consensus’ at UNCTAD16

The 16th UN Conference on Trade and Development (UNCTAD16), held in Geneva from 20–23 October 2025, concluded with record participation from 170 countries and the adoption of the Geneva Consensus for a Just and Sustainable Economic Order. The agreement reaffirmed commitments to fairer and more inclusive global development, placing a strong emphasis on narrowing digital divides.

Digital transformation was a prominent feature throughout the conference. Delegates highlighted that while technological progress opens new opportunities, it also risks deepening inequalities. The Geneva Consensus calls on UNCTAD to help developing countries strengthen digital infrastructure, build skills, and create policy frameworks to harness the digital economy. Concrete initiatives were announced: Switzerland pledged CHF 4 million to support UNCTAD’s e-commerce and digital economy work, while a new partnership with the Digital Cooperation Organization will advance digital data measurement, women’s participation, and SME support.


LOOKING AHEAD
 Person, Face, Head, Binoculars
bih igf logo

The BH Internet Governance Forum (BHIGF) 2025 will take place in Sarajevo, Bosnia and Herzegovina, bringing together government officials, civil society, technical experts, journalists, and other stakeholders to discuss internet governance.

2025 Conference on International Cyber Security

The 2025 Conference on International Cyber Security will be held in The Hague, Netherlands, on 4–5 November 2025, under the theme ‘Order, disorder, re-order? Geopolitics and the transformation of cyberspace.’

Global DPI Summit 2025

The Global Digital Public Infrastructure (DPI) Summit 2025 is scheduled for 4–6 November 2025 in Cape Town, South Africa, under the theme “DPI in Practice: Implementing Tomorrow’s Digital Society Today.’

LACIGF 2025

The Latin American and Caribbean Internet Governance Forum (LACIGF) 2025 will take place on 5–6 November 2025 in Córdoba, Argentina, with a welcome reception on 4 November. 



READING CORNER
AI and art feature

AI can now write, paint, and act. Does this devalue human craft and authenticity? Explore the debate on whether generative AI is a tool that frees creators or one that replaces them.

Weekly #235 Beyond the blip: What the AWS outage reveals about cloud resilience

 Logo, Text

17 – 24 October 2025


HIGHLIGHT OF THE WEEK

Beyond the blip: What the AWS outage reveals about cloud resilience

For a few hours on Monday, much of the internet flickered out of reach. What began as an issue in one Amazon Web Services (AWS) data centre — the US-East-1 region in Virginia — quickly cascaded into a global failure. A seemingly minor Domain Name System (DNS) configuration error triggered a chain reaction, knocking out the systems that handle traffic between servers. 

The root cause was identified as a failure in the DNS resolution for internal endpoints, particularly affecting DynamoDB API endpoints. (Sidenote: DynamoDB is a cloud database that stores information for apps and websites, while API endpoints are the access points where these services read or write that data. During the AWS outage, these endpoints stopped working properly, preventing apps from retrieving or saving information.)

Because so many websites, apps and services — from social media platforms and games to banking and government portals — rely on AWS, the outage affected homes, offices, and governments worldwide. 

AWS engineers rushed to isolate the fault, eventually restoring normal operations by late afternoon. But the damage had already been done. The outage exposed a fragile truth about today’s digital world: when one provider falters, much of the internet stumbles with it. An estimated one-third of the world’s online services run on AWS infrastructure.

 Person, Device, Grass, Lawn, Lawn Mower, Plant, Tool, machine, Wheel, Network, Face, Head

The incident was more than a momentary blip; it highlighted several systemic risks in today’s digital infrastructure. First, the outage underscored the global dependence on a small number of hyperscale cloud providers. This dependence acts as a single point of failure: a disruption within one provider can disrupt thousands of services relying on it. Secondly, the root cause, being a DNS resolution error, revealed how one component in a complex system can be the catalyst for massive disruption. Thirdly, despite cloud providers offering multiple ‘availability zones’ for redundancy, the event demonstrated that a fault in one critical region can still have worldwide consequences.

The lesson here is clear: as cloud computing becomes ever more central to the digital economy, resilience and diversification cannot be afterthoughts. Yet few true alternatives exist at AWS’s scale beyond Microsoft Azure and Google Cloud, with smaller rivals from IBM to Alibaba, and fledgling European plays, far behind.

IN OTHER NEWS THIS WEEK

Child safety online: The global reckoning continues

The global reckoning over kids’ online safety continues. The last few weeks have shown that governments are moving beyond guiding tech companies and are considering direct regulation. The latest example comes from New Zealand, where a bill will be introduced in parliament to restrict social-media access for children under 16, requiring platforms to conduct age verification before allowing use.

A landmark trial on child safety online has just been given a start date. In January 2026, the Los Angeles County Superior Court will hear a consolidated case bringing together hundreds of claims from parents and school districts against Meta, Snap, TikTok, and YouTube. Plaintiffs allege that these platforms are addictive and expose young people to mental health risks, while providing ineffective parental controls and weak safety features. Meta founder Mark Zuckerberg, Instagram head Adam Mosseri, and Snap CEO Evan Spiegel have been ordered to testify in person, despite the companies’ arguments that it would be burdensome. The judge emphasised that direct testimony from CEOs is crucial to assess whether the companies were negligent in failing to take steps to mitigate harm.

Online gaming platforms, especially those popular with children, are also being re-examined. The platform Roblox (which allows user-generated worlds and chats) has come under fire for failing to protect its youngest users. In the USA, for example, the Florida Attorney General has issued criminal subpoenas accusing Roblox of being ‘a breeding ground for predators’ for children. In the Netherlands, the platform is facing an investigation by child-welfare authorities into how it safeguards young users. In Iraq, the government has banned Roblox nationwide, citing “sexual content, blasphemy and risks of online blackmail against minors.” 

Social media and gaming aren’t the only fronts. AI chatbots are now under scrutiny for how they interact with minors. In Australia, the eSafety Commissioner has sent notices to four AI chatbot companies asking them to detail their child-protection steps — specifically, how they guard against exposure to sexual or self-harm material. 

Meanwhile, Meta has announced new parental-control measures: parents will be able to disable their teens’ private chats with AI characters, block specific bots, and view what topics their teens are discussing, though not full transcripts. These rules are expected to roll out early next year in the USA, UK, Canada and Australia. These changes follow criticism that Meta’s AI-character chatbots enabled flirtatious or age-inappropriate conversations with minors.

For youth, the digital world is a primary space for social, emotional, and cognitive development, shaped by the content and interactions they find there. This new reality requires parents to look beyond simple screen time to understand the nature of their children’s online experiences. It also sends a clear message to tech companies about accountability and challenges regulators to create rules that are both enforceable and adaptable to rapid innovation.


AI, content, and the future of search

As AI continues to reshape how people access and interact with information, governments and tech companies are grappling with the opportunities—and dangers—of AI-driven content and search tools. 

In Europe, the Dutch electoral watchdog recently warned voters against relying on AI chatbots for election information, highlighting concerns that such systems can inadvertently mislead citizens with inaccurate or biased content. Similarly, India proposed strict new IT rules requiring deepfakes and AI-generated content to be clearly labelled, aiming to curb misuse and increase transparency in the digital ecosystem.

At the same time, search engines—the traditional gateways to online knowledge—are experiencing a wave of innovation. OpenAI has unveiled its new browser, ChatGPT Atlas, which reimagines the way users interact with the web. Atlas introduces an ‘agent mode,’ a premium feature that can access a user’s laptop, click through websites, and explore the internet on their behalf, leveraging browsing history and user queries to provide guided, explainable results. Altman described it simply: ‘It’s using the internet for you.’ Two days later, Microsoft unveiled an equivalent offering—its Copilot Mode in Edge within the Microsoft Edge browser. The design, functions and timing were notably similar, underscoring how the major platforms are rapidly converging on this next-generation AI browser paradigm.

Meanwhile, traditional browser landscapes are also shifting under geopolitical pressures. In Russia, Apple has been directed to preinstall a Russian search engine by default on devices, signalling the increasing role of national regulation in shaping how users access information.
These developments arrive against a backdrop of broader calls for global caution on AI. The Superintelligence Statement, endorsed by leading researchers and technologists, urges careful oversight and governance of advanced AI systems to prevent unintended harms—echoing the concerns of regulators and governments worldwide.


Malware, spyware, and tensions

Recent developments in cybersecurity have underscored the growing sophistication of digital threats and the geopolitical tensions they generate. F5 Networks recently suffered a major breach involving a stealthy backdoor called BRICKSTORM, linked by cybersecurity firm Resecurity to the China-based threat actor UNC5221. The malware, a self-contained executable, targets F5’s widely used BIG-IP systems, allowing attackers to maintain persistent access, exfiltrate data, and move laterally across networks. With over 250,000 BIG-IP systems exposed online, the potential impact of this exploit is significant.

In a separate escalation, China has accused the USA of cyberattacks against its National Time Service Center, a critical infrastructure that maintains the country’s official time. According to China’s Ministry of State Security, the US National Security Agency allegedly exploited vulnerabilities in mobile messaging services between 2022 and 2024 to infiltrate NTSC systems, aiming to steal state secrets and map network infrastructure. China claims to have presented evidence of these actions, framing them as part of broader U.S. cyber operations worldwide.

Meanwhile, a landmark US federal court ruling has permanently barred the Israeli spyware company NSO Group from targeting WhatsApp users. The case relates to the 2019 Pegasus spyware incident, which compromised over 1,400 devices without user interaction. The injunction prohibits NSO from accessing WhatsApp’s systems, effectively restricting the company’s operations on the platform. While NSO maintains that the ruling does not affect its clients, WhatsApp emphasised that it now prevents the firm from targeting its users.

LAST WEEK IN GENEVA
 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

151st Assembly of the IPU

The 151st Assembly of the IPU took place in Geneva, Switzerland, on 19-23 October 2025. Under the theme ‘Upholding humanitarian norms and supporting humanitarian action in times of crisis,’ the Assembly held its general debate and reviewed progress on previous resolutions.

Discussions also addressed the protection of victims of illegal international adoption, considered amendments to the IPU Statutes and Rules, and set priorities for upcoming committee work. The meeting provided a platform for dialogue on humanitarian, democratic, and governance issues among national parliaments.

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th UN Conference on Trade and Development (UNCTAD16) took place from 20–23 October 2025 in Geneva, bringing together world leaders, ministers, and experts under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

Over four days and 40 high-level sessions, delegates discussed trade, investment, technology, and sustainability, setting UNCTAD’s direction for the next four years.

The opening ceremony featured UNCTAD Secretary-General Rebeca Grynspan, Swiss Federal Councillor Guy Parmelin, and Tatiana Valovaya, along with messages from Prime Minister Mia Amor Mottley, President José Ramos-Horta, Prime Minister Phạm Minh Chính, and UNGA President Annalena Baerbock.

A highlight was the keynote address by UN Secretary-General António Guterres and the launch of the Sevilla Forum on Debt, a new platform for dialogue on debt sustainability and innovation.


LOOKING AHEAD
 Person, Face, Head, Binoculars

The UN Convention against Cybercrime will be signed in Hanoi, Vietnam, on 25–26 October 2025. The two-day event will include a high-level opening and signing ceremony, co-chaired by Viet Nam’s Prime Minister and the UN Secretary-General, followed by plenary statements from member states and international organisations. A series of side events and roundtables will address topics such as AI-driven scams, online abuse, evidence collection in cryptocurrency investigations, and capacity-building for cybercrime prevention.

On 27 October, UNCTAD will host a webinar launching its Technical Note on Artificial Intelligence and Consumer Protection and a Checklist for consumer protection agencies deploying AI.

The dialogue will explore issues related to the interplay between AI, human agency, and human rights; ways to achieve safe, secure, and trustworthy AI; and the role of International Geneva in advancing the governance of such AI systems.

The Paris Peace Forum 2025 will take place on 29–30 October in Paris under the theme ‘New Coalitions for Peace, People, and the Planet.’ Five sessions will focus on digital and cyber issues, including cyber peace, digital media in conflict resolution, disinformation, multistakeholder leadership, and the launch of the Common Good Cyber Fund.

The AI for Good Impact Africa event will take place on 31 October in Johannesburg, coinciding with AI Expo Africa. Organised by ITU, it brings together innovators, policymakers, and stakeholders to showcase AI solutions for societal challenges, build local capacity, and promote international AI standards through keynotes, panels, pitching sessions, and hands-on workshops.



READING CORNER
2151228164

AI is reshaping the justice system with unprecedented efficiency, but true progress depends on whether humanity is ready to balance innovation with responsibility and ethical judgement.

Weekly #234 EU moves on kids’ social media: Verify, don’t ban

 Logo, Text

10 – 17 October 2025


HIGHLIGHT OF THE WEEK

EU moves on kids’ social media: Verify, don’t ban

EU ministers met in Horsens, Denmark (9–10 October), amid an intensifying debate on how young people should use social media. The Danish presidency tabled the Jutland Declaration, a political push for stronger protections that puts age verification at the centre of online safety for minors. Ministers endorsed firmer enforcement of the Digital Services Act (DSA), signalled support for interoperable, privacy-preserving age checks, and floated the idea of a ‘digital majority’ discussion, while stopping short of endorsing one uniform minimum age across the block.

The declaration argues that platforms accessible to minors must ensure ‘a high level of privacy, safety, and security’ and that effective age verification is ‘one of the essential tools’ to curb exposure to illegal or harmful content and manipulative design. It explicitly backs EU-wide solutions tied to the European Digital Identity (EUDI) Wallet, positioned as a way to verify age with minimal data disclosure, and calls out addictive features (infinite scroll, autoplay, streaks) and risky monetisation (certain loot boxes, micro-transactions) for tighter controls. The text also stresses ‘safety-by-design’ defaults, support for parents and teachers, and meaningful participation of children in the policy process.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Clothing, Footwear, Shoe

Two days later, ministers backed the Danish plan in part: countries rallied behind the common EU layer for age verification but resisted a single EU-wide age limit. The emerging compromise is to standardise ‘how to verify’ at the EU level while leaving ‘what age to set’ to national law, avoiding fragmentation of technical systems while respecting domestic choices. Pilots for the EU approach are expanding in several member states and align with the EUDI Wallet rollout due by the end of 2026.

Denmark also proposed a national ban on social media for under-15s, which sharpened the conversation. Several governments favoured stricter child-safety enforcement and robust age checks over outright prohibition. Still, Copenhagen’s initiative raised the political stakes and accelerated a broader European rethink of youth online protections.

Regulatory pressure is rising in parallel. Over the past week, the European Commission sent fresh DSA information requests to major platforms, including Snapchat, YouTube, Apple and Google, probing how they keep minors away from harmful content and how their age-assurance systems work. The probe follows the Commission’s final DSA guidelines on protecting minors issued in July, which spell out ‘appropriate and proportionate’ measures for services accessible to minors (Article 28(1) DSA), from default privacy safeguards to risk mitigation for recommender systems. Violations can lead to substantial fines.

The policy trade-offs now come into clearer focus. Effectiveness hinges on high-assurance age checks that are hard to spoof yet privacy-preserving enough to avoid building new identity honeypots. The EUDI Wallet architecture promises selective disclosure, proving you’re over 16 without handing over full identity, if implemented with strict data-minimisation and independent certification. Feasibility depends on broad industry uptake, SME-friendly compliance, and cross-border interoperability, so a teen’s age attestation works the same in Lisbon and Ljubljana, for instance. Rights impacts will be judged on due process, appeal mechanisms, and transparency of any access restrictions, especially where national rules set higher age bars than platform terms.

Globally, lawmakers are testing bolder moves with mixed feasibility. Australia’s incoming ban on social media for under-16s illustrates the enforcement dilemma: platforms aren’t required to verify age; instead, they must infer it using AI and behavioural signals, an approach Google told a parliamentary hearing will be ‘extremely difficult’ to police and may not make children safer. The EU’s diverging bet is that verifiable, privacy-respecting age checks, combined with safety-by-design and content rules, can reduce harm without a blanket prohibition.

What to watch next is execution: the Commission mandate to build the EU layer for age verification; publication of impact assessments that weigh safety gains against privacy risks; and the expansion of national pilots toward the EUDI Wallet’s end-2026 deadline. In the meantime, DSA enforcement actions and any national moves like Denmark’s proposed under-15 ban will test how far Europe is willing to go to reduce minors’ exposure to harmful content and addictive design without overreaching on surveillance or excluding young people from legitimate online participation.

Why this matters

A common EU age-verification layer paired with national discretion on age limits could be Europe’s most consequential shift in minors’ online safety since the DSA: it promises fewer loopholes for harmful content and design, clearer obligations for platforms, and a privacy-by-design path via the EUDI Wallet. Whether it succeeds will depend on rigorous technical standards, credible oversight, and careful calibration between protection, privacy, and children’s rights to information and participation.

IN OTHER NEWS THIS WEEK

Chips and sovereignty: Controls tighten while orders surge

ASML heads into earnings on a wave of multi-billion-dollar AI ‘megadeals,’ with analysts expecting a sharp pickup in new bookings as customers expand 2026+ capacity, another sign that the datacenter build-out is reshaping chip-equipment demand. At the same time, China is reportedly tightening customs checks on Nvidia’s China-market AI processors at major ports, underscoring how export controls and counter-measures are now a permanent feature of the supply chain. In Europe, The Hague took the unusual step of invoking the Goods Availability Act to steady governance at Nexperia, citing risks to economic security. And Taipei downplayed the impact of Beijing’s rare-earth curbs, saying Taiwan can source most needs elsewhere. The throughline: expanding orders on one end, more state intervention and scrutiny on the other.


New guardrails: From California chatbots to EU–OpenAI talks

Regulators are sharpening the rulebook around AI and platforms. California adopted the first dedicated ‘AI chatbot safety’ law, adding disclosure and safety expectations for conversational systems. In the UK, competition authorities moved against Google over market dominance questions, signalling continued antitrust heat on Big Tech. Brussels, for its part, opened a structured dialogue with OpenAI on fair and transparent development practices, while Tokyo pushed a domestic-AI drive framed as a national-security priority. Together, the steps point to a patchwork tightening: safety standards, competition remedies, and security-led industrial policy advancing in parallel.


AI infrastructure goes global: Public–private builds accelerate

Big checks and unusual pairings defined infrastructure news. Google pledged USD 15 billion to supercharge India’s AI stack, compute, subsea capacity, and developer support, aiming to broaden access and local capability. In a separate lane, Google and the World Bank announced a partnership to help governments stand up AI-enabled public infrastructure (think service delivery and data platforms). And in the Southern Cone, Brazil said construction on a TikTok data centre will start within six months, a bet on localisation amid rising scrutiny of where data lives and who can access it. The momentum suggests AI and platform infrastructure are becoming tools of development policy, not just corporate capex.


Frontier science: A teleportation step that matters

Oxford researchers reported a milestone in quantum teleportation, improving the reliability of moving quantum states between distant nodes. While the phrase sounds sci-fi, the advance is about plumbing: lower-error links are what future quantum networks will need for secure communications and distributed computing. In practical terms, this kind of lab-to-prototype progress is what will determine whether quantum networking can scale beyond carefully curated experiments.

LOOKING AHEAD
 Person, Face, Head, Binoculars

16th Session of the UN Conference on Trade and Development (UNCTAD16)

The 16th Session of the UN Conference on Trade and Development (UNCTAD16) will take place from 20 to 23 October 2025 in Geneva. Hosted by Switzerland, it will gather heads of state, ministers, international organisations, business leaders, academics, and civil society under the theme ‘Shaping the future: Driving economic transformation for equitable, inclusive and sustainable development.’

With over 40 high-level sessions, the conference will delve into trade, investment, technology, and sustainable growth. A key outcome will be defining UNCTAD’s mandate and policy direction for the next four years.

Global Cyber Conference 2025 

The Global Cyber Conference returns for its 4th edition, once again gathering senior cybersecurity stakeholders, decision-makers, public authorities, and academia from across the globe. It provides a robust networking and learning platform to gain a shared understanding of what must be done to strengthen cyber resilience. The program is now structured around four main steps: Global Risks, Governance, Hands-on Resilience, and Future-ready Strategies. Each step is covered in depth to offer attendees comprehensive knowledge, practical use cases, and critical tools to effectively address the challenges facing their organisations.

Singapore International Cyber Week

Singapore International Cyber Week (SICW) returns to the Sands Expo and Convention Centre on 20–23 October 2025, marking its milestone 10th edition under the theme “Shaping the Next Era of Global Cybersecurity.” Organised by Singapore’s Cyber Security Agency, SICW is the Asia-Pacific’s most established policy forum, bringing together ministers, regulators, industry leaders and researchers for high-level dialogues, bilateral meetings and capacity-building sessions; it runs alongside the GovWare Conference & Exhibition (21–23 Oct), the anchor trade event drawing 13,000+ participants. If your work touches cyber diplomacy, norms, critical infrastructure or public–private cooperation, this is the region’s key week to watch and engage.

Diplo will be present at this conference through the Geneva Dialogue on Responsible Behaviour in Cyberspace, an initiative launched in 2018 by the Swiss Federal Department of Foreign Affairs (FDFA) and implemented by DiploFoundation, with the support of the Republic and State of Geneva, C4DT, and UBS. The Geneva Dialogue is organising a session on 21 October, which will present the Geneva Manual on Responsible Behaviour in Cyberspace, exploring the evolving roles and responsibilities of all stakeholders in implementing cyber norms and confidence-building measures for critical infrastructure protection. It draws on the Geneva Manual’s latest chapter, which translates high-level commitments into practical guidance for action in today’s complex threat environment.


LAST WEEK IN GENEVA and at the UN

Geneva Peace Week 2025 | Geneva

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit | Geneva

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.

WSIS+20 review process | Online and New York

This has been a busy week for those involved in or following the WSIS+20 review process. On Monday and Tuesday, the co-facilitator hosted online consultations with stakeholders and member states, who were invited to provide comments on the zero draft (the very first version of the WSIS+20 review outcome document). On Wednesday, the second preparatory meeting offered another opportunity for member states and observers to share their views and expectations on both the zero draft and the overall review process. And starting informal negotiations started on Thursday; they continue today (Friday), as well as on Monday and Tuesday next week. As these discussions are unfolding, we invite you to take a look at the written inputs submitted in response to the zero draft; they may give you a sense of what to expect during the negotiations. 

You can also follow the WSIS+20 review process – and dive deep into its background – on our dedicated page on the Digital Watch Observatory


READING CORNER
Wmv3c0xA 650 312

Why does form matter? Aldo Matteucci explores how shapes – of words, ships, and states – carry meaning. From rhetoric to Chinese junks to the modern border, structure tells its own story.

BLOG featured image 2025 120

When did diplomacy start? Earlier than we think. We don’t know the exact moment diplomacy began, and we probably never will. But we can say, with high

Smart cities feature

Smart cities promise efficiency but risk surveillance and algorithmic bias. Discover how we can build human-centered cities where AI serves people, not just systems.

Cities and tech

They don’t talk treaties; they talk APIs. Discover how tech ambassadors are navigating the complex relationship between cities and big tech.

Discover the surprising link between streaming and statecraft. This analysis breaks down how Netflix content influences foreign policy, cultural diplomacy, and global power structures.

AI investments profitability business roadmap OpenAI Microsoft ChatGPT scalability

Billions chase AI’s promise while profits hide in the server room, drowned by power bills, depreciation, and unrealistic goals.

Lettre d’information du Digital Watch – Numéro 103 – septembre 2025

Rétrospective septembre 2025

Alors que l’AGNU80 mettait l’accent sur l’IA et la coopération numérique, l’attention mondiale s’est tournée vers la manière dont la technologie remodèle la diplomatie, la démocratie et le pouvoir.

Cette édition vous présente nos meilleures analyses et actualités issues du domaine numérique, des débats sur l’IA open source à la crise d’identité croissante des réseaux sociaux.

Pleins feux sur l’AGNU80 : Les dirigeants mondiaux placent l’IA et la coopération numérique au cœur de la diplomatie.

L’impératif de l’open source : Pourquoi l’ouverture devient un atout stratégique dans la course à l’IA.

La montée en puissance de l’IA :  À mesure que les réseaux sociaux deviennent plus artificiels, les plateformes sont confrontées à une crise d’authenticité.

TikTok à l’américaine : Un changement d’image sous le feu des critiques, reflet de tensions plus profondes entre confiance et contrôle.

Puces et souveraineté :  De la mondialisation à l’autonomie prudente dans la course aux semi-conducteurs.

Au Népal, Discord défie l’interdit : Quand une application bannie devient l’instrument d’une démocratie inattendue.

Le terrain de jeu numérique : Les gouvernements évaluent les restrictions et les couvre-feux pour les jeunes utilisateurs en ligne.

Le mois dernier à Genève :  Les temps forts des événements qui façonnent la gouvernance numérique internationale..



INTELLIGENCE ARTIFICIELLE

Le Dialogue mondial sur la gouvernance de l’IA a été lancé afin de favoriser des discussions ouvertes et inclusives sur des questions telles que la sécurité et la fiabilité de l’IA, la fracture numérique, l’éthique, les droits de l’Homme, la transparence, la responsabilité, l’interopérabilité et le développement open source.

Le Secrétaire général des Nations Unies a ouvert les candidatures pour un comité scientifique international indépendant sur l’IA composé de 40 membres, mandaté dans le cadre du Pacte numérique mondial pour fournir des évaluations annuelles fondées sur des données probantes concernant les opportunités, les risques et les impacts de l’IA au Dialogue mondial sur la gouvernance de l’IA et à l’Assemblée générale.

Une coalition d’experts et de dirigeants mondiaux a lancé le Global Call for AI Red Lines, une initiative qui préconise des lignes rouges claires pour régir le développement et le déploiement de l’IA.

L’Albanie a présenté le premier fonctionnaire public au monde alimenté par l’IA, nommé Diella. Nommé pour superviser les marchés publics, le ministre virtuel représente une tentative d’utiliser la technologie elle-même pour créer un gouvernement plus transparent et plus efficace, dans le but de garantir des procédures « 100 % incorruptibles ».

Le Kazakhstan va établir un ministère de l’Intelligence artificielle et du Développement numérique afin de réaliser son objectif de faire du pays une nation entièrement numérique d’ici trois ans, dans le cadre de la stratégie « Digital Kazakhstan » à venir.

L’Italie est devenue le premier pays de l’UE à adopter une loi nationale sur l’IA, introduisant des règles détaillées pour régir le développement et l’utilisation des technologies d’IA dans des secteurs clés tels que la santé, le travail et la justice.

Le gouvernement mexicain élabore actuellement une loi visant à réglementer l’utilisation de l’IA dans le doublage, l’animation et les voix off afin d’empêcher le clonage vocal non autorisé et de protéger les droits créatifs.
L’UE est sur le point de dévoiler sa « stratégie d’application de l’IA » afin de promouvoir l’IA locale en tant qu’atout stratégique pour la compétitivité, la sécurité et la résilience, réduisant ainsi la dépendance vis-à-vis des technologies américaines et chinoises.

TECHNOLOGIES

Les États-Unis, le Japon et la Corée du Sud ont organisé des réunions trilatérales à Séoul et Tokyo afin de faire progresser la coopération quantique, en mettant l’accent sur la sécurisation des écosystèmes contre les menaces cybernétiques, physiques et liées à la propriété intellectuelle.
Les États-Unis et le Royaume-Uni ont signé un accord de prospérité technologique afin de renforcer leur collaboration dans le domaine des technologies de pointe, en insistant particulièrement sur l’intelligence artificielle, la technologie quantique et les fondements sécurisés nécessaires à l’innovation future.

Des chercheurs de l’université de Pennsylvanie ont démontré que les réseaux quantiques et classiques peuvent partager l’infrastructure fibre optique existante en utilisant le protocole Internet standard, une avancée majeure qui a de vastes implications pour la gouvernance, les infrastructures et l’avenir des sociétés numériques.

Les ministres européens ont signé la déclaration de la Semicon Coalition, appelant à l’adoption d’une loi européenne sur les puces électroniques 2.0 afin de renforcer la résilience, l’innovation et la compétitivité dans le domaine des semi-conducteurs grâce à la collaboration, à l’investissement, au développement des compétences, à la durabilité et à des partenariats mondiaux.
Les États-Unis ont proposé de ne produire que la moitié des puces américaines à Taïwan et de transférer le reste aux États-Unis, mais Taïwan a rejeté cette idée, affirmant qu’elle n’avait jamais fait partie des discussions officielles.

INFRASTRUCTURE

Meta a annoncé le lancement de Candle, un nouveau système de câbles sous-marins conçu pour améliorer la connectivité numérique en Asie de l’Est et du Sud-Est. Ce réseau de 8 000 kilomètres reliera le Japon, Taïwan, les Philippines, l’Indonésie, la Malaisie et Singapour d’ici 2028, offrant une capacité record de 570 térabits par seconde (Tbps).

CYBERSÉCURITÉ

La Chine a promulgué l’une des lois les plus draconiennes au monde en matière de signalement des incidents de cybersécurité, obligeant les principaux fournisseurs d’infrastructures et tous les opérateurs de réseaux à signaler les incidents graves dans l’heure qui suit leur constatation.

Le Brésil est sur le point d’adopter sa première loi nationale sur la cybersécurité, le Cadre juridique de la cybersécurité, qui créera une Autorité nationale de cybersécurité chargée de centraliser la surveillance et de renforcer la protection des citoyens et des entreprises.

Le groupe cybercriminel Radiant a renoncé à ses tentatives d’extorsion à l’encontre des écoles Kido et a présenté ses excuses, affirmant que toutes les données relatives aux enfants avaient été supprimées. Cependant, les experts doutent de la sincérité de cette démarche.

Le brasseur japonais Asahi Group Holdings a interrompu la production de son usine principale à la suite d’une cyberattaque qui a provoqué des défaillances majeures du système.

L’ Australie a publié des directives réglementaires concernant l’interdiction imminente de l’utilisation des réseaux sociaux par les moins de 16 ans, qui entrera en vigueur le 10 décembre 2025. Ces directives exigent des plateformes qu’elles vérifient l’âge des utilisateurs, suppriment les comptes des mineurs et bloquent toute tentative de réinscription. L’interdiction actuelle concerne déjà Facebook, TikTok, YouTube et Snapchat. La responsable de l’eSafety Commissioner australien, Julie Inman Grant, a adressé une lettre à 16 autres entreprises, dont WhatsApp, Reddit, Twitch, Roblox, Pinterest, Steam, Kick et Lego Play, afin qu’elles « évaluent elles-mêmes » si elles sont concernées par cette interdiction.

Le Premier ministre grec Kyriakos Mitsotakis a indiqué que la Grèce pourrait envisager d’interdire l’utilisation des réseaux sociaux aux enfants de moins de 16 ans.

Les législateurs français proposent de nouvelles règles visant à limiter l’utilisation des réseaux sociaux par les adolescents, notamment un couvre-feu nocturne automatique désactivant les comptes des 15-18 ans entre 22 h et 8 h afin de répondre aux préoccupations en matière de santé mentale.

OpenAI a lancé une version spécialisée de ChatGPT adaptée aux adolescents, intégrant une technologie de prédiction de l’âge afin de restreindre l’accès à la version standard aux utilisateurs de moins de 18 ans. La société a également introduit de nouveaux contrôles parentaux, offrant aux familles une meilleure supervision de l’utilisation de la plateforme par leurs adolescents.
Meta développe actuellement des comptes Facebook et Messenger spécifiques aux adolescents, avec des paramètres de confidentialité et des contrôles par défaut plus stricts, afin de créer un environnement en ligne plus sûr et mieux adapté à leur âge.

ÉCONOMIE

Apple a demandé à la Commission européenne d’abroger la loi sur les marchés numériques (DMA), arguant qu’elle l’oblige à choisir entre affaiblir la sécurité de ses appareils ou priver les utilisateurs européens de certaines fonctionnalités, citant notamment le retard pris dans le lancement de services tels que la traduction en direct, la duplication d’écran de l’iPhone et les outils de localisation améliorés.

L’ Union européenne et l’Indonésie ont finalisé un accord de partenariat économique global et de protection des investissements, axé sur la technologie, la numérisation et la durabilité. Cet accord élimine les droits de douane sur 98,5 % des échanges commerciaux, élargit l’accès au marché et garantit l’approvisionnement en matières premières essentielles pour les industries stratégiques.

Les Émirats arabes unis ont signé l’accord multilatéral entre autorités compétentes dans le cadre du CARF, dont la mise en œuvre est prévue d’ici 2027 afin de permettre le partage automatique des données fiscales relatives aux cryptomonnaies et de renforcer la surveillance du secteur et la transparence mondiale.La Banque populaire de Chine a ouvert un centre numérique dédié au RMB à Shanghai afin d’étendre son utilisation à l’échelle mondiale et de renforcer les services des marchés financiers.

RH

Le Comité européen de la protection des données (EDPB) a adopté des directives clarifiant l’interaction entre la loi sur les services numériques (DSA) et le règlement général sur la protection des données (RGPD). L’objectif est d’assurer la cohérence des règles relatives à des problématiques telles que la transparence des systèmes de recommandation, la protection des mineurs et la publicité en ligne.

L’autorité chinoise de régulation du cyberespace a proposé que les principales plateformes en ligne mettent en place des comités de surveillance indépendants composés d’experts afin de contrôler les pratiques et la sécurité en matière de données, toute non-conformité pouvant entraîner l’intervention des autorités provinciales.

Le Ghana a lancé une campagne nationale d’un an sur la protection de la vie privée afin de sensibiliser le public et de renforcer sa confiance, complétée par des initiatives professionnelles telles que l’Association ghanéenne des professionnels de la protection de la vie privée et la reconnaissance des délégués à la protection des données certifiés.
La plateforme de médias sociaux Discord a signalé une violation de données causée par un fournisseur de services tiers compromis, exposant les informations personnelles des utilisateurs qui avaient contacté ses équipes d’assistance et de confiance et de sécurité.

JURIDIQUE

La Commission européenne a infligé une amende de près de 3,5 milliards de dollars à Google pour avoir abusé de sa position dominante dans le domaine de la publicité numérique en favorisant sa propre plateforme AdX dans les outils de diffusion et d’achat d’annonces, enfreignant ainsi les règles antitrust de l’UE.

La start-up spécialisée dans l’intelligence artificielle, Anthropic, a accepté de verser 1,5 milliard de dollars pour régler un procès en matière de droits d’auteur l’accusant d’utiliser des livres piratés pour former son chatbot Claude AI.

Amazon a accepté de verser 2,5 milliards de dollars pour régler les accusations de la FTC selon lesquelles elle aurait inscrit de manière trompeuse 35 millions de clients à Prime sans leur consentement explicite et aurait délibérément rendu la résiliation difficile.

Elon Musk, via sa société xAI, poursuit OpenAI pour détournement présumé de technologie. De son côté, OpenAI demande au tribunal de classer l’affaire, qu’elle juge sans fondement et relevant du harcèlement persistant de Musk.

Apple et OpenAI ont demandé à un juge fédéral de rejeter l’allégation de Musk selon laquelle ils se seraient entendus pour désavantager le chatbot Grok de xAI, arguant que leur partenariat n’est pas exclusif et que xAI n’a démontré aucun préjudice concurrentiel réel.
Le Tribunal de l’Union européenne a donné raison à Meta et TikTok dans leur contestation de la taxe de surveillance prévue par la loi européenne sur les services numériques, jugeant que le prélèvement de 0,05 % avait été calculé de manière inéquitable et imposait une charge financière disproportionnée aux entreprises.

SOCIOCULTUREL

Après avoir brièvement interdit les réseaux sociaux, le Népal a levé les restrictions. Les Népalais se sont servis de Discord pour élire leur nouveau Premier ministre.

Un décret du président américain Donald Trump a ouvert la voie à une nouvelle société américaine qui détiendra 80 % des parts de TikTok, laissant ByteDance et ses investisseurs chinois avec une participation minoritaire inférieure à 20 %.

Le gouvernement britannique a annoncé son intention de rendre obligatoire l’identification numérique pour prouver le droit au travail d’ici la fin de la législature actuelle, prévue au plus tard en 2029.

Un tribunal néerlandais a statué que Meta doit permettre aux utilisateurs de Facebook et d’Instagram de définir un flux chronologique permanent comme flux par défaut, en rendant cette option facilement accessible et en la conservant lors des redémarrages de l’application.

YouTube va rétablir les comptes précédemment bannis pour avoir diffusé à plusieurs reprises des informations erronées sur la COVID-19 et l’élection présidentielle américaine de 2020, marquant ainsi un nouveau recul de ses politiques de modération.
Meta et OpenAI ont lancé des applications de réseaux sociaux proposant des flux de vidéos générées par l’IA, ce qui soulève des inquiétudes quant à la qualité de l’IA.

DÉVELOPPEMENT

Le PNUD lancera une Académie gouvernementale sur la blockchain en 2026 afin de former les fonctionnaires à la blockchain, à l’IA et aux technologies émergentes, soutenant ainsi la croissance économique axée sur la technologie et le développement durable.
Le Guide 2025 des plateformes de participation numérique a été publié afin d’aider les gouvernements et la société civile à concevoir et à gérer des plateformes numériques qui renforcent la transparence et l’engagement civique.


La technologie était omniprésente lors de l’Assemblée générale des Nations unies de cette année. Que ce soit lors du débat général, des événements parallèles sur la prospérité numérique ou du lancement d’un nouveau dialogue sur la gouvernance de l’IA, les gouvernements et les parties prenantes ont été confrontés à la question urgente de savoir comment garantir que la transformation numérique serve l’humanité. Voici les moments clés.

Journée de la coopération numérique : des principes à la mise en œuvre dans la gouvernance numérique mondiale

Le 22 septembre, le Bureau des Nations Unies pour les technologies numériques et émergentes (ODET) a organisé une Journée de la coopération numérique, marquant le premier anniversaire du Pacte numérique mondial. Cet événement a réuni des dirigeants issus des gouvernements, des entreprises, du monde universitaire et de la société civile afin de discuter de la manière de passer de la définition de principes à la mise en œuvre de la gouvernance numérique. Les discussions ont porté sur les économies numériques inclusives, la gouvernance de l’IA et les infrastructures publiques numériques, avec des sessions consacrées à la vie privée, aux droits de l’Homme dans la gouvernance des données et au rôle de la technologie dans le développement durable et l’action climatique. Les panels ont également exploré l’impact de l’IA sur les arts et l’innovation, tandis que les tables rondes ont mis en évidence les stratégies pour une utilisation responsable et équitable de la technologie. La Journée de la coopération numérique est appelée à devenir une plateforme annuelle permettant d’examiner les progrès accomplis et de relever les nouveaux défis de la coopération numérique internationale.

Digital@UNGA 2025 : Le numérique au service du bien commun – Pour les personnes et la prospérité

Le 23 septembre, l’Union internationale des télécommunications (UIT) et le Programme des Nations Unies pour le développement (PNUD) ont organisé Digital@UNGA 2025 : Le numérique au service du bien commun – Pour les personnes et la prospérité. Cet événement phare a mis en avant les technologies numériques comme outils d’inclusion, d’équité et d’opportunité. Tout au long de la semaine, des sessions parallèles ont exploré les thèmes de la confiance, des droits et de la connectivité universelle, tandis que des événements annexes ont examiné des questions allant de l’IA pour les ODD et l’identité numérique aux infrastructures vertes, aux systèmes d’alerte précoce et à la connectivité spatiale. L’initiative visait à présenter les outils numériques comme un moteur pour les soins de santé, l’éducation et l’autonomisation économique, et à inspirer l’action et le dialogue en faveur d’un avenir numérique équitable et stimulant pour tous.

Débat du Conseil de sécurité sur l’IA

Le Conseil de sécurité des Nations unies a organisé un débat de haut niveau sur l’intelligence artificielle, soulignant le potentiel prometteur de cette technologie et les risques urgents qu’elle représente pour la paix et la sécurité. Le débat, présidé par le président de la République de Corée, Lee Jae Myung, a mis en évidence une reconnaissance commune du fait que l’intelligence artificielle offre d’énormes avantages, mais que sans une coopération et une gouvernance mondiales solides, elle pourrait creuser les divisions, déstabiliser les sociétés et remodeler la guerre de manière dangereuse.

The launch of the Global Dialogue on AI Governance

Les hauts dirigeants ont souligné comment l’IA pouvait stimuler la croissance économique et le développement, en particulier dans les pays du Sud, tandis que les discussions en plénière ont permis aux parties prenantes de présenter leurs points de vue sur la mise en place d’une gouvernance internationale de l’IA agile, réactive et inclusive pour l’humanité. Un représentant des jeunes a clôturé la session en soulignant l’intérêt des jeunes générations à façonner l’avenir de l’IA.

Le dialogue mondial sur la gouvernance de l’IA a pour mission, comme l’a décidé l’Assemblée générale des Nations unies en août dernier, de faciliter des discussions ouvertes, transparentes et inclusives sur la gouvernance de l’IA. La première réunion du dialogue est prévue en 2026, en marge du sommet « AI for Good » à Genève.

Lancement d’un appel à candidatures pour un Comité scientifique international indépendant sur l’IA

Le Secrétaire général des Nations Unies a lancé un appel à candidatures ouvert pour rejoindre le Panel scientifique international indépendant sur l’intelligence artificielle. Approuvé par les États membres en septembre 2024 dans le cadre du Pacte numérique mondial, ce panel composé de 40 membres fournira des évaluations scientifiques fondées sur des preuves concernant les opportunités, les risques et les impacts de l’IA. Ses travaux aboutiront à un rapport de synthèse annuel, pertinent sur le plan politique mais non prescriptif, qui sera présenté au Dialogue mondial, ainsi qu’à deux mises à jour par an au maximum afin de collaborer avec l’Assemblée générale en séance plénière. À l’issue de l’appel à candidatures, le Secrétaire général recommandera 40 membres qui seront nommés par l’Assemblée générale.

Débat général de la 80e session de l’AGNU

Le débat général s’est ouvert le 23 septembre sur le thème « Mieux ensemble : 80 ans et plus au service de la paix, du développement et des droits de l’Homme ». Si les dirigeants ont abordé un large éventail de défis mondiaux, la gouvernance du numérique et de l’IA a été une préoccupation récurrente.

La technologie doit rester au service de l’humanité, et non son maître. Les débats ont souligné la nécessité d’aligner les changements technologiques rapides sur la gouvernance mondiale, les pays appelant à une coopération internationale renforcée et à des approches responsables en matière de développement et d’utilisation des technologies. Les délégations ont souligné que les technologies numériques doivent servir l’humanité – en favorisant le développement, les droits de l’homme et la démocratie – tout en mettant en garde contre les risques croissants posés par l’utilisation abusive de l’IA, la désinformation, la guerre hybride, les cybermenaces et la gouvernance de l’exploitation des minéraux critiques. Les États membres ont exprimé à la fois leur optimisme et leurs préoccupations : ils ont appelé à une gouvernance éthique, centrée sur l’humain et responsable de l’IA, à des garanties plus solides pour la paix et la sécurité, ainsi qu’à des règles et des normes éthiques pour gérer les risques, y compris dans les applications militaires.

Plusieurs déclarations ont appelé à la mise en place d’un cadre mondial pour l’IA, ainsi qu’à une coopération numérique inclusive, à l’accélération des transferts de technologie et à des investissements dans les infrastructures, l’alphabétisation et le développement des talents. Plusieurs dirigeants ont salué les nouveaux mécanismes relatifs à l’IA mis en place par l’Assemblée générale des Nations unies.

Parallèlement à ces mises en garde, les gouvernements ont souligné le potentiel des technologies numériques pour le développement, la santé, l’éducation, la productivité et la transition vers les énergies vertes. Les déclarations ont souligné l’importance de l’inclusion, de l’accès équitable, de la connectivité, de l’alphabétisation numérique et du renforcement des capacités, en particulier pour les pays en développement, notant que l’IA peut stimuler l’autonomie économique et la prospérité à long terme si elle est gérée de manière responsable. Les délégations ont également souligné la nécessité de s’attaquer activement à la fracture numérique par des investissements dans les infrastructures, les compétences et le transfert de technologies, beaucoup soulignant que les avantages de cette nouvelle ère doivent être partagés équitablement entre tous.

Un thème récurrent était que pour combler les fossés technologiques et sociaux, il fallait un multilatéralisme mature et une coopération internationale renforcée. Les intervenants ont averti que la disruption numérique creusait les fossés géopolitiques, les petits pays et les pays en développement exigeant d’avoir leur mot à dire dans l’élaboration des nouveaux régimes de gouvernance. Certains ont également souligné que la promotion de technologies sûres, fondées sur les droits et centrées sur l’humain, la protection contre la cybercriminalité et la gestion de l’influence des entreprises technologiques mondiales étaient essentielles pour la stabilité mondiale.

D’autres ont appelé à la mise en place de garde-fous universels, de normes internationales et de nouveaux cadres pour faire face aux risques liés à la cybercriminalité, à la désinformation, à la répression, à la guerre hybride et à la santé mentale des jeunes.

Les discussions ont mis en évidence un point commun : si l’innovation numérique offre des opportunités extraordinaires en matière de développement, d’inclusion et de croissance, ses risques exigent des normes communes, une coopération mondiale et un engagement en faveur de la dignité humaine.

Vue d’ensemble : Vous trouverez une couverture complète de la 80e session de l’AGNU sur notre page web dédiée.

L’importance stratégique de l’IA open source

Le virage open source de cette année est probablement le développement le plus important dans le domaine de l’IA depuis le lancement de ChatGPT en novembre 2022. Le 20 janvier, DeepSeek a publié son système de raisonnement open source, un « moment Spoutnik de l’IA », selon les termes de Marc Andreessen. Puis, le 23 juillet 2025, l’administration Trump a fait de l’open source une priorité stratégique des États-Unis dans son document « Winning the Race: America’s AI Action Plan » (Gagner la course : le plan d’action américain en matière d’IA).

Ce changement d’orientation en matière d’IA a été contre-intuitif. Les entreprises chinoises ont toujours privilégié les logiciels propriétaires, et les républicains ont rarement été des champions de l’open source. Pourquoi ces deux puissances ont-elles changé de cap ? Parce que l’open source est passé d’une préférence idéologique à une priorité stratégique. La logique est simple : les acteurs doivent s’adapter à la vague de l’open source ou risquer de voir les normes mondiales en matière d’IA pencher de manière décisive en faveur de leurs rivaux.

Quels sont les atouts de l’IA open source ?

L’ IA open source s’est imposée comme une force puissante, avec des atouts en termes de rapidité, de coût, de motivation, d’intégration et d’efficacité.

Sa rapidité provient du développement collectif : des millions de modèles sont constamment testés et améliorés par une communauté mondiale, ce qui permet une innovation beaucoup plus rapide que dans les laboratoires fermés des entreprises.

Le coût est un autre avantage, car les dépenses sont réparties entre les contributeurs et les entreprises, ce qui réduit les obstacles financiers et permet de se concentrer davantage sur des architectures plus intelligentes que sur la puissance de calcul brute.

La motivation des jeunes développeurs stimule également le progrès, car les écosystèmes ouverts attirent les talents en quête d’objectifs, d’apprentissage et de collaboration.

L’ intégration est plus facile dans les systèmes ouverts : leur transparence et leur adaptabilité les rendent mieux adaptés à l’intégration de l’IA dans les industries, l’éducation et les flux de travail, alimentant ainsi un écosystème diversifié d’outils et d’agents.

Enfin, l’open source fait preuve d’une grande efficacité. Des modèles plus petits et bien conçus, comme Mistral 7B, peuvent égaler ou surpasser les plus grands, réduisant ainsi les exigences matérielles et rendant l’IA avancée largement accessible.

Le paradigme ascendant de l’open source

Nous assistons actuellement à un changement majeur vers l’acceptation de l’IA open source, considérée non seulement comme éthiquement favorable, mais aussi, et surtout, comme une solution stratégiquement supérieure pour l’avenir de l’IA. L’ ouverture l’emporte non pas parce qu’elle représente un idéal moral, mais parce qu’elle offre une interopérabilité, une résilience et une innovation supérieures à grande échelle. Le passage à l’IA open source laisse espérer que les valeurs sociétales pourront s’aligner sur les intérêts des entreprises.

Ce texte est adapté de l’analyse de Jovan Kurbalija intitulée « The strategic imperative of open source AI » (L’impératif stratégique de l’IA open source). Veuillez lire l’original ci-dessous.

The strategic imperative of open source
www.diplomacy.edu

This year, open-source AI transformed from an ideological preference into a strategic imperative, a shift echoing a clear lesson from digital history: open systems win. Just as the open protocols of the internet and the collaborative Linux operating system outcompeted closed, proprietary rivals, today’s open AI models are set to dominate. Openness is no longer just a principle; it is the winning strategy.

L’essor de l’IA : lorsque les réseaux sociaux deviennent plus artificiels

Le 25 septembre, Meta a discrètement lancé Vibes, un nouveau flux de vidéos courtes dans l’application Meta AI, entièrement alimenté par l’IA. Plutôt que de mettre en avant de véritables créateurs ou du contenu amateur, le flux est construit autour de contenu synthétique.

Le 30 septembre, OpenAI a dévoilé Sora, une application complémentaire centrée sur des vidéos courtes créées par l’IA, avec des fonctionnalités « caméo » permettant aux utilisateurs d’insérer leur propre visage (avec leur autorisation) dans des scènes générées.

De l’extérieur, Vibes et Sora ressemblent à des copies concurrentes de TikTok ou Reels, à la différence que l’ensemble de leur contenu est artificiel.

Il s’agit des premières sources dédiées à ce qui a été officiellement qualifié d’« AI slop ». Cette expression, ajoutée au Cambridge Dictionary en juillet 2025 et définie comme « contenu sur Internet de très mauvaise qualité, en particulier lorsqu’il est créé par l’IA », résume parfaitement le cœur du problème.

Dans le monde technologique, les réactions ont varié entre la perplexité et l’inquiétude. Car si le lancement d’un nouveau produit de réseau social n’a rien de radical, la création d’une plateforme dont l’ensemble de l’écosystème vidéo est synthétique, dépourvu de toute étincelle humaine, est tout autre chose.

 Book, Comics, Publication, Person, Face, Head

Pourquoi est-ce préoccupant ? Parce qu’il brouille la frontière entre le réel et le factice, rendant difficile de se fier à ce que l’on voit. Il peut reproduire le travail des créateurs sans leur autorisation et inonder les flux d’actualités de vidéos superficielles et dénuées de sens qui attirent l’attention mais n’apportent que peu de valeur ajoutée. Les algorithmes exploitent les préférences des utilisateurs, tandis que des fonctionnalités telles que les caméos synthétiques peuvent être utilisées à des fins d’intimidation ou d’usurpation d’identité. Il convient également de noter que les clips générés par l’IA manquent généralement d’histoires et d’émotions humaines, ce qui nuit à leur authenticité.

Quelle est la suite ? En fin de compte, cette transition vers les contenus générés par l’IA soulève une question philosophique : quel est l’objectif de nos espaces numériques communs ?

À mesure que nous progressons, il serait peut-être nécessaire d’aborder ce nouveau paysage avec plus de discernement, en adoptant l’innovation lorsqu’elle nous est bénéfique, mais en laissant toujours une place à l’authenticité, à l’originalité et à l’humain.

Pour l’instant, Vibes et Sora n’ont pas encore été lancés à l’échelle mondiale. Compte tenu de la réaction mitigée des premiers utilisateurs, leur succès est loin d’être garanti. En fin de compte, leur destin dépend entièrement de la manière dont les gens les utiliseront.

La transformation américaine de TikTok

Par un décret, le président américain Donald Trump a mis fin au long feuilleton TikTok, ouvrant la voie à une nouvelle société – dirigée par des investisseurs américains qui détiendront 80 % de la plateforme – pour prendre le contrôle de l’application. La société mère (bientôt révolue) de TikTok, ByteDance, et ses investisseurs chinois conserveront une participation minoritaire de moins de 20 %.

Une nouvelle coentreprise dirigée par les États-Unis supervisera l’algorithme, le code et la modération du contenu de l’application, tandis que toutes les données des utilisateurs américains seront stockées sur des serveurs Oracle aux États-Unis. La coentreprise sera dotée d’un conseil d’administration composé de sept membres, dont six sont des experts américains en cybersécurité et en sécurité nationale.

Selon les médias, le groupe d’investisseurs américains est dirigé par le géant des logiciels Oracle, tandis que parmi les principaux bailleurs de fonds figurent la société de capital-investissement Silver Lake, les magnats des médias Rupert et Lachlan Murdoch, et le PDG de Dell, Michael Dell.

Canada’s privacy watchdog says TikTok is failing to keep children off its platform, with weak safeguards and unclear data practices that expose young users to risks.

Le fond du problème : Toutes les données des utilisateurs américains seront stockées sur des serveurs Oracle situés aux États-Unis. Les mises à jour logicielles, les algorithmes et les flux de données feront l’objet d’une surveillance stricte, les modèles de recommandation étant réentraînés et supervisés par des partenaires américains spécialisés dans la sécurité afin de prévenir toute manipulation.

Le gouvernement américain soutient depuis longtemps que l’accès de l’application aux données des utilisateurs américains présente des risques importants, car ByteDance est susceptible d’être soumis à la loi chinoise de 2017 sur le renseignement national, qui exige de toute entité chinoise qu’elle soutienne, assiste et coopère avec les services de renseignement de l’État, y compris, éventuellement, le transfert des données TikTok des citoyens américains vers la Chine. Par ailleurs, TikTok et ByteDance ont affirmé que TikTok fonctionne de manière indépendante et respecte la vie privée des utilisateurs.

Début 2024, le Congrès américain, invoquant des risques pour la sécurité nationale, a adopté une loi obligeant ByteDance, la société mère chinoise de TikTok, à céder le contrôle de l’application sous peine d’être interdite aux États-Unis. La loi, qui bénéficiait du soutien des deux partis au Congrès, a ensuite été confirmée par la Cour suprême.

Cependant, l’administration du président Trump a reporté à plusieurs reprises son application par le biais de décrets.

Les négociations économiques et commerciales avec la Chine ont été au cœur de ce report. La quatrième série de négociations à Madrid coïncidant avec la dernière date limite, M. Trump a choisi de prolonger à nouveau le délai le 16 septembre, cette fois jusqu’au 16 décembre 2025, accordant ainsi un répit supplémentaire à TikTok.

Quelle est la suite ? Il reste encore certains détails à régler, notamment la question de savoir si les utilisateurs américains devront installer une nouvelle application. Néanmoins, cet accord marque une étape importante dans la résolution de l’un des différends les plus médiatisés de la décennie en matière de politique technologique. En outre, le décret présidentiel accorde un délai de 120 jours pour finaliser l’accord.

En résumé :  Pour des millions d’utilisateurs américains, les débats politiques ne constituent qu’un bruit de fond. Le véritable changement se fera sentir dans leurs flux : la nouvelle version américaine de TikTok pourra-t-elle conserver la créativité chaotique qui en a fait une force culturelle ?

Puces électroniques et souveraineté : de la mondialisation à l’autonomie protégée

L’industrie des semi-conducteurs connaît actuellement une profonde mutation géopolitique. Autrefois emblématiques de la mondialisation et de l’interdépendance, les puces sont désormais considérées comme des actifs stratégiques, ce qui pousse les États à revoir leurs politiques en matière de souveraineté, de résilience et de contrôle.

Les récentes mesures prises par la Chine soulignent cette tendance. Son ministère du Commerce a lancé une enquête antidumping sur les puces analogiques américaines, accusant les entreprises américaines de « baisser et de bloquer » les prix d’une manière qui nuit aux producteurs nationaux. Cette enquête porte sur les puces traditionnelles construites sur des nœuds de processus plus anciens de 40 nm et plus, et non sur les accélérateurs d’IA de pointe qui dominent les débats géopolitiques, mais sur les composants courants qui alimentent les appareils intelligents, les équipements industriels et les automobiles. Ces nœuds matures représentent une part importante de la consommation chinoise, les entreprises américaines fournissant plus de 40 % du marché ces dernières années.

Pour l’industrie nationale chinoise, cette enquête est une opportunité. Selon les analystes, elle pourrait contraindre les fournisseurs étrangers à céder des parts de marché aux entreprises locales concentrées dans le Jiangsu et d’autres provinces industrielles. Parallèlement, certaines informations indiquent que la Chine demande aux entreprises technologiques de cesser d’acheter les processeurs les plus puissants de Nvidia.

En ce qui concerne Nvidia, la société est à nouveau dans le collimateur, car l’Administration d’État chinoise pour la régulation du marché (SAMR) a publié une conclusion préliminaire selon laquelle Nvidia aurait enfreint la loi antitrust en lien avec son acquisition de Mellanox Technologies en 2020. En fonction des résultats de l’enquête, Nvidia pourrait faire l’objet de sanctions.

Dans le même temps, Washington renforce son emprise. Le mois dernier, le gouvernement a également pris une mesure sans précédent en envisageant de prendre des participations dans des fabricants nationaux de puces en échange de subventions au titre du CHIPS Act. Intel est au centre de cette expérience, avec 8,87 milliards de dollars de subventions qui pourraient être convertis en une participation de 10 % du gouvernement, bien que les négociations restent floues.

Les critiques avertissent que cette prise de participation risque de politiser le secteur, soulignant que les déclarations de M. Trump selon lesquelles il aurait « sauvé Intel » relèvent davantage du théâtre que de la stratégie. En outre, la Maison Blanche se prépare à imposer des droits de douane élevés, les importations de semi-conducteurs étant soumises à des taux de près de 100 %, avec des exemptions accordées aux entreprises qui fabriquent ou s’engagent à fabriquer aux États-Unis. Les entreprises chinoises, telles que SMIC et Huawei, devraient être les plus touchées.

Les États-Unis exigeront également le renouvellement annuel des licences des entreprises sud-coréennes Samsung et SK Hynix pour la fourniture de puces avancées aux usines chinoises, ce qui rappelle que même les alliés des États-Unis sont pris entre deux feux.

Nvidia a annoncé un investissement de 5 milliards de dollars dans Intel afin de développer conjointement des puces personnalisées avec l’entreprise. Ensemble, ces initiatives reflètent les efforts plus larges déployés par Washington pour renforcer son leadership dans le domaine des semi-conducteurs face à la concurrence croissante de la Chine.

Dans le cadre des négociations avec Taïwan, le secrétaire américain au Commerce, Howard Lutnick, a formulé une proposition visant à ce que seule la moitié des puces américaines soient produites à Taïwan, l’autre moitié étant délocalisée aux États-Unis, afin de réduire la dépendance vis-à-vis d’un seul fournisseur étranger. Cependant, le vice-Premier ministre taïwanais Cheng Li-chiun a rejeté cette idée, affirmant que de telles conditions n’avaient jamais fait partie des discussions officielles et ne seraient pas acceptées. Si Taïwan est disposé à approfondir ses relations commerciales avec les États-Unis, il refuse de renoncer au contrôle des capacités avancées en matière de semi-conducteurs qui sous-tendent son influence géopolitique.

L’UE affirme également un contrôle plus strict sur ses actifs technologiques. Les États membres de l’UE ont appelé à une révision et à un renforcement de la loi européenne sur les puces électroniques, arguant que l’Europe doit considérer les semi-conducteurs comme une industrie stratégique au même titre que l’aérospatiale et la défense. Les signataires, qui représentent les 27 économies de l’UE, avertissent que, tandis que des concurrents comme les États-Unis et l’Asie augmentent rapidement leurs investissements publics, l’Europe risque de prendre du retard si elle ne renforce pas son écosystème national dans les domaines de la R&D, de la conception, de la fabrication et du développement de la main-d’œuvre.

La proposition de « deuxième phase de la loi sur les puces électroniques » s’articule autour de trois objectifs stratégiques :

  • Prospérité, grâce à une économie des semi-conducteurs compétitive et axée sur l’innovation
  • Souveraineté, en maîtrisant les maillons stratégiques de la chaîne de valeur.
  • Résilience, afin de garantir l’approvisionnement des secteurs critiques en cas de chocs géopolitiques.

Le message de l’UE est clair : l’Europe a l’intention non seulement de participer à l’industrie des semi-conducteurs, mais aussi de la façonner selon ses propres conditions, grâce à des investissements coordonnés, des alliances industrielles et des partenariats internationaux qui renforcent, plutôt que d’affaiblir, son autonomie stratégique.

En résumé : L’ ère des pays producteurs est révolue ; l’ ère de la souveraineté en matière de semi-conducteurs a commencé. Le message est le même partout dans le monde : les puces sont trop importantes pour être confiées à un tiers.

La démocratie à l’heure de Discord : Au Népal, une application bannie devient une urne virtuelle.

Dans une première historique pour la démocratie, un pays a désigné son Premier ministre par intérim via une application de messagerie.

Début septembre, le Népal a été plongé dans la tourmente après que le gouvernement a brusquement interdit 26 plateformes de réseaux sociaux, dont Facebook, YouTube, X et Discord, invoquant le non-respect des règles d’enregistrement.

Cette décision a suscité l’indignation, en particulier parmi la génération Z du pays, qui est descendue dans les rues pour accuser les responsables de corruption.

Lorsque l’interdiction est entrée en vigueur, les jeunes du pays, familiarisés avec le numérique, ont rapidement adapté leurs stratégies :

Cependant, les manifestations ont rapidement pris une tournure dramatique. En quelques jours, l’interdiction des réseaux sociaux a été levée. 

Mme Karki a prêté serment le soir même. Sur sa recommandation, le président a dissous le Parlement et de nouvelles élections sont prévues pour le 5 mars 2026, après quoi Mme Karki quittera ses fonctions.

 Adult, Male, Man, Person, Art, Graphics, Face, Head, People

Zoom arrière. Sur des plateformes telles que Discord, la génération Z népalaise a découvert une forme de démocratie numérique qui semblait plus égalitaire que les espaces physiques, précisément en raison de l’anonymat qu’elle offre. Discord est ainsi devenu une arène politique où les participants peuvent s’exprimer librement sans crainte de représailles et prendre part à un processus « démocratique » sans précédent, sur un pied d’égalité. Les Népalais se sont tournés vers Discord pour débattre de l’avenir politique du pays, vérifier les rumeurs et recueillir des nominations pour les futurs dirigeants du pays. 

Cependant, cette même ouverture rend également la pratique démocratique plus difficile : l’absence de responsabilité peut accentuer la polarisation et alimenter la désinformation, comme ce fut le cas au Népal, où de fausses allégations ont circulé selon lesquelles les leaders de la contestation étaient des citoyens étrangers, tandis que des groupes pro-monarchiques opéraient en parallèle sur d’autres canaux Discord.

Bien que temporaire et symbolique, cet épisode a souligné à quel point les plateformes numériques peuvent devenir des arènes politiques lorsque les arènes traditionnelles vacillent. Lorsque les institutions officielles perdent leur légitimité, les citoyens réutilisent instinctivement les outils à leur disposition pour en créer de nouvelles. Ces événements sont susceptibles d’offrir des enseignements à d’autres gouvernements confrontés au rôle de la censure en période de troubles.

Le terrain de jeu numérique est désormais protégé par une clôture et soumis à un couvre-feu

En réponse aux préoccupations croissantes concernant l’impact de l’intelligence artificielle et des réseaux sociaux sur les adolescents, les gouvernements et les entreprises technologiques mettent en place de nouvelles mesures visant à renforcer la sécurité en ligne des jeunes utilisateurs.

L’Australie a publié ses directives réglementaires concernant l’interdiction nationale d’accès aux réseaux sociaux pour les enfants de moins de 16 ans, qui entrera en vigueur le 10 décembre 2025. La législation exige des plateformes qu’elles vérifient l’âge des utilisateurs et s’assurent que les mineurs n’accèdent pas à leurs services. Les plateformes doivent détecter et supprimer les comptes des mineurs, en communiquant clairement avec les utilisateurs concernés. Elles sont également tenues de bloquer toute tentative de réinscription. Il n’est pas encore certain que le contenu des comptes supprimés sera effacé ou s’ils pourront être réactivés une fois que l’utilisateur aura atteint l’âge de 16 ans.

Le Premier ministre grec Kyriakos Mitsotakis a indiqué que la Grèce pourrait envisager d’interdire l’utilisation des réseaux sociaux aux enfants de moins de 16 ans. S’exprimant lors d’un événement des Nations unies à New York, intitulé « Protéger les enfants à l’ère numérique », dans le cadre de la 80e Assemblée générale des Nations unies, il a averti que l’exposition incontrôlée aux réseaux sociaux constituait la plus grande expérience non contrôlée sur l’esprit des enfants. Il a mis en avant des initiatives nationales telles que l’interdiction des téléphones portables dans les écoles et le lancement du site parco.gov.gr, qui propose une vérification de l’âge et un contrôle parental. M. Mitsotakis a souligné que les difficultés liées à l’application de la loi ne devaient pas entraver l’action et a appelé à une coopération internationale pour faire face aux risques croissants auxquels sont exposés les enfants en ligne.

Les législateurs français proposent des réglementations plus strictes concernant l’utilisation des réseaux sociaux par les adolescents, y compris des obligations de couvre-feu nocturne. Un rapport parlementaire suggère que les comptes de réseaux sociaux des 15-18 ans soient automatiquement désactivés entre 22 h et 8 h afin de contribuer à la lutte contre les problèmes de santé mentale. Cette proposition fait suite aux préoccupations concernant l’impact psychologique de plateformes telles que TikTok sur les mineurs.

Aux États-Unis, la Federal Trade Commission (FTC) a lancé une enquête sur la sécurité des chatbots IA, en mettant l’accent sur leur impact sur les enfants et les adolescents. Sept entreprises, dont Alphabet, Meta, OpenAI et Snap, ont été invitées à fournir des informations sur la manière dont elles gèrent les risques liés aux chatbots IA conçus pour imiter les relations humaines. Peu de temps après, des parents endeuillés ont témoigné devant le Congrès américain, exhortant les législateurs à réglementer les chatbots IA après que leurs enfants se soient suicidés ou aient commis des actes d’automutilation à la suite d’interactions avec ces outils. 

OpenAI a lancé une version spécialisée de ChatGPT adaptée aux adolescents, intégrant une technologie de prédiction de l’âge afin de restreindre l’accès à la version standard aux utilisateurs de moins de 18 ans. En cas de doute, le système considérera que l’utilisateur est un adolescent. Si des signes de pensées suicidaires apparaissent, l’entreprise indique qu’elle tentera d’abord d’alerter les parents. En cas de risque imminent et si les parents ne peuvent être joints, OpenAI est disposée à informer les autorités. Cette initiative vise à répondre aux préoccupations croissantes concernant les risques pour la santé mentale associés aux chatbots IA, tout en soulevant des questions liées à la vie privée et à la liberté d’expression.

Parallèlement, OpenAI a introduit de nouveaux contrôles parentaux, offrant aux familles une meilleure supervision de l’utilisation de la plateforme par leurs adolescents. Les parents peuvent associer leurs comptes à ceux de leurs enfants et gérer les paramètres via un tableau de bord simple, tandis que des mesures de protection renforcées filtrent les contenus préjudiciables et limitent les jeux de rôle impliquant le sexe, la violence ou des idéaux de beauté extrêmes. Les familles peuvent également régler avec précision des fonctionnalités telles que le mode vocal, la mémoire et la génération d’images, ou définir des heures de repos pendant lesquelles ChatGPT n’est pas accessible.

Meta, quant à elle, élargit actuellement le déploiement de comptes spécifiques aux adolescents sur Facebook et Messenger. Ces comptes comprennent des fonctionnalités conçues pour offrir un environnement plus adapté à leur âge, telles que des paramètres de confidentialité par défaut plus stricts et des limites sur les interactions indésirables. L’entreprise affirme que ces mesures de protection s’inscrivent dans le cadre d’un effort plus large visant à trouver un équilibre entre la connectivité et la protection des jeunes utilisateurs.

Les intentions sont généralement louables, mais la multitude d’interdictions, de couvre-feux et de mesures de surveillance algorithmique ne fait que souligner le manque de clarté de la voie à suivre. Pendant ce temps, les jeunes ont très certainement déjà trouvé des failles.

Ce mois-ci à Genève

Le monde de la gouvernance numérique a été très actif à Genève au mois de septembre. Voici ce que nous avons tenté de suivre.

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

Groupes de travail du Conseil de l’UIT (CWG)

À l’Union internationale des télécommunications (UIT), les groupes de travail du Conseil (CWG) se sont réunis du 8 au 19 septembre afin de faire avancer divers axes de travail. Le groupe de travail sur le SMSI et les ODD a examiné les travaux entrepris par l’UIT en ce qui concerne la mise en œuvre des résultats du SMSI et de l’Agenda 2030, et a discuté des questions liées au processus d’examen SMSI+20 en cours. Le Groupe d’experts sur les RIT a poursuivi ses travaux sur le rapport final qu’il doit soumettre au Conseil de l’UIT en réponse à la tâche qui lui a été confiée de réviser le Règlement des télécommunications internationales (RIT), en tenant compte de l’évolution des tendances mondiales, des progrès technologiques et des pratiques réglementaires actuelles. Une version préliminaire du rapport indique que les membres ont des opinions divergentes sur la nécessité de réviser les RIT et même sur leur pertinence globale ; il ne semble pas non plus y avoir de consensus sur la nécessité et la manière de poursuivre les travaux de révision des RIT.

Sur un autre sujet, le groupe de travail sur les questions de politique publique internationales liées à l’Internet a organisé une consultation ouverte sur la garantie d’une connectivité significative pour les pays en développement sans littoral. Des débats divergents ont également eu lieu sur une proposition visant à améliorer les travaux du groupe de travail et à « faciliter leurs discussions concernant la gouvernance internationale de l’Internet ».

Conférence sur la sécurité spatiale

L’Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR) a organisé les 9 et 10 septembre la Conférence sur la sécurité dans l’espace extra-atmosphérique, qui a réuni des diplomates, des décideurs politiques, des acteurs privés, des experts du secteur militaire et d’autres intervenants afin d’examiner les moyens de façonner un avenir sûr, inclusif et durable pour l’espace extra-atmosphérique. Certaines des questions abordées ont porté sur les implications de l’utilisation des technologies émergentes telles que l’intelligence artificielle et les systèmes autonomes dans le contexte des technologies spatiales, ainsi que sur les défis liés à la cybersécurité associés à ces utilisations.

Groupe de travail de la CNUCED sur la gouvernance des données

La troisième réunion du Groupe de travail sur la gouvernance des données (WGDG) de la Commission des sciences et de la technologie au service du développement (CSTD) des Nations Unies s’est tenue les 15 et 16 septembre. Cette réunion était axée sur les travaux menés dans le cadre des quatre axes de travail du WGDG : 1. principes de gouvernance des données à tous les niveaux ; 2. interopérabilité entre les systèmes de données nationaux, régionaux et internationaux ; 3. considérations relatives au partage des avantages des données ; 4. facilitation de flux de données sûrs, sécurisés et fiables, y compris les flux transfrontaliers.

Les membres du WGDG ont examiné les rapports de synthèse produits par le secrétariat de la CSTD, sur la base des réponses aux questionnaires proposés par les cofacilitateurs des groupes de travail. Le WGDG a décidé de reporter la date limite de soumission des contributions au 7 octobre. De plus amples informations sont disponibles dans l’appel à contributions sur le site web du WGDG.

Veuillez suivre les débats du WGDG via notre page dédiée sur le Digital Watch Observatory

Forum public de l’OMC 2025

Le plus grand événement de proximité de l’OMC, le Forum public de l’OMC, s’est tenu les 17 et 18 septembre sous le thème « Renforcer, créer et préserver ». Les questions numériques figuraient en bonne place à l’ordre du jour cette année, avec des sessions consacrées à l’IA et au commerce, à la résilience numérique, au moratoire sur les droits de douane sur les transmissions électroniques et aux négociations sur le commerce électronique, par exemple. D’autres sujets ont également été abordés, tels que l’incertitude créée par la hausse des droits de douane et la nécessité de réformer l’OMC. Au cours du Forum, l’OMC a publié le Rapport sur le commerce mondial 2025, intitulé « Faire fonctionner ensemble le commerce et l’IA au profit de tous ». Ce rapport explore le potentiel de l’IA pour stimuler le commerce mondial, en particulier grâce aux services numériques. Il soutient que l’IA peut réduire les coûts commerciaux, améliorer l’efficacité de la chaîne d’approvisionnement et créer des opportunités pour les petites entreprises et les pays en développement, mais prévient que sans une action délibérée, l’IA pourrait aggraver les inégalités mondiales et creuser le fossé entre les économies avancées et les économies en développement.

Conseil des droits de l’Homme

Le Conseil des droits de l’Homme a ouvert sa 60ᵉ session le 8 septembre. Deux rapports inscrits à l’ordre du jour ont particulièrement retenu notre attention.

Le premier portait sur les implications des technologies nouvelles et émergentes dans le domaine militaire pour le respect des droits fondamentaux. Présenté le 18 septembre, il a été préparé par le Comité consultatif du Conseil.

Ce rapport recommande notamment que « les États et les organisations internationales envisagent d’adopter des mesures contraignantes ou d’autres dispositions efficaces afin de garantir que les technologies nouvelles et émergentes à usage militaire — dont la conception, le développement ou l’emploi présentent des risques élevés d’abus, de détournement ou de dommages irréversibles, notamment lorsqu’ils sont susceptibles d’entraîner des violations des droits humains — ne soient pas développées, déployées ou utilisées. »
Le second document est un rapport sur la protection de la vie privée à l’ère numérique, publié par le Haut-Commissariat aux droits de l’Homme. Il examine les défis et les risques liés à la discrimination et à l’inégalité dans la jouissance du droit à la vie privée en rapport avec la collecte et le traitement des données, et formule des recommandations sur les moyens d’empêcher que la numérisation ne perpétue ou n’aggrave la discrimination et l’exclusion. Parmi celles-ci figure une recommandation invitant les États à protéger les individus contre les violations des droits de l’Homme liées au traitement des données par les entreprises et à veiller à ce que les infrastructures publiques numériques soient conçues et utilisées de manière à respecter les droits à la vie privée, à la non-discrimination et à l’égalité.


Weekly #233 New rules for the digital playground

 Logo, Text

3 – 10 October 2025


HIGHLIGHT OF THE WEEK

New rules for the digital playground

A new wave of digital protectionism is taking shape around the world — this time in the name of children’s safety.

Denmark is preparing to ban social media for users under 15, joining a small but growing club of countries seeking to push minors off major platforms. The government has yet to release full details, but the move reflects a growing recognition across many countries that the costs of children’s unrestricted access to social media — from mental health issues to exposure to harmful content — are no longer acceptable.

For inspiration, Copenhagen does not have to look far. Australia has already outlined one of the most detailed blueprints for a nationwide ban on under-16s, set to take effect on 10 December 2025. The law requires platforms to verify users’ ages, remove underage accounts, and block re-registrations. Platforms will also need to communicate clearly with affected users, although questions remain, including whether deleted content will be restored when a user turns 16.

 Book, Comics, Publication, Baby, Person, Face, Head, Flag

In Italy, families have launched legal action against Facebook, Instagram, and TikTok, claiming that the platforms failed to protect minors from exploitative algorithms and inappropriate content. Across the Atlantic, New York City has filed a sweeping lawsuit against major social media platforms, accusing them of deliberately designing features that addict children and harm their mental health. 

In the EU, the debate over how to protect children online is entangled with a parallel fight over privacy and surveillance. Within the EU Council, a meeting of home affairs ministers taking place next week was expected to include a vote on the long-discussed  ‘Chat Control’ regulation proposal, which aims to combat the distribution of child sexual abuse material (CSAM). This proposal is no longer on the agenda, as member states don’t seem to be in agreement on the current text; the vote is said to be postponed for December.

According to the most recent version of the draft regulation, a chat service can be required to screen users’ messages before they are sent and encrypted, but only after a decision from a judicial authority. The system would then search for images of child sexual abuse that are already in databases, while text messages themselves would not be reviewed. Although these provisions were presented as safeguards, not everyone is in agreement, and concerns remain over implications for privacy and encryption, among other issues. 

Why it matters: Together, these developments suggest that the era of self-regulation for social media may be drawing to a close. The global debate is not about whether the digital playground needs guardians, but about the final design of its safety features. As governments weigh bans, lawsuits, and surveillance mandates, they struggle to balance two imperatives: protecting children from harm while safeguarding fundamental rights to privacy and free expression.

IN OTHER NEWS THIS WEEK

Decisive actions in AI governance

The world is incessantly debating the future and governance of AI. Here are some of the latest moves in the space.

Italy has made history as the first member state in the EU to pass its own national AI law, going beyond the framework of the EU’s Artificial Intelligence Act. From October 10, the law comes into effect, introducing sector-specific rules across health, justice, work, and public administration.  Among its provisions: transparency obligations, criminal penalties for misuse of AI (such as harmful deepfakes), new oversight bodies, and protections for minors (e.g. parental consent if under 14). 

In Brussels, the European Commission is simultaneously strategising for digital sovereignty – trying to break the EU’s dependence on foreign AI infrastructure. Its new ‘Apply AI’ strategy aims to channel €1 billion into deploying European AI platforms, integrating them into public services (health, defence, industry), and supporting local tech innovation. The Commission also launched an ‘AI in Science’ initiative to solidify Europe’s position at the forefront of AI research, through a network called RAISE. 

Meanwhile, across the Atlantic, California has signed into law a bold transparency and whistleblower regime aimed at frontier AI developers – those deploying large, compute-intensive models. Under SB 53 (the Transparency in Frontier Artificial Intelligence Act), companies must publish safety protocols, monitor risks, and disclose ‘critical safety incidents.’ Crucially, employees who believe there is a catastrophic risk (even without full proof) are shielded from retaliation. 

The bigger picture: These moves from Italy, the EU and California are part of a broader trend in which debates on AI governance are giving way to decisive action. 


Beijing tightens rare earth grip

China has tightened its grip on the global tech supply chain by significantly expanding its restrictions on its rare earth exports. The new rules no longer focus solely on raw minerals — they now encompass processed materials, manufacturing equipment, and even the expertise used to refine and recycle rare earths. Exporters must seek government approval not only to ship these elements, but also for any product that contains them at a level exceeding 0.1%. Licences will be denied if the end users are involved in weapons production or military applications. Semiconductors won’t be spared either — chipmakers will now face intrusive case-by-case scrutiny, with Beijing demanding full visibility into tech specifications and end users before granting approval.

China is also sealing off human expertise. Engineers and companies in China are prohibited from participating to rare earth projects abroad unless the government explicitly permits it.

A critical moment: The timing of this development is no accident. With US-China tensions escalating and high-level talks between Presidents Trump and Xi on the horizon, Beijing is brandishing what could be described as a powerful economic weapon: monopoly over the minerals that power advanced electronics.


New COMESA platform enables instant, affordable cross-border payments

The Common Market for Eastern and Southern Africa (COMESA) Clearing House (CCH) has announced the advancement of its Digital Retail Payments Platform (DRPP) into user trials across the Malawi–Zambia corridor. This initiative aims to facilitate cross-border payments using local currencies, enhancing financial inclusion and supporting micro, small, and medium enterprises (MSMEs), women, and underserved communities. 

The trials, supported by two digital financial service providers and one foreign exchange provider, mark a significant step toward a secure and inclusive regional payment system. CCH encourages active participation from partners and stakeholders to refine and validate the platform, ensuring it delivers reliable, immediate, and affordable payments that empower individuals and businesses across the region.

The DRPP is part of CCH’s broader mission to promote economic growth and prosperity through intra-regional trade and integration. By bridging national markets and reducing barriers to trade, the platform seeks to create a financially integrated COMESA region where secure, affordable, and inclusive cross-border payments power trade, investment, and prosperity.


Superconducting breakthrough wins 2025 Nobel Prize in physics

The 2025 Nobel Prize in Physics was awarded to John Clarke, Michel H. Devoret, and John M. Martinis for demonstrating that quantum mechanical effects can occur in systems large enough to be held in the hand.

Their pioneering experiments in the mid-1980s used superconducting circuits – specifically Josephson junctions, where superconducting components are separated by an ultra-thin insulating layer. By carefully controlling these circuits, the laureates showed that they could exhibit two hallmark quantum phenomena: tunnelling, where a system escapes a trapped state by passing through an energy barrier, and energy quantisation, where it absorbs or emits only specific amounts of energy.

Their work revealed that quantum behaviour, once thought to apply only to atomic particles, can manifest at the macroscopic scale. The discovery not only deepens understanding of fundamental physics but also underpins emerging quantum technologies, from computing to cryptography.

As Nobel Committee Chair Olle Eriksson noted, the award celebrates how century-old quantum mechanics continues to yield new insights and practical innovations shaping the digital age.

LOOKING AHEAD
 Person, Face, Head, Binoculars

80th session of the UNGA First Committee 

The 80th session of the UN General Assembly First Committee on Disarmament and International Security is taking place in New York from 8 October to 7 November 2025. The general debate on all disarmament and international security agenda items will run from Wednesday, 8 October, to Friday, 17 October. Among the topics expected to be discussed is the Global Mechanism, which is set to succeed the work of the OEWG. A briefing by the Chairperson of the Open-ended Working Group on security of and in the use of information and communications technologies 2021-2025 is scheduled for 27 October.

In parallel, UNIDIR is hosting a hybrid event on the UN Global Intergovernmental Points of Contact (POC) Directory, established following the OEWG 2021–2025, to support international cooperation on disarmament and security.

WSIS+20 review process

The written contributions to the WSIS+20 zero draft have now been published, providing a foundation for the upcoming discussions. 

UN DESA will host two days of virtual consultations to review the ‘Zero Draft’ of the WSIS+20 process. Member states and stakeholders from civil society, academia, technical communities, and international organisations will discuss digital governance, bridging digital divides, human rights, and the digital economy. Sessions are designed for inclusive, global participation, offering a platform to share experiences, provide feedback, and refine the draft ahead of the second Preparatory Meeting on 15 October. 

Informal negotiations on the draft are set to begin next week, taking place on 16–17 and 20–21 October 2025. 

Geneva Peace Week 2025

The 2025 edition of Geneva Peace Week will bring together peacebuilders, policymakers, academics, and civil society to discuss and advance peacebuilding initiatives. The programme covers a wide range of topics, including conflict prevention, humanitarian response, environmental peacebuilding, and social cohesion. Sessions this year will explore new technologies, cybersecurity, and AI, including AI-fueled polarisation, AI for decision-making in fragile contexts, responsible AI use in peacebuilding, and digital approaches to supporting the voluntary and dignified return of displaced communities.

GESDA 2025 Summit

The GESDA 2025 Summit brings together scientists, diplomats, policymakers, and thought leaders to explore the intersection of science, technology, and diplomacy. Held at CERN in Geneva with hybrid participation, the three-day programme features sessions on emerging scientific breakthroughs, dual-use technologies, and equitable access to innovation. Participants will engage in interactive discussions, workshops, and demonstrations to examine how frontier science can inform global decision-making, support diplomacy, and address challenges such as climate change and sustainable development.



READING CORNER
d41586 025 03223 0 51532626

Other researchers question whether autonomous AI scientists are possible or even desirable. Other researchers question whether autonomous AI scientists are possible or even desirable.

Cities and tech

They don’t talk treaties; they talk APIs. Discover how tech ambassadors are navigating the complex relationship between cities and big tech.

bioscience with AI

Discover how generative AI is designing synthetic proteins that outperform nature, revolutionising gene therapy and accelerating the search for new medical cures.

4j4fhgnc upuLogotypeEn 0

The report takes stock of the current role the postal sector is playing in enabling inclusive digital transformation and provides recommendations on how to further scale its contribution.

Lettre d’information du Digital Watch – Numéro 102 – Juillet et Août 2025

Rétrospective juillet-août 2025

Le paysage numérique et géopolitique évolue plus vite que jamais, et il est plus important de le comprendre à sa juste valeur. Ce mois-ci, notre lettre d’information vous emmène au-delà des gros titres et vous fait découvrir les éléments qui influencent la technologie, l’IA et la cybersécurité.

Les leviers du pouvoir : les puces américaines contre les minéraux critiques chinois – qui détient réellement les clés de l’avenir ?

La course mondiale à l’IA : puissances rivales, visions concurrentes et implications pour l’avenir de l’IA.

Les enseignements de l’été : de la désillusion à la clarté : dix perspectives pour l’IA aujourd’hui.

Les cyber frontières : les intrusions numériques ne sont pas seulement techniques, elles redessinent la géopolitique.

Bilan du GTCNL : une étape décisive vers un mécanisme permanent de cybersécurité.Cet été à Genève : événements clés et enseignements qui influencent la gouvernance numérique internationale.



GOUVERNANCE NUMÉRIQUE

Les co facilitateurs du processus SMSI+20 ont publié l’avant projet du document final pour l’examen de la mise en œuvre du Sommet mondial sur la société de l’information (SMSI+20) vingt ans après sa tenue.

Lors de son sommet du 1er septembre à Tianjin, la Shanghai Cooperation Organisation (SCO) a mis l’accent sur la technologie, l’IA et la gouvernance numérique, avec une déclaration soulignant la cyber-souveraineté, l’IA inclusive, les normes de cybersécurité et une coopération numérique renforcée.

INTELLIGENCE ARTIFICIELLE

L’Assemblée générale des Nations unies a adopté une résolution établissant le cadre de deux nouveaux organes de gouvernance de l’IA — un groupe scientifique international indépendant et un dialogue mondial — convenus dans le cadre du Pacte mondial pour le numérique (PMN) de 2024.

La Commission européenne a publié son Code de bonnes pratiques finalisé pour les modèles d’IA à usage général, jetant ainsi les bases de la mise en œuvre de la loi historique sur l’IA. Le nouveau Code définit les règles en matière de transparence, de droits d’auteur et de sécurité que les développeurs doivent respecter avant les dates limites. Une nouvelle phase de la loi européenne sur l’IA est entrée en vigueur le 2 août, exigeant des États membres qu’ils désignent des autorités de contrôle et appliquent des sanctions.

Pour en savoir plus sur les développements de l’IA cet été, veuillez consulter les informations ci-dessous.

TECHNOLOGIES

La France et l’Allemagne ont annoncé un programme économique commun, s’engageant à unir leurs efforts dans les domaines de l’IA, de l’informatique quantique, des puces électroniques, du cloud et de la cybersécurité, tout en faisant de la souveraineté numérique une priorité politique et d’investissement majeure.

Les États-Unis, le Japon et la Corée du Sud ont organisé des réunions de coopération trilatérale sur l’informatique quantique afin de renforcer leur collaboration en matière de sécurisation des technologies émergentes.

Le gouvernement britannique a dévoilé son plan pour le secteur numérique et technologique, qui vise à porter la croissance de ce secteur à 1 000 milliards de livres sterling, grâce à l’IA, à l’informatique quantique et à la cybersécurité.

Le gouvernement turc prépare une vente aux enchères très attendue des fréquences 5G en octobre, le ministre des Transports et des Infrastructures annonçant que les premiers services devraient démarrer en 2026.

Deux ressortissants chinois ont été inculpés aux États-Unis pour avoir exporté illégalement vers la Chine, au cours des trois dernières années, des puces Nvidia IA de pointe d’une valeur de plusieurs millions de dollars. Pour en savoir plus sur les développements de cet été dans le domaine des puces, veuillez consulter les informations ci-dessous.

INFRASTRUCTURE

Plus de 70 associations de la société civile et de consommateurs ont publié une déclaration mettant en garde contre le fait que les frais d’interconnexion proposés dans le prochain Digital Networks Act de l’UE pourraient compromettre la neutralité du net, augmenter les coûts et freiner l’innovation.

Aux États-Unis, plusieurs groupes de défense de l’intérêt public renoncent à faire appel du jugement de janvier 2025 qui a annulé les règles de neutralité du Net de la FCC. Ils misent désormais sur d’autres stratégies, fédérales et locales, pour préserver un accès ouvert à Internet.

Un projet d’infrastructure numérique de 40 millions d’euros en mer Baltique, soutenu à hauteur de 15 millions par le mécanisme européen pour l’interconnexion en Europe (CEF2), prévoit l’installation de quatre câbles sous-marins et de plusieurs centaines de kilomètres de fibre terrestre. Ce nouveau corridor longue distance d’environ 550 km reliera la Suède, l’Estonie et la Finlande afin de renforcer la connectivité dans la région baltique.

Une nouvelle action en justice intentée par Cloud Innovation a exacerbé la crise de gouvernance que traverse actuellement l’AFRINIC, faisant craindre une perte potentielle du contrôle africain sur l’infrastructure Internet du continent.

CYBERSÉCURITÉ

Le rapport de la commissaire australienne à la sécurité en ligne révèle que les géants du numérique ont accompli très peu de progrès dans la lutte contre les abus sexuels sur enfants en ligne. Certains ne suivent même pas le nombre de signalements ou d’employés dédiés, malgré les obligations de transparence légalement contraignantes imposées par l’Online Safety Act australien. https://dig.watch/updates/eu-sets-privacy-defaults-to-shield-minors 

Une note divulguée révèle que le débat européen sur l’instauration du filtrage obligatoire des messages privés s’intensifie. Le Parlement européen menace de bloquer la prolongation des règles volontaires si le Conseil n’accepte pas le principe d’un contrôle obligatoire des conversations en ligne.

Des chercheurs en cybersécurité ont découvert PromptLock, le premier rançongiciel connu alimenté par l’IA, une preuve de concept capable de vols de données et de chiffrement qui met en évidence la manière dont les outils d’IA accessibles au public pourraient aggraver les cybermenaces futures.

INTERPOL a annoncé qu’une opération de répression à l’échelle continentale visant les réseaux de cybercriminalité et de fraude avait conduit à plus de 1 200 arrestations entre juin et août 2025.Le Groupe de travail à composition non limitée (GTCNL) sur la sécurité et l’utilisation des TIC a clôturé sa dernière session de fond en juillet 2025 en adoptant son rapport final tant attendu.

ÉCONOMIE

Le président américain Donald Trump a officiellement signé le GENIUS Act, marquant une étape historique dans la mise en place d’un cadre juridique pour les monnaies stables aux États-Unis.

La Chine envisage actuellement d’autoriser les monnaies stables adossées au yuan dans le but de promouvoir l’utilisation mondiale de sa devise.

Le Bureau national du Bitcoin du Salvador a réparti les réserves de bitcoin du pays sur plusieurs nouvelles adresses afin de renforcer la sécurité, invoquant des risques potentiels futurs tels que l’informatique quantique. 

Le président américain Donald Trump a menacé d’imposer des droits de douane de rétorsion aux pays qui mettent en œuvre des taxes numériques ou des réglementations affectant les entreprises technologiques américaines.

La Chine a proposé un projet de règlement visant à garantir une tarification équitable et transparente sur les plateformes Internet vendant des biens et des services, invitant le public à donner son avis à la suite de nombreuses plaintes émanant de commerçants et de consommateurs.

DROITS DE L’HOMME

La nouvelle loi britannique sur la sécurité en ligne (Online Safety Act) a entraîné une augmentation de l’utilisation des VPN, les sites web ayant mis en place des restrictions d’âge plus strictes afin de se conformer à la législation.

Les autorités russes ont commencé à restreindre partiellement les appels sur Telegram et WhatsApp, invoquant la nécessité de prévenir la criminalité.

JURIDIQUE

Un tribunal de Floride a condamné Tesla à verser 243 millions de dollars de dommages et intérêts pour un accident mortel survenu en 2019 impliquant le système Autopilot, jugeant que son logiciel d’aide à la conduite était défectueux, ce qui pourrait avoir un impact significatif sur les ambitions de Tesla d’étendre son réseau émergent de robotaxis aux États-Unis.

La Cour de justice de l’UE (CJUE) a rejeté un recours contre le cadre de protection des données entre l’UE et les États-Unis, permettant ainsi la poursuite des transferts de données personnelles entre l’UE et les États-Unis sans garanties supplémentaires.

Un juge fédéral américain a refusé de démanteler l’activité de recherche de Google, mais a ordonné à l’entreprise de mettre fin à ses accords d’exclusivité, de partager certaines données avec ses concurrents et de garantir un accès équitable à ses services de recherche et de publicité, après avoir conclu qu’elle avait illégalement maintenu son monopole. Parallèlement, Google a écopé d’une amende de 3,5 milliards d’euros dans l’Union européenne pour abus de position dominante dans la publicité en ligne, l’entreprise ayant favorisé de manière déloyale sa propre plateforme d’échange publicitaire, AdX, en violation des règles de la concurrence de l’UE.

Anthropic a accepté un règlement record de 1,5 milliard de dollars avec des auteurs qui lui reprochaient d’avoir utilisé leurs travaux sans autorisation pour entraîner ses modèles d’IA, sous réserve de l’approbation du tribunal.

SOCIOCULTUREL

Le procureur général du Brésil (AGU) a officiellement demandé à Meta de supprimer les chatbots alimentés par l’IA qui simulent des profils d’enfants et engagent des dialogues sexuellement explicites, invoquant la crainte qu’ils « encouragent l’érotisation des enfants ».

Au Népal, des manifestations de masse ont éclaté à la suite d’une interdiction de 26 plateformes de réseaux sociaux pendant 24 heures et de la corruption du gouvernement, faisant 19 morts.Le président américain Trump a qualifié les préoccupations en matière de sécurité et de confidentialité concernant TikTok de très exagérées et a déclaré qu’il continuerait à prolonger le délai accordé à sa société mère, ByteDance, pour vendre sa participation majoritaire dans TikTok, sous peine d’être interdite à l’échelle nationale.

DÉVELOPPEMENT

L’UE exigera que toutes les plateformes vérifient l’âge des utilisateurs à l’aide du portefeuille d’identité numérique de l’UE d’ici 2026, avec des projets pilotes initiaux dans cinq pays et des amendes pouvant atteindre 18 millions d’euros ou 10 % du chiffre d’affaires mondial en cas de non-conformité.

La France, l’Allemagne, l’Italie et les Pays-Bas ont signé les documents constitutifs d’un nouveau consortium européen pour les infrastructures numériques communes, qui se concentrera sur les programmes numériques développés et utilisables par le public.

Le rapport publié en juillet par le secrétaire général des Nations unies présente en détail un fonds mondial volontaire pour l’IA, dont l’objectif est de réunir entre 1 et 3 milliards de dollars pour aider les pays à se préparer à l’IA grâce à des ressources essentielles, des stratégies nationales et la coopération.

La réalisation de la connectivité Internet universelle d’ici 2030 pourrait coûter jusqu’à 2 800 milliards de dollars, selon un rapport de l’UIT et du CST saoudien, qui appelle à une coopération et à des investissements mondiaux pour combler le fossé numérique qui se creuse et connecter le tiers de l’humanité qui n’a toujours pas accès à Internet.


Depuis plusieurs années, les semi-conducteurs sont au cœur de la rivalité technologique entre les États-Unis et la Chine, influençant les négociations commerciales, les contrôles à l’exportation et les débats sur la sécurité nationale. Les récentes difficultés rencontrées par Nvidia pour commercialiser sa puce H20 en Chine constituent le dernier épisode d’un long bras de fer, illustrant à quel point les technologies de pointe, les minéraux stratégiques et la politique industrielle sont désormais étroitement liés dans la politique mondiale.

La puce H20, lancée l’année dernière pour aider Nvidia à conserver son accès au marché chinois — qui représentait 13 % de ses ventes en 2024 —, était elle-même le résultat de considérations géopolitiques. Cependant, en avril, Washington a informé l’entreprise qu’elle devait obtenir une licence spéciale pour exporter la puce H20 vers la Chine, ce qui a entraîné l’arrêt des livraisons. Cette puce aurait équipé DeepSeek, l’un des modèles d’IA les plus avancés de Chine, ce qui a suscité des inquiétudes aux États-Unis en matière de sécurité nationale.

Nvidia a renouvelé sa demande de licence en juillet et a reçu la garantie qu’elle serait approuvée. Les ventes ont finalement repris, mais seulement après des mois de tergiversations qui reflétaient l’évolution de la position de Washington : en juillet, les contrôles à l’exportation ont été suspendus afin de soutenir les négociations commerciales entre les États-Unis et la Chine. En août, l’administration a oscillé entre la menace de bloquer les ventes de produits Nvidia avancés à la Chine et la possibilité d’approuver des versions modifiées.

En septembre, les ventes ont repris, dans des circonstances inhabituelles : à l’avenir, Nvidia reversera au gouvernement américain 15 % de ses revenus générés par la vente de puces en Chine, un accord largement qualifié d’inédit. AMD fera de même.

Le contexte général est le suivant : les contrôles exercés par la Chine sur les exportations de terres rares ont été au centre des négociations commerciales entre Pékin et Washington cet été. Pourquoi est-ce important ? Parce que la fabrication de puces électroniques dépend fortement de minéraux essentiels tels que le germanium et le gallium. Les États-Unis dépendent fortement des importations pour ces deux minéraux essentiels, en particulier de la Chine, compte tenu de son rôle prépondérant en tant que principal producteur et fournisseur de ces deux produits. Selon un résumé sur les matières premières minérales aux États-Unis, aucun gallium primaire (de faible pureté, non raffiné) n’a été extrait sur le territoire américain depuis 1987, et il n’existe aucune réserve gouvernementale de ce minéral. Les États-Unis produisent du germanium, mais il s’agit d’un sous-produit issu de la récupération des minerais de zinc, et non d’un produit primaire, ce qui rend le processus coûteux. Il existe bien un stock stratégique de 5 tonnes de germanium, mais ce chiffre est dérisoire par rapport aux 199 tonnes de production annuelle de germanium déclarées par la Chine. (Remarque : ces chiffres datent malheureusement de 2023, mais ils donnent une image suffisamment claire de la situation.)

La Chine, de son côté, s’appuie sur les puces NVIDIA pour rester compétitive dans la course mondiale à l’IA. Les alternatives nationales sont encore à la traîne en termes de performances, d’efficacité et de fiabilité. L’utilisation du matériel NVIDIA permet donc à la Chine de déployer immédiatement des solutions d’IA de pointe, tandis que son industrie nationale continue de se développer.

Les États-Unis ont ouvertement lié les concessions sur les puces électroniques aux discussions sur les terres rares : en échange d’une augmentation des livraisons de minéraux de terres rares en provenance de Chine, les États-Unis ont accepté de lever les restrictions à l’exportation de logiciels de conception de micropuces, d’éthane et de moteurs à réaction.

L’interaction entre l’accès aux puces électroniques et l’approvisionnement en minéraux illustre un compromis complexe : chaque partie tire parti de ses atouts, les États-Unis de leur savoir-faire en matière de semi-conducteurs, la Chine de sa domination dans le domaine des minéraux rares.

Les deux pays ont déjà tenté de mettre en place des contrôles à l’exportation, avec des résultats mitigés. Des rapports ont révélé que plus d’un milliard de dollars de puces Nvidia avaient déjà atteint la Chine par des canaux alternatifs. Cela a incité les États-Unis à envisager d’intégrer des dispositifs de suivi dans les expéditions de puces IA afin de surveiller d’éventuels détournements.

Malgré les restrictions à l’exportation imposées par la Chine, le germanium et le gallium continuent d’arriver aux États-Unis par des voies commerciales indirectes, probablement via des réexportations depuis des pays où la Chine en autorise l’exportation.

Ces données ont renforcé les doutes quant à la capacité réelle des contrôles à l’exportation à contenir la diffusion des technologies de pointe et ont incité chacun des acteurs à prendre des mesures pour mieux se positionner et réduire leur dépendance les uns envers les autres.

 Box, Person, Cardboard, Carton, Adult, Male, Man, Package, Package Delivery, Face, Head
États-Unis : tirer parti de la loi CHIPS Act

Les opposants affirment que la propriété publique risque de nuire à la compétitivité mondiale, et certains analystes se demandent si les récentes interventions, notamment l’affirmation de Trump selon laquelle il aurait « sauvé Intel », relèvent davantage du théâtre politique que d’une stratégie industrielle.

Pour ne rien arranger, le département américain du Commerce a annulé une subvention de recherche de 7,4 milliards de dollars signée sous l’administration Biden, ce qui brouille encore davantage le tableau de la politique américaine à long terme en matière de semi-conducteurs.

Les droits de douane constituent également une arme que les États-Unis comptent utiliser : le président Trump a déclaré que les États-Unis imposeraient des droits de douane d’environ 100 % sur les importations de semi-conducteurs, même si les entreprises qui produisent des puces sur le territoire national, ou qui se sont engagées à le faire, en seront exemptées. La société chinoise Semiconductor Manufacturing International Corporation (SMIC) et Huawei sont susceptibles d’être affectées.

Chine : Gérer les préoccupations liées à Nvidia tout en stimulant la production locale

Pékin, quant à elle, a tenté de mener une stratégie à la fois offensive et défensive.

Selon certaines informations, le groupe de pirates informatiques APT41, lié à la Chine, aurait envoyé un courriel contenant un logiciel malveillant en se faisant passer pour le représentant John Moolenaar, afin de cibler des groupes commerciaux, des cabinets d’avocats et des agences américains dans le but d’obtenir des informations sur les recommandations faites à la Maison Blanche dans le cadre des négociations commerciales controversées. L’ambassade de Chine à Washington a réfuté ces allégations.

Les autorités ont demandé à Nvidia d’expliquer les prétendues failles des puces H20, tandis que les médias d’État sont allés plus loin en avertissant que ces puces n’étaient pas sûres pour un usage domestique. Nvidia a nié ces accusations, soulignant que ses produits ne contenaient aucune porte dérobée.

Le pays intensifie ses efforts pour réduire sa dépendance vis-à-vis des fournisseurs étrangers : il vise à tripler la production nationale de puces IA, tandis que des géants technologiques tels qu’Alibaba dévoilent des alternatives.

D’autres acteurs asiatiques évoluent également dans ce contexte complexe.

En juillet, le ministère du Commerce de Malaisie a annoncé que l’exportation, le transbordement et le transit de puces IA haute performance provenant des États-Unis nécessiteraient désormais un permis commercial, avec effet immédiat.

La Corée du Sud a obtenu des exemptions pour Samsung et SK Hynix concernant les droits de douane de 100 % sur les exportations de semi-conducteurs vers les États-Unis, car ces deux entreprises ont investi aux États-Unis depuis 2022. TSMC, basée à Taïwan (que les États-Unis considèrent comme faisant partie de la Chine), a également réalisé d’importants investissements aux États-Unis. Si elles sont adoptées, ces mesures tarifaires auront des conséquences désastreuses pour les Philippines, car environ 70 % de ses exportations totales proviennent de l’industrie des semi-conducteurs. Plus précisément, 15 % des exportations philippines de semi-conducteurs, soit environ 6 milliards de dollars, sont destinées aux États-Unis.

Cependant, Washington a révoqué le statut d’exportation accélérée de Samsung, SK Hynix, TSMC et Intel, rendant ainsi plus difficile l’expédition d’équipements et de technologies américains de fabrication de puces vers leurs usines de fabrication en Chine. À compter du 31 décembre, les expéditions d’outils de fabrication de puces d’origine américaine vers des installations chinoises nécessiteront des licences d’exportation américaines. Toutefois, le département américain du Commerce évalue actuellement les autorisations annuelles pour les exportations de fournitures de fabrication de puces vers les usines de Samsung et SK Hynix basées en Chine.

Qui a l’avantage?

Les États-Unis sont leaders dans la conception et la production avancée de puces, mais leur avantage repose sur l’accès à des minéraux essentiels contrôlés par la Chine. Pékin domine l’approvisionnement en minéraux, mais reste dépendant des puces haut de gamme étrangères jusqu’à ce que la production nationale d’IA se développe. En résumé, l’avantage des États-Unis est technologiquement supérieur mais fragile, tandis que l’influence de la Chine est immédiate mais limitée. Les États-Unis doivent trouver d’autres sources de germanium et de gallium, ou trouver des substituts (tels que l’inuline et le silicone), tandis que la Chine doit stimuler les fabricants de puces nationaux. La rapidité avec laquelle chaque partie remédiera à ses faiblesses déterminera l’avenir de la domination technologique mondiale. Et cela ne se fera pas du jour au lendemain.

La course mondiale à l’IA: puissances rivales, visions concurrentes

La course mondiale à la domination dans le domaine de l’intelligence artificielle s’intensifie, les pays multipliant les stratégies ambitieuses pour façonner l’avenir de cette technologie. Aux États-Unis, la Maison Blanche a lancé une vaste initiative à travers la publication de son document Winning the Race: America’s AI Action Plan, une stratégie globale visant à consolider la domination américaine dans le domaine de l’IA en encourageant l’innovation open source et en simplifiant les cadres réglementaires. Ce pari sur l’open source marque un tournant dans la politique numérique américaine, cherchant à démocratiser le développement de l’IA pour garder une longueur d’avance sur ses concurrents mondiaux, en particulier la Chine. 

Cette orientation politique audacieuse a reçu le soutien des grandes entreprises technologiques, qui ont approuvé les plans de déréglementation de l’IA du président Trump malgré les préoccupations croissantes du public concernant les risques sociétaux. Le plan met notamment l’accent sur les cadres « anti-woke » de l’IA dans les contrats gouvernementaux, ce qui a suscité des débats sur la neutralité idéologique et les implications éthiques des technologies d’IA dans l’administration publique.

Dans toute l’Europe, les pays accélèrent leurs initiatives en matière d’IA. L’Allemagne envisage une offensive dans le domaine de l’IA afin de rattraper son retard dans les technologies essentielles, tandis que le Royaume-Uni vise un secteur technologique d’une valeur de 1 000 milliards de livres sterling grâce à la croissance de l’IA et de la technologie quantique.

Les pays asiatiques placent de plus en plus l’IA au cœur de leurs stratégies économiques et technologiques. La Corée du Sud accorde la priorité à la croissance tirée par l’IA grâce à d’importants investissements dans les infrastructures et le budget. Cette initiative comprend la création d’une « autoroute de l’IA », à commencer par le centre de données IA d’Ulsan, soutenue par des incitations fiscales audacieuses et des réformes réglementaires visant à attirer les investissements du secteur privé. Elle est complétée par un investissement proposé de 100 000 milliards de wons sud-coréens (71 milliards de dollars américains) destiné à accélérer l’innovation en matière d’IA, les semi-conducteurs de nouvelle génération et le développement d’infrastructures IA et de zones d’innovation.

Dans toute l’Afrique, les gouvernements et leurs partenaires se tournent vers l’IA comme catalyseur de croissance et de réforme de la gouvernance, les stratégies nationales et les investissements internationaux convergeant pour façonner l’avenir numérique du continent. Le Zimbabwe prévoit de lancer une politique nationale en matière d’IA afin d’accélérer l’adoption de cette technologie. Le Nigéria prépare un cadre national pour guider l’utilisation responsable de l’IA dans les domaines de la gouvernance, de la santé, de l’éducation et de l’agriculture. Le Japon s’est engagé à accorder 5,5 milliards de dollars de prêts et a annoncé un ambitieux programme de formation à l’IA afin de renforcer ses liens économiques avec l’Afrique.

L’Amérique latine, en revanche, continue de rencontrer des difficultés pour rejoindre la course mondiale à l’IA. Selon une étude publiée en juillet 2025 par la Commission économique des Nations unies pour l’Amérique latine et les Caraïbes, la région accuse un retard par rapport aux économies les plus avancées en matière d’investissements dans l’IA. Ses dépenses ont atteint 2,6 milliards de dollars américains en 2023, soit seulement 1,56 % des investissements mondiaux, alors même que son économie représente près de 6,3 % du PIB mondial. L’étude exhorte l’Amérique latine à accélérer l’adoption de l’IA, en particulier parmi les PME, en renforçant les compétences par l’éducation et la formation, en promouvant des cas d’usage sectoriels et en créant des centres technologiques. Sans ces mesures, la région risque de sous-exploiter le potentiel de l’IA malgré son poids économique significatif.

Dans ce contexte de concurrence accrue, des initiatives de coopération internationale voient également le jour. Le Global AI Governance Action Plan de la Chine, publié quelques jours seulement après le plan américain, plaide pour un modèle de gouvernance de l’IA inclusif, impliquant l’ensemble des parties prenantes. La Chine propose la création d’une organisation internationale de coopération sur l’IA, destinée à aider les pays du Sud global à renforcer leurs capacités, développer un écosystème d’innovation en IA, garantir que les pays en développement bénéficient équitablement des avancées technologiques et favoriser la mise en œuvre de l’Agenda 2030 des Nations unies pour le développement durable. Cette initiative a récemment reçu le soutien du Kazakhstan. À l’heure actuelle, on ignore encore comment cette nouvelle organisation internationale de coopération sur l’IA interagirait avec le Groupe scientifique international indépendant sur l’IA des Nations unies et le Dialogue mondial sur la gouvernance de l’IA, deux initiatives soutenues par la Chine, dont les modalités opérationnelles ont été précisées à la fin de l’été. La création de ces mécanismes a été officiellement approuvée par les États membres des Nations unies en septembre 2024, dans le cadre du GDC. En août, la résolution A/RES/79/325 de l’Assemblée générale des Nations unies a défini leur mandat et leurs modalités.

 Book, Comics, Publication, People, Person, Face, Head

Le groupe scientifique, composé de 40 membres, a pour principale mission de « publier des évaluations scientifiques fondées sur des preuves, synthétisant et analysant les recherches existantes relatives aux opportunités, aux risques et aux impacts de l’IA », sous la forme d’un « rapport de synthèse annuel pertinent sur le plan politique mais non prescriptif » qui sera présenté au Dialogue mondial. Le groupe fournira également « des mises à jour sur ses travaux jusqu’à deux fois par an afin de recueillir les points de vue dans le cadre d’un dialogue interactif entre l’assemblée plénière de l’Assemblée générale et les coprésidents du groupe ».

Le Dialogue mondial sur la gouvernance de l’IA, qui réunira les gouvernements et toutes les parties prenantes concernées, servira de plateforme « pour discuter de la coopération internationale, partager les meilleures pratiques et les enseignements tirés, et faciliter des discussions ouvertes, transparentes et inclusives sur la gouvernance de l’IA, afin de permettre à l’IA de contribuer à la mise en œuvre des objectifs de développement durable et de réduire la fracture numérique entre les pays et au sein de ceux-ci ».

Un autre engagement pris lors du PMN concernait la création d’un Fonds mondial pour l’IA afin de renforcer les capacités en matière d’IA pour le développement durable. Le rapport du Secrétaire général des Nations unies sur les options innovantes de financement volontaire pour le renforcement des capacités en matière d’IA (A/79/966), publié en juillet dernier, propose la création d’un Fonds mondial pour l’IA avec un objectif initial de 1 à 3 milliards de dollars américains. Ce fonds aiderait les pays à se préparer à l’IA, en mettant l’accent sur les fondements (calcul, données, compétences) et les catalyseurs (stratégies nationales, coopération). Le financement reposerait sur des contributions volontaires des gouvernements, des organisations philanthropiques, du secteur privé et des banques de développement, avec une gouvernance assurée par un comité directeur, des panels techniques et la participation de multiples parties prenantes. Les options de capitalisation comprennent une petite taxe sur les transactions technologiques, des contributions sous forme d’actifs numériques et un cofinancement avec les banques, ainsi que des outils tels que les obligations IA, l’annulation conditionnelle de la dette et le financement mixte. Une plateforme de coordination est également proposée afin d’harmoniser les bailleurs de fonds, d’améliorer la coordination stratégique et de normaliser le suivi. Le rapport sera examiné par l’Assemblée générale des Nations unies.

Que les années à venir soient marquées par une fragmentation en sphères technologiques concurrentes ou par un cadre de coopération fragile dépendra de la manière dont les États concilieront leurs ambitions nationales et leurs responsabilités mondiales. L’issue de cet équilibre délicat pourrait déterminer non seulement qui sera à la pointe de l’IA, mais aussi comment l’humanité dans son ensemble vivra avec cette technologie.

De la désillusion estivale à la lucidité automnale : dix leçons pour l’IA

Alors que les étudiants retournent en classe et les diplomates à la table des négociations, une question se pose : quelle est la véritable direction prise par l’IA ?

Cet été a marqué un tournant. Le discours dominant sur l’IA, selon lequel « plus c’est grand, mieux c’est », s’est effondré sous son propre poids. Cette histoire a pris fin en août dernier, avec le lancement très médiatisé de GPT-5.0. Les modèles plus grands ne sont pas nécessairement plus intelligents, et les progrès exponentiels ne peuvent être soutenus par la seule force brute.

Cet automne pourrait donc être une saison de clarification. Dans l’analyse qui suit, nous présentons dix enseignements tirés de l’été de la désillusion autour de l’IA, des développements qui façonneront la prochaine phase de l’histoire de l’IA.

1. Équipement : Plus n’est pas nécessairement synonyme de mieux ; l’intelligence artificielle à petite échelle est importante

L’ascension de Nvidia a incarné la conviction que plus de puissance de calcul garantissait les progrès de l’IA, mais le GPT-5 et de nouvelles études montrent que les rendements diminuent. Les défauts fondamentaux des modèles persistent, ce qui incite à passer des méga-systèmes à du matériel diversifié, à plus petite échelle, adapté à des applications spécifiques.

2. Logiciels : la stratégie open source. 

L’intelligence artificielle open source a connu un essor considérable en 2025, sous l’impulsion de la société chinoise DeepSeek et dans le cadre de la stratégie américaine, remettant en question la domination des laboratoires fermés. Grâce à leurs performances élevées et à leur coût réduit, les modèles ouverts se sont rapidement répandus, relançant les débats sur la sécurité et modifiant les rapports de force. Le code ouvert est devenu à la fois un outil d’innovation et une forme de soft power géopolitique.

3. Données : atteindre les limites et se diriger vers la connaissance 

L’IA manque de données d’entraînement de haute qualité, ce qui entraîne une transition du texte brut vers vers des formes de savoir structuré. Les entreprises recherchent désormais des experts, adoptent des systèmes de recherche augmentée (retrieval-augmented) et créent des graphes de connaissances pour étayer leurs résultats. Cette évolution soulève des questions de gouvernance autour de la propriété et de l’équité, alors que grandit le risque de voir le savoir collectif accaparé par quelques grandes entreprises. 

4. Économie : entre matière première et bulle spéculative
L’IA est à la fois un produit bon marché et une bulle spéculative. Les modèles ouverts et les outils efficaces démocratisent l’accès, tandis que les investissements massifs gonflent les valorisations et risquent de provoquer un effondrement. Le défi consiste à distinguer le battage médiatique de la valeur réelle : soutenir les applications durables tout en évitant les retombées d’un marché en surchauffe.

5. Risques : de la menace existentielle à la réalité

Le débat est passé des menaces existentielles lointaines aux préjudices concrets actuels : préjugés, pertes d’emploi, désinformation et responsabilité. Les prévisions exagérées concernant l’AGI ont perdu leur crédibilité, tandis que les régulateurs et la société civile insistent de plus en plus pour que l’IA soit considérée comme un produit soumis aux lois en vigueur. La gestion des risques actuels renforce la confiance et la stabilité pour l’avenir de l’IA.

6. L’éducation : au cœur de la disruption

L’IA a bouleversé l’enseignement traditionnel en automatisant la rédaction d’essais et les évaluations, créant à la fois une crise et une opportunité. Les écoles doivent passer de l’interdiction de l’IA à une refonte de la pédagogie, en mettant l’accent sur la pensée critique, la créativité et le jugement humain, tout en utilisant l’IA pour personnaliser l’apprentissage et alléger les tâches routinières. La réforme de l’éducation déterminera si les élèves deviendront autonomes grâce à l’IA ou dépendants de celle-ci.

7. Philosophie : De l’éthique à l’épistémologie

Les débats dépassent désormais les simples listes de contrôle sur « l’éthique de l’IA » pour aborder des questions plus profondes liées à la connaissance et à la vérité. Alors que les contenus générés par l’IA façonnent notre cognition, les préoccupations se concentrent sur la manière dont nous acquérons des connaissances, sur qui définit la vérité et sur l’impact de notre dépendance aux algorithmes sur l’action humaine. Ce tournant épistémologique redéfinit l’IA non seulement comme un outil, mais aussi comme une force qui remodèle notre compréhension même du monde.

8. Politique et réglementation : réalisme techno-géopolitique

Les États-Unis, la Chine et l’Union européenne considèrent désormais l’IA comme une infrastructure stratégique, la liant à la sécurité économique et à la puissance mondiale. Washington privilégie la domination et le contrôle de la chaîne d’approvisionnement ; Pékin accélère l’intégration nationale et promeut l’open source à l’étranger ; Bruxelles favorise la souveraineté par l’investissement et la réglementation. Les craintes liées à l’IA générale ont cédé la place à une concurrence pragmatique, où la coopération est menacée mais où le réalisme gagne du terrain.

9. Diplomatie : l’ONU avance lentement mais sûrement

L’ONU s’est imposée comme un acteur incontournable dans la gouvernance de l’IA, adoptant des résolutions qui mettent l’accent sur le renforcement des capacités, le financement et la coopération inclusive. Parmi les propositions figurent la création d’un Fonds mondial pour l’IA, d’un panel scientifique international et d’un dialogue mondial. Bien que le succès dépende de la volonté politique et du financement, l’ONU se forge un rôle de rassembleur légitime et axé sur le développement.

10. Effondrement du récit : du battage médiatique au réalisme

Le battage médiatique autour de l’IA s’essouffle, révélant des promesses exagérées et imposant un retour à la réalité. Les prédictions pessimistes à long terme et les évaluations démesurées cèdent la place à une approche plus raisonnable, axée sur les applications pratiques, les connaissances humaines et l’autonomisation locale. Ce changement de discours, s’il s’accompagne de transparence et de compétences technologiques, pourrait marquer le début d’une ère de l’IA plus réaliste et centrée sur l’humain.

Ce résumé est extrait de l’article du Dr Jovan Kurbalija intitulé « De la désillusion estivale à la clarté automnale : dix leçons pour l’IA ». Lisez l’article complet.

Frontières numériques : comment les intrusions numériques redessinent la géopolitique

Cet été a été marqué par une recrudescence des cyberattaques liées à des groupes soutenus par des États, soulignant à quel point les intrusions numériques sont devenues un élément central de la rivalité géopolitique.

Microsoft est à nouveau au centre d’opérations cybernétiques à haut risque. Une faille dans son logiciel SharePoint a déclenché une vague d’attaques qui s’est rapidement propagée, passant de l’espionnage ciblé à une exploitation plus large. Google et Microsoft ont confirmé que des groupes liés à la Chine figuraient parmi les premiers à agir, mais rapidement, des cybercriminels et d’autres acteurs soutenus par des États se sont joints à eux. Plus de 400 organisations auraient été compromises, faisant de cet incident l’une des violations les plus importantes liées à Microsoft depuis les attaques contre les serveurs Exchange en 2021. L’ampleur même de la violation, qui a compromis des millions d’enregistrements de données personnelles, a démontré le flou qui existe entre l’espionnage, la surveillance de masse et les opérations d’influence stratégique.

Un nouvel avertissement conjoint sur la cybersécurité (CSA) a été publié le 27 août par plus d’une douzaine d’organisations internationales chargées de l’application de la loi, explorant les rouages internes des menaces APT chinoises.

Cet épisode a encore exacerbé les tensions entre Washington et Pékin. Alors que les États-Unis accusaient la Chine d’avoir orchestré des intrusions par l’intermédiaire du groupe Salt Typhoon – une opération qui a permis de siphonner les données de millions d’Américains –, Pékin a rétorqué en affirmant que les États-Unis eux-mêmes avaient exploité une vulnérabilité du serveur Microsoft à des fins offensives. Simultanément, Microsoft a annoncé des restrictions concernant l’accès de la Chine à son système d’alerte précoce cybernétique, signalant ainsi un changement délibéré dans sa manière de gérer la coopération avec la Chine en matière de sécurité.

En Asie, des groupes liés à la Chine ont infiltré les réseaux de télécommunications à travers l’Asie du Sud-Est et ont également ciblé les infrastructures critiques de Singapour, ce qui a conduit à une enquête gouvernementale.

Les opérations liées à la Russie restent parmi les plus perturbatrices, combinant espionnage, sabotage et tactiques hybrides. Aux États-Unis, les tribunaux fédéraux ont confirmé que leurs systèmes avaient été la cible d’une cyberattaque, des rapports suggérant que Moscou en était responsable. Le FBI a averti séparément que des groupes russes continuaient d’explorer les infrastructures critiques en ciblant les dispositifs réseau associés aux systèmes informatiques des infrastructures critiques.

En Europe, la Russie est soupçonnée d’orchestrer des campagnes de sabotage et de pression hybride. Le chef des services de renseignement norvégiens a attribué le sabotage d’un barrage en avril à des pirates informatiques russes, tandis que Bruxelles a signalé un brouillage GPS qui a perturbé le vol de la présidente de la Commission européenne, Ursula von der Leyen, également lié à Moscou. Ces incidents suggèrent que les acteurs malveillants sont de plus en plus disposés à recourir à la guerre cybernétique et électronique non seulement contre des cibles militaires, mais aussi contre des infrastructures civiles et des personnalités politiques. L’Italie a été confrontée à sa propre épreuve lorsque des pirates informatiques soupçonnés d’être soutenus par l’État indien ont ciblé des entreprises de défense, ce qui suggère que les puissances moyennes entrent de plus en plus dans l’arène cybernétique soutenue par l’État.

Nulle part ailleurs la fusion entre cyberconflit et conflit cinétique n’est plus évidente qu’en Ukraine. En collectant et en analysant minutieusement les données numériques issues du conflit sur son territoire, l’Ukraine a fourni des informations précieuses à ses alliés. Cette mine d’informations démontre comment la criminalistique numérique peut non seulement contribuer à la défense, mais aussi renforcer les partenariats internationaux et la compréhension dans un monde complexe.

Dans un environnement aussi tendu, des efforts continus sont déployés pour gérer les risques, protéger les systèmes et naviguer dans les réalités diplomatiques complexes de l’ère numérique. Il est intéressant de noter que ces attaques se sont déroulées parallèlement aux négociations du Groupe de travail à composition non limitée (GTCNL) des Nations unies sur la cybersécurité, qui ont abouti à l’adoption du rapport final du groupe. Le GTCNL joue un rôle central dans l’élaboration des règles cybernétiques, en offrant un forum où les États négocient des normes, des principes et des règles de comportement responsable dans le cyberespace. Cependant, à quoi servent les règles si elles ne sont pas mises en œuvre ? Le GTCNL a toujours eu du mal à traduire en pratique des normes non contraignantes : l’une de ces règles, datant de 2015, interdit de laisser des activités criminelles se dérouler à partir du territoire national, mais les cyberattaques de cet été — et, soyons francs, depuis 2015 — prouvent le contraire. Cependant, le mécanisme mondial, qui a été approuvé dans le rapport final, pourrait apporter un changement. Les États auront la possibilité de rédiger et, à terme, d’adopter des recommandations axées sur l’action. Nous verrons comment ils l’utiliseront à l’avenir.

Le GTCNL des Nations unies conclut ses travaux, ouvrant la voie à un mécanisme permanent de cybersécurité

Le GTCNL sur la sécurité des TIC a adopté son rapport final après d’intenses négociations sur le comportement responsable des États dans le cyberespace. Comme toujours, les compromis entre les divers intérêts nationaux, en particulier ceux des grandes puissances, ont conduit à un texte édulcoré. Bien qu’aucun progrès révolutionnaire n’ait été réalisé, il y a tout de même beaucoup à souligner.

 Book, Comics, Publication, Adult, Male, Man, Person, Face, Head, Zeng Fanzhi, François Walthéry

Les États ont reconnu les risques internationaux pour la sécurité que représentent les rançongiciels, la cybercriminalité, l’intelligence artificielle, la technologie quantique et les cryptomonnaies. Le document soutient des concepts tels que la sécurité dès la conception et la cryptographie quantique, mais ne contient pas de mesures concrètes. Les outils commerciaux d’intrusion informatique (logiciels espions) ont été signalés comme des menaces pour la paix, bien que les propositions de surveillance aient été abandonnées. Le droit international reste la seule limite à l’utilisation des technologies, principalement dans les contextes de conflit. Les infrastructures critiques (IC), y compris les réseaux de fibre optique et les satellites, ont été mises en avant, les cyberattaques contre les IC étant reconnues comme des menaces.

Le débat central sur les normes a porté sur la question de savoir si le rapport final devait donner la priorité à la mise en œuvre des normes volontaires existantes ou au développement de nouvelles. Les États occidentaux et leurs alliés ont insisté sur l’importance de l’application, appelant à reporter les décisions sur de nouvelles normes au futur mécanisme permanent, tandis que plusieurs pays en développement ont soutenu cette approche tout en soulignant leurs limites de capacités. À l’inverse, un autre groupe de pays a plaidé pour poursuivre les travaux sur de nouvelles normes. Certaines délégations ont cherché une voie médiane, en soutenant l’application tout en laissant la porte ouverte à un développement futur. Parallèlement, la Liste de contrôle volontaire des actions pratiques a reçu un large soutien. En conséquence, le rapport final a atténué le langage concernant de nouvelles normes, tandis que la liste de contrôle a été conservée pour des discussions ultérieures plutôt que pour adoption.

Les États ont convenu de poursuivre les discussions sur l’application du droit international à l’utilisation des TIC par les États dans le futur Mécanisme mondial, confirmant que le droit international, et en particulier la Charte des Nations unies, s’applique dans le cyberespace. Les États ont également reconnu l’importance de l’échange des positions nationales sur l’applicabilité du droit international et ont appelé à un renforcement des efforts de renforcement des capacités dans ce domaine afin de permettre une participation significative de tous les États.

L’accord visant à créer un groupe thématique dédié au renforcement des capacités constitue une avancée significative, car il reconnaît officiellement le renforcement des capacités comme un pilier fondamental. Cependant, des questions importantes, notamment celles liées au financement, restent en suspens. Le Portail mondial de coopération et de renforcement des capacités en matière de sécurité des TIC (GSCCP) géré par les Nations unies sera développé selon un modèle modulaire, étape par étape, et des tables rondes continueront à promouvoir la coordination et l’échange d’informations. Toutefois, les propositions relatives à un fonds volontaire des Nations unies et à un programme de bourses ont été reportées.

La priorité donnée à la mise en œuvre des mesures de confiance (CBM) existantes plutôt qu’à l’adoption de nouvelles s’est affirmée lors de ce dernier cycle de négociations, malgré la pression de certains États pour obtenir des engagements supplémentaires, tels qu’un accès équitable au marché des TIC ou des modèles standardisés. Les propositions ne bénéficiant pas d’un large soutien — comme la CBM de l’Iran sur l’accès au marché des TIC, le modèle du Secrétariat ou l’inclusion de la norme J sur la divulgation des vulnérabilités — ont finalement été écartées ou reportées pour un examen ultérieur.

Les États se sont entendus sur les modalités de fonctionnement du futur Mécanisme mondial ainsi que sur la participation des parties prenantes non gouvernementales. Le Mécanisme mondial tiendra une session plénière de fond chaque année dans le cadre de son cycle biennal ; il mènera également ses travaux au sein de deux groupes thématiques spécialisés — l’un consacré aux défis spécifiques, l’autre au renforcement des capacités — afin de permettre des discussions plus approfondies en appui aux délibérations plénières ; et il organisera une conférence d’examen tous les cinq ans. Les organisations non gouvernementales dotées du statut consultatif auprès de l’ECOSOC pourront être accréditées pour participer aux sessions plénières de fond et aux conférences d’examen du Mécanisme mondial, tandis que les autres parties prenantes devront se soumettre à une procédure d’accréditation fondée sur l’absence d’objection.

Cet été à Genève : développements, événements et points à retenir

Évènement de haut niveau du SMSI+20 2025

Cet été, Genève a accueilli un événement mondial majeur dans le domaine du numérique. Du 7 au 11 juillet 2025, la ville a organisé la réunion de haut niveau du SMSI+20, parallèlement au Sommet mondial « AI for Good ».Les discussions, qui ont duré une semaine, s’inscrivaient dans le cadre des préparatifs de la révision du SMSI+20 par l’Assemblée générale des Nations unies, prévue les 16 et 17 décembre 2025. Cette révision réaffirmera l’engagement international en faveur du processus du SMSI et définira l’orientation stratégique pour les deux prochaines décennies de coopération numérique.

 Adult, Female, Person, Woman, Face, Head, Book, Comics, Publication, La Parka

Le résumé du président, publié par le ministre sud-africain des Communications, Solly Malatsi, a souligné le rôle du SMSI en tant que pierre angulaire de la coopération numérique mondiale. Au cours des vingt dernières années, l’architecture du SMSI, ancrée dans le Plan d’action de Genève et l’Agenda de Tunis, a permis d’étendre la connectivité, de responsabiliser les utilisateurs et d’orienter les stratégies nationales et internationales visant à réduire la fracture numérique. Aujourd’hui, plus de 5,5 milliards de personnes (68 % de la population mondiale) sont connectées à Internet, contre moins d’un milliard en 2005. Cependant, 2,6 milliards de personnes restent déconnectées, principalement dans les pays en développement, les pays les moins avancés et les communautés marginalisées, ce qui fait de la connectivité universelle la tâche inachevée la plus urgente.

Certaines réflexions menées à Genève ont porté sur la manière d’adapter la mise en œuvre des lignes d’action du SMSI aux nouvelles réalités : l’essor des technologies de l’IA, de l’informatique quantique et des technologies spatiales ; la persistance de la fracture numérique ; et la mise en œuvre du PMN. Les participants ont largement convenu que les mécanismes existants — le Forum du SMSI, le Forum sur la gouvernance de l’Internet (FGI) et des initiatives telles que « AI for Good » — sont indispensables et idéalement placés pour mettre en œuvre le PMN et traduire ses principes en actions mesurables.

Plusieurs thèmes ont été mis en avant. Premièrement, la nécessité de veiller à ce que la gouvernance numérique suive le rythme des progrès technologiques imprévisibles, tout en préservant les droits humains, la diversité culturelle et linguistique, ainsi que les réalités locales. Deuxièmement, l’importance de l’engagement des jeunes : plus de 280 jeunes ont participé à un programme qui leur était dédié, proposant des rôles de co-responsables, des fonds locaux et un programme permanent du SMSI pour les jeunes. Troisièmement, la reconnaissance du fait que l’inclusion doit aller au-delà de la connectivité pour englober l’accessibilité financière, les compétences numériques et la participation fondée sur les droits.

Les participants ont également souligné que le processus du SMSI devait continuer à associer l’innovation numérique aux objectifs de développement durable, en intégrant les technologies vertes et les solutions intelligentes sur le plan climatique. Des approches éthiques et fondées sur les droits en matière d’IA et d’autres technologies émergentes ont été jugées essentielles, tout comme une coopération internationale renforcée pour lutter contre les menaces liées à la cybersécurité, la désinformation et les préjudices en ligne.

Le résumé du président s’est conclu par un message clair : le SMSI restera la plateforme centrale de promotion de la coopération numérique au-delà de 2025, garantissant la consolidation des acquis des deux dernières décennies tout en s’adaptant aux nouvelles réalités. Il a souligné que la véritable inclusion ne consiste pas seulement à être présent, mais aussi à être entendu. Il est nécessaire d’impliquer ceux qui sont encore exclus, de refléter la diversité des expériences locales et mondiales et de continuer à promouvoir la vision du SMSI d’une société de l’information équitable et centrée sur l’humain au cours des 20 prochaines années.

Nos rapports de session et les analyses de l’IA issues des deux événements sont disponibles sur les pages web dédiées WSIS+20 High-Level Event 2025 et AI for Good Global Summit 2025 de l’Observatoire Digital Watch.

Avant-projet du document final du SMSI+20

Dans la perspective de la réunion de haut niveau de l’Assemblée générale des Nations unies consacrée à l’examen du SMSI+20, prévue les 16 et 17 décembre 2025, les négociations et les consultations se concentrent sur le texte concret de ce qui deviendra le document final du SMSI+20. Ce texte concret, appelé « avant-projet », a été publié le 30 août.

La fracture numérique et l’inclusion occupent une place centrale dans l’avant projet. Si la connectivité s’est développée (95 % de la population mondiale a désormais accès au haut débit et l’utilisation d’Internet est passée de 15 % en 2005 à 67 % en 2025), des écarts importants subsistent. Des disparités persistent entre les pays, les zones urbaines et rurales, les sexes, les personnes handicapées, les populations âgées et les locuteurs de langues minoritaires. Le projet préconise un accès abordable au haut débit, des contenus multilingues locaux, l’alphabétisation numérique et des mécanismes permettant de connecter les personnes non connectées, afin de garantir un accès équitable.

L’économie numérique continue de transformer le commerce, la finance et l’industrie, créant des opportunités pour les petites entreprises et celles dirigées par des femmes, mais risquant également d’aggraver les inégalités en raison de la concentration du pouvoir technologique et de l’automatisation. Dans ce contexte, le projet souligne l’engagement à soutenir le développement des services financiers numériques et invite les parties prenantes à favoriser des « environnements numériques ouverts, équitables, inclusifs et non discriminatoires ».

La durabilité environnementale est un élément essentiel à prendre en considération, car les TIC facilitent la surveillance du changement climatique et la gestion des ressources, mais leur croissance contribue à la demande énergétique, aux émissions et aux déchets électroniques. Le projet met en avant un appel à l’élaboration de normes mondiales de reporting sur les impacts environnementaux, de normes mondiales pour la conception de produits durables et de pratiques d’économie circulaire afin d’aligner l’innovation numérique sur les objectifs environnementaux.

L’avant projet réaffirme les droits de l’Homme, la confiance et la sécurité, ainsi que la gouvernance multipartite de l’Internet comme piliers centraux de l’écosystème numérique. Les droits de l’Homme sont considérés comme le fondement de la coopération numérique, avec des engagements à protéger la liberté d’expression, la vie privée, l’accès à l’information et les droits des femmes, des enfants et d’autres groupes vulnérables. Le renforcement de la confiance et de la sécurité dans l’utilisation des technologies est considéré comme essentiel pour l’innovation et le développement durable, l’accent étant mis sur la protection des utilisateurs contre les menaces telles que les abus et la violence en ligne, les discours haineux et la désinformation, tout en garantissant la protection de la vie privée et la liberté d’expression.

Le projet définit une série de caractéristiques clés (souhaitables) pour l’Internet – ouvert, libre, mondial, interopérable, fiable, sécurisé, stable – et souligne la nécessité d’un débat plus inclusif sur la gouvernance de l’Internet, entre les différents groupes de parties prenantes (gouvernements, secteur privé, société civile, universités et communautés techniques) et entre les pays développés et en développement.

Afin de promouvoir le renforcement des capacités en matière d’IA, le projet propose un programme de recherche des Nations Unies sur l’IA et un programme de bourses pour le renforcement des capacités dans ce domaine, tous deux axés sur les pays en développement. Parallèlement, le projet salue les initiatives en cours telles que le Panel scientifique international indépendant sur l’IA et le Dialogue mondial sur l’IA.

Reconnaissant l’importance cruciale de la coopération mondiale en matière de gouvernance de l’Internet, le projet désigne le Forum sur la gouvernance de l’Internet (FGI) comme un organe permanent des Nations Unies et demande un renforcement du soutien du secrétariat, une amélioration des méthodes de travail et la communication des résultats aux entités et processus des Nations Unies (qui sont ensuite appelés à tenir dûment compte de ces résultats dans leurs travaux). La question longtemps débattue de la viabilité financière du FGI est abordée sous la forme d’une demande adressée au Secrétaire général des Nations Unies afin qu’il fasse des propositions sur le financement futur.

Enfin, le projet examine l’interaction entre le SMSI, le Pacte numérique mondial et le Programme de développement durable à l’horizon 2030, et décrit plusieurs mécanismes permettant de mieux les relier et d’éviter les doubles emplois et les chevauchements. Il s’agit notamment d’une feuille de route conjointe pour la mise en œuvre du SMSI et du PMN, de l’intégration de l’examen et du suivi du PMN dans les mécanismes annuels existants du SMSI (au niveau de la Commission de la science et de la technologie au service du développement et du Conseil économique et social) et d’examens de l’alignement du PMN et du SMSI au niveau de l’Assemblée générale. En ce qui concerne les examens globaux, le projet envisage également un examen combiné de l’Agenda 2030 et des résultats de la feuille de route conjointe de mise en œuvre du SMSI et du PMN en 2030, ainsi qu’un examen du SMSI+30 en 2035.

Perspectives d’avenir

L’avant projet prépare le terrain pour les négociations intenses qui précéderont la réunion de haut niveau de décembre 2025. Les États membres et les autres parties prenantes sont invités à soumettre leurs commentaires jusqu’au 26 septembre. Il reste ensuite à déterminer à quoi ressemblera la deuxième version du document final et quels éléments seront conservés, révisés ou supprimés.

Suivez le processus avec nous sur notre page Web dédiée au SMSI+20, où nous suivrons les développements clés, mettrons en avant les débats émergents et fournirons des analyses d’experts au fur et à mesure que les négociations avanceront.


Digital Watch newsletter – Issue 103 – September 2025

September 2025 in retrospect

The digital and geopolitical landscape is shifting faster than ever—and understanding it is more important than ever. This month, our newsletter takes you behind the headlines and into the forces shaping technology, AI, and cybersecurity.

The levers of power: US chips vs China’s critical minerals – who really holds the keys to the future?

The global AI race: Rival powers, competing visions, and what it means for the future of AI.

Lessons from summer: From disillusionment to clarity: Ten insights for AI today.

Cyber frontlines: Digital intrusions are not just technical—they’re reshaping geopolitics.

UN OEWG wrap-up: A landmark step toward a permanent cybersecurity mechanism.

This summer in Geneva: Key events and takeaways shaping international digital governance.

 Book, Publication, Art, Collage

ARTIFICIAL INTELLIGENCE

The Global Dialogue on AI Governance was launched to foster open, inclusive discussions on issues such as safe and trustworthy AI, digital divides, ethics, human rights, transparency, accountability, interoperability, and open-source development.

The UN Secretary-General has opened applications for a 40-member Independent International Scientific Panel on AI, mandated under the Global Digital Compact to deliver annual evidence-based assessments of AI’s opportunities, risks, and impacts to the Global Dialogue on AI Governance and the General Assembly.

A coalition of global experts and leaders has launched the Global Call for AI Red Lines, an initiative that advocates for clear red lines to govern the development and deployment of AI.

Albania introduced the world’s first AI-powered public official, named Diella. Appointed to oversee public procurement, the virtual minister represents an attempt to use technology itself to create a more transparent and efficient government, with the goal of ensuring procedures are ‘100% incorruptible.’

Kazakhstan will establish a Ministry of Artificial Intelligence and Digital Development to drive its goal of becoming a fully digital nation within three years, as part of the forthcoming Digital Kazakhstan strategy.

Italy became the first EU country to pass a national AI law, introducing detailed rules to govern the development and use of AI technologies across key sectors such as health, work, and justice.

The Mexican government is preparing a law to regulate the use of AI in dubbing, animation, and voiceovers to prevent unauthorised voice cloning and safeguard creative rights.

The EU is set to unveil its ‘Apply AI strategy’ to boost homegrown AI as a strategic asset for competitiveness, security, and resilience, reducing reliance on US and Chinese technology..

TECHNOLOGIES

The USA, Japan, and South Korea held trilateral meetings in Seoul and Tokyo to advance quantum cooperation, focusing on securing ecosystems against cyber, physical, and intellectual property threats.

The USA and the UK have signed a Technology Prosperity Deal to strengthen collaboration in frontier technologies, with a strong emphasis on AI, quantum, and the secure foundations needed for future innovation.

Researchers at the University of Pennsylvania have demonstrated that quantum and classical networks can share existing fibre infrastructure using standard Internet Protocol, a breakthrough with broad implications for governance, infrastructure, and the future of digital societies.

European ministers have signed the Declaration of the Semicon Coalition, calling for an EU Chips Act 2.0 to strengthen semiconductor resilience, innovation, and competitiveness through collaboration, investment, skills development, sustainability, and global partnerships.

The USA proposed producing only half of American chips in Taiwan and moving the rest to the US, but Taiwan rejected the idea, saying it was never part of official discussions.

INFRASTRUCTURE

Meta has announced Candle, a new submarine cable system designed to enhance digital connectivity across East and Southeast Asia. The 8,000-kilometre network will link Japan, Taiwan, the Philippines, Indonesia, Malaysia, and Singapore by 2028, offering a record 570 terabits per second (Tbps) of capacity.

CYBERSECURITY

China has enacted one of the world’s toughest cybersecurity reporting laws, mandating major infrastructure providers and all network operators to report serious cyber incidents within one hour.

Brazil is set to adopt its first national cybersecurity law, the Cybersecurity Legal Framework, which will create a National Cybersecurity Authority to centralise oversight and strengthen protection for citizens and businesses.

Cybercriminal group Radiant has dropped its extortion attempt against Kido Schools and issued an apology, claiming all child data was deleted, but experts doubt the sincerity of the move.

Japanese beer maker Asahi Group Holdings has halted production at its main plant following a cyberattack that caused major system failures. 

Australia has issued regulatory guidance for its upcoming ban on social media use by individuals under 16, effective 10 December 2025, which requires platforms to verify ages, remove underage accounts, and block re-registration attempts. The current ban already includes Facebook, TikTok, YouTube, and Snapchat. The head of Australia’s eSafety Commissioner, Julie Inman Grant, has written to 16 more companies, including WhatsApp, Reddit, Twitch, Roblox, Pinterest, Steam, Kick, and Lego Play, to ‘self-assess’ whether they fall under the ban’s remit.

Greek Prime Minister Kyriakos Mitsotakis has indicated that Greece may consider banning social media use for children under the age of 16.

French lawmakers are proposing new rules to curb teen social media use, including automatic nighttime curfews disabling accounts for 15- to 18-year-olds between 10 p.m. and 8 a.m. to address mental health concerns.

OpenAI has introduced a specialised version of ChatGPT tailored for teenagers, incorporating age-prediction technology to restrict access to the standard version for users under 18. The company has also introduced new parental controls, providing families with greater oversight of how their teens use the platform.

Meta is expanding teen-specific Facebook and Messenger accounts with stricter default privacy settings and controls to create a safer, more age-appropriate online environment.

ECONOMIC

Apple has asked the European Commission to repeal the Digital Markets Act (DMA), arguing it forces a choice between weakening device security or withholding features from EU users, citing delayed launches of services like Live Translation, iPhone Mirroring, and enhanced location tools.

The EU and Indonesia have finalised a Comprehensive Economic Partnership and Investment Protection Agreement, focusing on technology, digitalisation, and sustainability. This agreement eliminates tariffs on 98.5% of trade, expands market access, and secures critical raw materials for strategic industries.

The UAE has signed the Multilateral Competent Authority Agreement under CARF, planning implementation by 2027 to enable automatic crypto tax data sharing and strengthen sector oversight and global transparency.

The People’s Bank of China has opened a digital RMB hub in Shanghai to expand global use and strengthen financial market services.

HUMAN RIGHTS

The European Data Protection Board (EDPB) has adopted guidelines clarifying how the Digital Services Act (DSA) interacts with the General Data Protection Regulation (GDPR). The aim is to ensure consistency across rules that touch on issues like transparency of recommender systems, protection of minors, and online advertising.

China’s cyberspace regulator has proposed that major online platforms establish independent expert oversight committees to monitor data practices and security, with noncompliance risking intervention by provincial authorities.

Ghana has launched a year-long national privacy campaign to build public awareness and trust, complemented by professional initiatives like the Ghana Association of Privacy Professionals and recognition for certified Data Protection Officers.

Social media platform Discord has reported a data breach caused by a compromised third-party service provider, exposing personal information of users who had contacted its support and Trust & Safety teams.

LEGAL

The European Commission has fined Google nearly $3.5 billion for abusing its dominance in digital advertising by favouring its own AdX platform in ad-serving and buying tools, breaching EU antitrust rules.

The AI startup, Anthropic, has agreed to pay $1.5 billion to settle a copyright lawsuit accusing the company of using pirated books to train its Claude AI chatbot.

Amazon has agreed to pay $2.5 billion to settle FTC charges that it deceptively enrolled 35 million customers in Prime without clear consent and made cancellation deliberately difficult.

Elon Musk’s xAI has sued OpenAI over alleged technology poaching, while OpenAI asked a judge to dismiss the case as baseless and part of Musk’s ongoing harassment.

Apple and OpenAI have asked a federal judge to dismiss Musk’s claim that they colluded to disadvantage xAI’s Grok chatbot, arguing their partnership is non-exclusive and that xAI has not shown any real competitive harm.

Europe’s General Court has sided with Meta and TikTok in their challenge to the EU’s Digital Services Act supervisory fee, ruling that the 0.05% levy was calculated unfairly and placed a disproportionate financial burden on the companies.

SOCIOCULTURAL

After briefly banning social media, Nepal lifted the restrictions. Nepalis turned to Discord to elect their new prime minister.

An executive order by US President Donald Trump set the stage for a new American-led company to take 80% ownership of TikTok, leaving ByteDance and its Chinese investors with a minority stake under 20%.

The UK government has announced plans to make digital ID mandatory for proving the right to work by the end of the current Parliament, expected no later than 2029.

A Dutch court has ruled that Meta must allow Facebook and Instagram users to set a permanent chronological feed as the default feed, making the option easily accessible and retaining it across app restarts.

YouTube will reinstate accounts previously banned for repeatedly spreading misinformation about COVID-19 and the 2020 US presidential election, marking a further rollback of its moderation policies.

Meta and OpenAI have launched social media apps featuring feeds of AI-generated videos, raising concerns about AI slop.

DEVELOPMENT

The UNDP will launch a Government Blockchain Academy in 2026 to train public officials in blockchain, AI, and emerging technologies, supporting tech-driven economic growth and sustainable development.

The 2025 Digital Participation Platforms Guide was released to help governments and civil society design and manage digital platforms that enhance transparency and civic engagement.

Technology was everywhere at this year’s UN General Assembly. Whether in the General Debate, side events on digital prosperity, or the launch of a new dialogue on AI governance, governments and stakeholders confronted the urgent question of how to ensure that digital transformation serves humanity. Here are the key moments.

Digital Cooperation Day: From principles to implementation in global digital governance

On 22 September, the UN Office for Digital and Emerging Technologies (ODET) hosted a Digital Cooperation Day, marking the first anniversary of the Global Digital Compact. The event brought together leaders from governments, business, academia, and civil society to discuss how to shift the focus from principle-setting to the implementation of digital governance. Discussions covered inclusive digital economies, AI governance, and digital public infrastructure, with sessions on privacy, human rights in data governance, and the role of technology in sustainable development and climate action. Panels also explored the impact of AI on the arts and innovation, while roundtables highlighted strategies for responsible and equitable use of technology. The Digital Cooperation Day is set to become an annual platform for reviewing progress and addressing new challenges in international digital cooperation. 

Digital@UNGA 2025: Digital for Good – For People and Prosperity

On 23 September, the International Telecommunication Union (ITU) and the UN Development Programme (UNDP) hosted Digital@UNGA 2025: Digital for Good – For People and Prosperity. The anchor event spotlighted digital technologies as tools for inclusion, equity, and opportunity. Affiliate sessions throughout the week explored trust, rights, and universal connectivity, while side events examined issues ranging from AI for the SDGs and digital identity to green infrastructure, early-warning systems, and space-based connectivity. The initiative sought to showcase digital tools as a force for healthcare, education, and economic empowerment, and to inspire action and dialogue towards an equitable and empowering digital future for all.

Security Council debate on AI

The UN Security Council held a high-level debate on AI, highlighting the technology’s promise and its urgent risks for peace and security. The debate, chaired by the Republic of Korea President Lee Jae Myung, underscored a shared recognition that AI offers enormous benefits, but without strong global cooperation and governance, it could deepen divides, destabilise societies, and reshape warfare in dangerous ways.

The launch of the Global Dialogue on AI Governance

A major highlight was the High level Meeting to Launch Global Dialogue on AI Governance on 25 September. 

Senior leaders outlined how AI could drive economic growth and development, particularly in the Global South, while plenary discussions saw stakeholders present their perspectives on building agile, responsive and inclusive international AI governance for humanity. A youth representative closed the session, underscoring younger generations’ stake in shaping AI’s future.

The Global Dialogue on AI Governance is tasked, as decided by the UN General Assembly this August, with facilitating open, transparent and inclusive discussions on AI governance. The dialogue is set to have its first meeting in 2026, along with the AI for Good Summit in Geneva. 

Launch of open call for Independent International Scientific Panel on AI

The UN Secretary-General has launched an open call for candidates to join the Independent International Scientific Panel on Artificial Intelligence. Agreed by member states in September 2024 as part of the Global Digital Compact, the 40-member Panel will provide evidence-based scientific assessments on AI’s opportunities, risks, and impacts. Its work will culminate in an annual, policy-relevant – but non-prescriptive – summary report presented to the Global Dialogue, along with up to two updates per year to engage with the General Assembly plenary. Following the call for nominations, the Secretary-General will recommend 40 members for appointment by the General Assembly.

The General Debate of the UNGA80

The General Debate opened on 23 September under the theme ‘Better together: 80 years and more for peace, development and human rights’. While leaders addressed a broad spectrum of global challenges, digital and AI governance were recurring concerns.

Technology must remain a servant of humanity, not its master. Debates underscored the need to align rapid technological change with global governance, with countries calling for stronger international cooperation and responsible approaches to the development and use of technology. Delegations emphasised that digital technologies must serve humanity – advancing development, human rights, and democracy – while warning of growing risks posed by AI misuse, disinformation, hybrid warfare, cyber threats, and the governance of critical minerals exploitation.

Member states voiced both optimism and concern: they called for ethical, human-centred and responsible AI governance, stronger safeguards for peace and security, and rules and ethical standards to manage risks, including in military applications. Calls for a global AI framework were echoed in various statements, alongside broader appeals for inclusive digital cooperation, accelerated technology transfer, and investment in infrastructure, literacy, and talent development. Several leaders welcomed the new AI mechanisms established by the UNGA. 

Alongside the warnings, governments stressed the promise of digital technologies for development, health, education, productivity, and the green energy transition. Statements highlighted the importance of inclusion, equitable access, connectivity, digital literacy, and capacity-building, especially for developing countries, noting that AI can boost economic autonomy and long-term prosperity if governed responsibly. Delegations also underlined the need to actively address the digital divide through investment in infrastructure, skills, and technology transfer, with many emphasising that the benefits of this new era must be shared fairly with all.

A recurring theme was that bridging technological and social divides requires mature multilateralism and reinforced international cooperation. Speakers warned that digital disruption is deepening geopolitical divides, with smaller and developing nations demanding a voice in shaping emerging governance regimes. Some also noted that advancing secure, rights-based, and human-centric technologies, protecting against cybercrime, and managing the influence of global tech corporations are essential for global stability.

There were also some calls for universal guardrails, international norms, and new frameworks to address risks linked to cybercrime, disinformation, repression, hybrid warfare, and the mental health of youth.

The discussions underscored a common thread: while digital innovation offers extraordinary opportunities for development, inclusion, and growth, its risks demand shared standards, global cooperation, and a commitment to human dignity.

The bigger picture: A comprehensive coverage of UNGA80 can be found on our dedicated web page.

Diplo NEWS25 Insta UNGA
dig.watch

The General Debate at the 80th session of the UN General Assembly brings together high-level representatives from across the globe to discuss the most pressing issues of our time. The session took place against the backdrop of the UN’s 80th anniversary, serving as a moment for both reflection and a forward-looking assessment of the organisation’s role and relevance.

This year’s open-source pivot is probably the most consequential AI development since the launch of ChatGPT in November 2022. On 20 January, DeepSeek released its open-source reasoning system, an ‘AI Sputnik moment,’  in Marc Andreessen’s words. Then, on 23 July 2025, the Trump administration made open-source a US strategic priority in ‘Winning the Race: America’s AI Action Plan.’

This AI shift has been counterintuitive. Chinese companies historically favoured proprietary software, and Republicans were rarely open-source champions. Why did both powers shift course? Because open-source has moved from an ideological preference to a strategic priority. The logic is simple: players must adapt to the open-source wave or risk watching global AI standards tilt decisively towards their rival.

What are the strengths of open-source AI?

Open-source AI has emerged as a powerful force, with strengths across speed, cost, motivation, integration, and efficiency. 

Its speed comes from collective development: millions of models are constantly tested and improved by a global community, enabling innovation far faster than closed corporate labs. 

Cost is another advantage, as expenses are distributed across contributors and companies, reducing financial barriers and shifting focus from brute-force computing to smarter architectures. 

The motivation of younger developers also drives progress, since open ecosystems attract talent seeking purpose, learning, and collaboration. 

Crucially, integration is easier in open systems: their transparency and adaptability make them better suited for embedding AI into industries, education, and workflows, fueling a diverse ecosystem of tools and agents. 

Finally, open-source showcases size efficiency. Smaller, well-designed models like Mistral 7B can match or surpass larger ones, lowering hardware demands and making advanced AI broadly accessible.

The ascendant open source paradigm

We are witnessing a major shift towards acceptance of open-source AI as not only ethically favourable but, even more importantly, a strategically superior solution for the future of AI. Openness wins not because it is a moral ideal, but because it delivers superior interoperability, resilience, and innovation at scale. AI open-source shift provides hope that societal values can be aligned with corporate interests.

This text was adapted from Jovan Kurbalija’s analysis ‘The strategic imperative of open source AI’. Read the original below.

The strategic imperative of open source
www.diplomacy.edu

This year, open-source AI transformed from an ideological preference into a strategic imperative, a shift echoing a clear lesson from digital history: open systems win. Just as the open protocols of the internet and the collaborative Linux operating system outcompeted closed, proprietary rivals, today’s open AI models are set to dominate. Openness is no longer just a principle; it is the winning strategy.

On 25 September, Meta quietly introduced Vibes, a new short-form video feed in the Meta AI app, wholly powered by AI. Rather than spotlighting real creators or grassroots content, the feed is built around synthetic content. 

On 30 September, OpenAI revealed Sora, a companion app centred on AI-created short videos, complete with ‘cameo’ features letting people insert their own faces (with permission) into generative scenes.

From the outside, both Vibes and Sora look like competitive copies of TikTok or Reels — only their entire content pipeline is synthetic. 

They are the first dedicated firehoses of what has been officially termed ‘AI slop.’ This phrase, added to the Cambridge Dictionary in July 2025 and defined as ‘content on the internet that is of very low quality, especially when it is created by AI,’ perfectly captures the core concern.

Across the tech world, reactions ranged from bemused to alarmed. Because while launching a new social media product is hardly radical, creating a platform whose entire video ecosystem is synthetic — devoid of human spark — is something else entirely. 

 Book, Comics, Publication, Person, Face, Head

Why is it concerning? Because it blurs the line between real and fake, making it hard to trust what you see. It can copy creators’ work without permission and flood feeds with shallow, meaningless videos that grab attention but add little value. Algorithms exploit user preferences, while features like synthetic cameos can be misused for bullying or identity abuse. And then there’s also the fact that AI clips typically lack human stories and emotion, eroding authenticity.

What’s next? Ultimately, this shift to AI-generated content raises a philosophical question: What is the purpose of our shared digital spaces?

As we move forward, perhaps we need to approach this new landscape more thoughtfully — embracing innovation where it serves us, but always making space for the authentic, the original, and the human.

For now, Vibes and Sora have not yet been rolled out worldwide. Given the tepid response from early adopters, their success is far from guaranteed. Ultimately, their fate hinges entirely on the extent to which people will use them.

With an executive order, US President Donald Trump brought the protracted TikTok drama to a climax, paving the way for a new company – led by American investors who will own 80% of the platform – to take control of the app. TikTok’s (soon to be former) parent company, ByteDance, and its Chinese investors will retain a minority stake of less than 20%.

A new US-led joint venture will oversee the app’s algorithm, code, and content moderation, while all American user data will be stored on Oracle-run servers in the USA. The venture will have a seven-member board, six of whom are American experts in cybersecurity and national security. 

Media reports that the US investor group is led by software giant Oracle, while prominent backers include private equity firm Silver Lake, media moguls Rupert and Lachlan Murdoch, and Dell’s CEO Michael Dell. 

 Text, Number, Symbol

The crux of the matter: All US user data will be stored on Oracle-run servers in the USA. Software updates, algorithms, and data flows will face strict monitoring, with recommendation models retrained and overseen by US security partners to guard against manipulation.

The US government has long argued that the app’s access to US user data poses significant risks, as ByteDance is possibly subject to the Chinese 2017 National Intelligence Law, which requires any Chinese entity to support, assist, and cooperate with state intelligence work – including, possibly, the transfer of US citizens’ TikTok data to China. On the other hand, TikTok and ByteDance maintained that TikTok operates independently and respects user privacy.

In early 2024, the US Congress, citing national security risks, passed a law requiring ByteDance, TikTok’s Chinese parent company, to divest control of the app or face a ban in the USA. The law, which had bipartisan support in Congress, was later upheld by the Supreme Court.

However, the administration under President Trump has been repeatedly postponing enforcement via executive orders.

Economic and trade negotiations with China have been central to the delay. As the fourth round of talks in Madrid coincided with the latest deadline, Trump opted to extend the deadline again on 16 September — this time until 16 December 2025 — giving TikTok more breathing room. 

What’s next? There are still some details to be hashed out, such as whether US users will need to install a new app altogether. Nevertheless, this agreement marks a significant step in resolving one of the most high-profile tech-policy disputes of the decade. Additionally, the executive order allows 120 days for the deal to be finalised.

The bottom line: For millions of American users, the political wrangling is background noise. The real change will be felt in their feeds – whether the new, American-guarded TikTok can retain the chaotic creativity that made it a cultural force.

The semiconductor industry is undergoing a profound geopolitical shift. Once emblematic of globalisation and interdependence, chips are now treated as strategic assets, driving states to recalibrate policies around sovereignty, resilience, and control.

China’s recent actions underscore this trend. Its Ministry of Commerce has initiated an anti-dumping investigation into US analogue chips, accusing US firms of ‘lowering and suppressing’ prices in ways that hurt domestic producers. It covers legacy chips built on older 40nm-plus process nodes – not the cutting-edge AI accelerators that dominate geopolitical debates, but the everyday workhorse components that power smart appliances, industrial equipment, and automobiles. These mature nodes account for a massive share of China’s consumption, with US firms supplying more than 40% of the market in recent years.

For China’s domestic industry, the probe is an opportunity. Analysts say it could force foreign suppliers to cede market share to local firms, which are concentrated in Jiangsu and other industrial provinces. At the same time, there are reports that China is asking tech companies to stop purchasing Nvidia’s most powerful processors

And speaking of Nvidia, the company is in the crosshairs again, as China’s State Administration for Market Regulation (SAMR) issued a preliminary finding that Nvidia violated antitrust law linked to its 2020 acquisition of Mellanox Technologies. Depending on the outcome of the investigation, Nvidia could face penalties.

Meanwhile, Washington is tightening its own grip. Last month, the government also moved into unprecedented territory by considering equity stakes in domestic chipmakers in exchange for CHIPS Act grants. Intel is at the centre of this experiment, with $8.87 billion in grant money potentially converted into a 10% government stake – though negotiations remain unclear. Critics warn such ownership risks politicising the industry, noting that Trump’s claims to have ‘saved Intel’ may be more theatre than strategy

In addition to this, the White House is preparing to impose sweeping tariffs, with imports of semiconductors facing rates of nearly 100%, and exemptions granted to companies that manufacture or commit to manufacturing in the US. Chinese firms, such as SMIC and Huawei, are expected to be hit the hardest. The USA will also require annual license renewals for South Korean firms Samsung and SK Hynix to supply advanced chips to Chinese factories – a reminder that even America’s allies are caught in the middle. 

Nvidia announced a $5 billion investment in Intel to co-develop custom chips with the company. Together, these moves reflect Washington’s broader effort to strengthen its semiconductor leadership amid growing competition from China.

Amid negotiations with Taiwan, US Commerce Secretary Howard Lutnick floated a proposal that only half of America’s chips should be produced in Taiwan, relocating the other half to the USA, to reduce dependence on a single foreign supplier. But Taiwan’s Vice Premier Cheng Li-chiun dismissed the idea outright, stating that such terms were never part of formal talks and would not be accepted. While Taiwan is willing to deepen commercial ties with the US, it refuses to relinquish control over the advanced semiconductor capabilities that underpin its geopolitical leverage.

The EU is also asserting tighter control over its technological assets. EU member states have called for a revised and more assertive EU Chips Act, arguing that Europe must treat semiconductors as a strategic industry on par with aerospace and defence. The signatories – representing all 27 EU economies – warn that while competitors like the USA and Asia are rapidly scaling public investment, Europe risks falling behind unless it strengthens its domestic ecosystem across R&D, design, manufacturing, and workforce development.

The proposed ‘second-phase Chips Act’ is built around three strategic objectives:

  • Prosperity, through a competitive and innovation-led semiconductor economy
  • Indispensability, by securing key control points in the value chain
  • Resilience, to guarantee supply for critical sectors during geopolitical shocks.

The EU’s message is clear: Europe intends not just to participate in the semiconductor industry, but to shape it on its own terms, backed by coordinated investment, industrial alliances, and international partnerships that reinforce — rather than dilute — strategic autonomy.

The bottom line: The age of supplier nations is over; the age of semiconductor sovereignty has begun. The message is the same around the globe: chips are too critical to trust to someone else.

In a historic first for democracy, a country has chosen its interim prime minister via a messaging app. 

In early September, Nepal was thrown into turmoil after the government abruptly banned 26 social media platforms, including Facebook, YouTube, X, and Discord, citing failure to comply with registration rules. 

The move sparked outrage, particularly among the country’s Gen Z, who poured into the streets, accusing officials of corruption. 

As the ban took effect, the country’s digitally literate youth quickly adapted their strategies:

The protests, however, quickly turned deadly. Within days, the social media ban was lifted. 

Karki was sworn in the same evening. On her recommendation, the President has dissolved parliament, and new elections are scheduled for 5 March 2026, after which Karki will step down.

 Adult, Male, Man, Person, Art, Graphics, Face, Head, People

Zooming out. On platforms like Discord, Nepali Gen Z encountered a form of digital democracy that felt more egalitarian than physical spaces, precisely because of the anonymity it affords. This has turned Discord into a political arena where participants can speak freely without fear of retaliation and take part in an unprecedentedly ‘democratic’ process on equal footing. Nepalis turned to Discord to debate the country’s political future, fact-check rumours and collect nominations for the country’s future leaders. 

Yet, this very openness also makes democratic practice more difficult: The absence of accountability can deepen polarisation and fuel misinformation, as was the case in Nepal, where false claims circulated about protest leaders being foreign citizens, while pro-monarchy groups operated in parallel Discord channels

However temporary or symbolic, the episode underscored how digital platforms can become political arenas when traditional ones falter. When official institutions lose legitimacy, people will instinctively repurpose the tools at their disposal to build new ones. The events are likely to offer lessons for other governments grappling with the role of censorship during times of unrest.

In response to rising concerns over the impact of AI and social media on teenagers, governments and tech companies are implementing new measures to enhance online safety for young users.

Australia has released its regulatory guidance for the incoming nationwide ban on social media access for children under 16, effective 10 December 2025. The legislation requires platforms to verify users’ ages and ensure that minors are not accessing their services. Platforms must detect and remove underage accounts, communicating clearly with affected users. Platforms are also expected to block attempts to re-register. It remains uncertain whether removed accounts will have their content deleted or if they can be reactivated once the user turns 16.

Greek Prime Minister Kyriakos Mitsotakis has indicated that Greece may consider banning social media use for children under the age of 16. Speaking at a UN event in New York, ‘Protecting Children in the Digital Age’, as part of the 80th UN General Assembly, he warned that unchecked social media exposure constitutes the largest uncontrolled experiment on children’s minds. He highlighted national initiatives such as the ban on mobile phones in schools and the launch of parco.gov.gr, which offers age verification and parental controls. Mitsotakis emphasised that enforcement challenges should not hinder action and called for international cooperation to address the increasing risks to children online.

French lawmakers are proposing stricter regulations on teen social media use, including mandatory nighttime curfews. A parliamentary report suggests that social media accounts for 15- to 18-year-olds should be automatically disabled between 10 p.m. and 8 a.m. to help combat mental health issues. This proposal follows concerns about the psychological impact of platforms like TikTok on minors. 

In the USA, the Federal Trade Commission (FTC) has launched an investigation into the safety of AI chatbots, focusing on their impact on children and teenagers. Seven firms, including Alphabet, Meta, OpenAI and Snap, have been asked to provide information about how they address risks linked to ΑΙ chatbots designed to mimic human relationships. Not long after, grieving parents have testified before the US Congress, urging lawmakers to regulate AI chatbots after their children died by suicide or self-harmed following interactions with these tools. 

OpenAI has introduced a specialised version of ChatGPT tailored for teenagers, incorporating age-prediction technology to restrict access to the standard version for users under 18. Where uncertainty exists, it will assume the user is a teenager. If signs of suicidal thoughts appear, the company says it will first try to alert parents. Where there is imminent risk and parents cannot be reached, OpenAI is prepared to notify the authorities. This initiative aims to address growing concerns about the mental health risks associated with AI chatbots, while also raising concerns related to issues such as privacy and freedom of expression. 

Alongside this, OpenAI has introduced new parental controls, providing families with greater oversight of how their teens use the platform. Parents can link accounts with their children and manage settings through a simple dashboard, while stronger safeguards filter harmful content and restrict roleplay involving sex, violence, or extreme beauty ideals. Families can also fine-tune features such as voice mode, memory, and image generation, or set quiet hours when ChatGPT cannot be accessed.

Meta, meanwhile, is expanding its rollout of teen-specific accounts for Facebook and Messenger. These accounts include features designed to provide a more age-appropriate environment, such as stricter default privacy settings and limits on unwanted interactions. The company says these safeguards are part of a broader effort to balance connectivity with protection for young users.

The intentions are largely good, but a patchwork of bans, curfews, and algorithmic surveillance just underscores that the path forward is unclear. Meanwhile, the kids are almost certainly already finding the loopholes.

The digital governance scene has been busy in Geneva in September. Here’s what we have tried to follow. 

 machine, Wheel, Spoke, City, Art, Bulldozer, Fun, Drawing

ITU Council Working Groups (CWGs) 

At the International Telecommunication Union (ITU), Council Working Groups (CWGs) met between 8 and 19 September to advance various tracks of work. The CWG on WSIS and SDGs looked at the work undertaken by ITU with regard to the implementation of WSIS outcomes and the Agenda 2030, and to discuss issues related to the ongoing WSIS+20 review process. The Expert Group on ITRs continued working on the final report it needs to submit to the ITU Council in response to the task it was given to review the International Telecommunication Regulations (ITRs), considering evolving global trends, tech developments, and current regulatory practices. A draft version of the report notes that members have divergent views on whether the ITRs need revision and even on their overall relevance; there also doesn’t seem to be a consensus on whether and how the work on revising the ITRs should continue. 

On another topic, the CWG on international internet-related public policy issues held an open consultation on ensuring meaningful connectivity for landlocked developing countries. There were also divergent debates on a proposal to improve the work of the CWG and to ‘facilitate discussions within the [CWG] regarding international internet governance’. 

Outer Space Security Conference

The UN Institute for Disarmament Research (UNIDIR) hosted the Outer Space Security Conference on 9-10 September, bringing together diplomats, policy makers, private actors, experts from the military sectors and others to look at ways in which to shape a secure, inclusive and sustainable future for outer space. Some of the issues discussed revolved around the implications of using emerging technologies such as AI and autonomous systems in the context of space technology and the cybersecurity challenges associated with such uses. 

CSTD WG on data governance

The third meeting of the UN CSTD on data governance (WGDG) took place on 15-16 September. The focus of this meeting was on the work being carried out in the four working tracks of the WGDG: 1. principles of data governance at all levels; 2. interoperability between national, regional and international data systems; 3. considerations of sharing the benefits of data; 4. facilitation of safe, secure and trusted data flows, including cross border data flows. 

WGDG members reviewed the synthesis reports produced by the CSTD Secretariat, based on the responses to questionnaires proposed by the co-facilitators of working tracks. The WGDG decided to postpone the deadline for contributions to 7 October. More information can be found in the ‘call for contributions’ on the website of the WGDG.

Keep track of WGDG debates via our dedicated page on the Digital Watch Observatory

WTO Public Forum 2025

WTO’s largest outreach event, the WTO Public Forum, took place from 17 to 18 September under the Theme ‘Enhance, Create and Preserve’. Digital issues were high on the agenda this year, with sessions dedicated to AI and trade, digital resilience, the moratorium on customs duties on electronic transmissions, and e-commerce negotiations, for example. Other issues were also salient, such as the uncertainty created by rising tariffs and the need for WTO reform. During the Forum, the WTO launched the 2025 World Trade Report, under the title ‘Making trade and AI work together to the benefit of all’. The report explores AI’s potential to boost global trade, particularly through digitally deliverable services. It argues that AI can lower trade costs, improve supply-chain efficiency, and create opportunities for small firms and developing countries, but warns that without deliberate action, AI could deepen global inequalities and widen the gap between advanced and developing economies.

Human Rights Council

The Human Rights Council started its 60th session on 8 September, and two reports stood out for us on its agenda. The first was a report on the human rights implications of new and emerging technologies in the military domain on 18 September. Prepared by the Human Rights Council Advisory Committee, the report recommends, among other measures, that ‘states and international organizations should consider adopting binding or other effective measures to ensure that new and emerging technologies in the military domain whose design, development or use pose significant risks of misuse, abuse or irreversible harm – particularly where such risks may result in human rights violations – are not developed, deployed or used’. 

The second is a report on privacy in the digital age by the Office of the High Commissioner on Human Rights. It looks at challenges and risks with regard to discrimination and the unequal enjoyment of the right to privacy associated with the collection and processing of data, and offers some recommendations on how to prevent digitalisation from perpetuating or deepening discrimination and exclusion. Among these are a recommendation for states to protect individuals from human rights abuses linked to corporate data processing and to ensure that digital public infrastructures are designed and used in ways that uphold the rights to privacy, non-discrimination and equality.

Weekly #232 The rise of AI slop: When social media turns more artificial

 Logo, Text

26 September – 3 October 2025


HIGHLIGHT OF THE WEEK

The rise of AI slop: When social media turns more artificial

Last Thursday, Meta quietly introduced Vibes, a new short-form video feed in the Meta AI app, wholly powered by AI. Rather than spotlighting real creators or grassroots content, the feed is built around synthetic content. 

This Tuesday, OpenAI revealed Sora, a companion app centred on AI-created short videos, complete with ‘cameo’ features letting people insert their own faces (with permission) into generative scenes.

From the outside, both Vibes and Sora look like competitive copies of TikTok or Reels — only their entire content pipeline is synthetic. 

They are the first dedicated firehoses of what has been officially termed ‘AI slop.’ This phrase, added to the Cambridge Dictionary in July 2025 and defined as ‘content on the internet that is of very low quality, especially when it is created by AI,’ perfectly captures the core concern.

Across the tech world, reactions ranged from bemused to alarmed. Because while launching a new social media product is hardly radical, creating a platform whose entire video ecosystem is synthetic — devoid of human spark — is something else entirely. 

Why is it concerning? Because it blurs the line between real and fake, making it hard to trust what you see. It can copy creators’ work without permission and flood feeds with shallow, meaningless videos that grab attention but add little value. Algorithms exploit user preferences, while features like synthetic cameos can be misused for bullying or identity abuse. And then there’s also the fact that AI clips typically lack human stories and emotion, eroding authenticity.

What’s next? Ultimately, this shift to AI-generated content raises a philosophical question: What is the purpose of our shared digital spaces?

As we move forward, perhaps we need to approach this new landscape more thoughtfully — embracing innovation where it serves us, but always making space for the authentic, the original, and the human.

For now, Vibes and Sorra have not yet been rolled out worldwide. Given the tepid response from early adopters, their success is far from guaranteed. Ultimately, their fate hinges entirely on the extent to which people will use them.

 Book, Comics, Publication, Person, Face, Head

IN OTHER NEWS THIS WEEK

UNGA80 turns spotlight on digital issues and AI governance

In our previous newsletter, published on Friday, we covered all developments at the UNGA80 up to that day. In this edition, we bring you everything that unfolded from Friday through Monday.

On Friday, AI governance, digital cooperation, and the critical issue of child safety in the digital space stood out in the statements. Member states underlined that the transformative potential of AI for development – from the green energy transition to improved public services – is inextricably linked to the urgent need for global governance. Several leaders welcomed the new AI mechanisms established by UNGA, while others called for new frameworks to manage risks, particularly those related to cybercrime, disinformation, and the mental health of youth. A recurring theme was the need to actively address the digital divide through investments in digital infrastructure, skills, and technology transfer, stressing that the benefits of this new era must be shared fairly with all. The discussions reinforced the message that tackling these complex, interconnected challenges requires mature multilateralism and reinforced international cooperation.

On Saturday, several statements highlighted the importance of d harnessing AI and digital technologies for development, security, and inclusive growth. Delegates emphasised responsible AI governance, ethical frameworks, and international norms to manage risks, including in military applications. The need for equitable access to AI, digital literacy, and capacity building for developing countries was highlighted to bridge technological and social divides. Participants also addressed cybersecurity, disinformation, and the influence of global tech corporations, emphasising the importance of multilateral cooperation and human-centric approaches. One echoing message was that leveraging AI and digital innovation responsibly can drive sustainable development, economic autonomy, and long-term prosperity for all.

On Monday, the transformative potential and urgent risks associated with AI continued to be highlighted. While AI can boost development, health, education, and productivity – especially in least developed countries – it must be governed responsibly to prevent inequality, bias, and insecurity. Calls for a global AI framework were echoed in various statements, alongside broader appeals for inclusive digital cooperation, accelerated technology transfer, and investment in infrastructure, literacy, and talent development. Speakers warned that digital disruption is deepening geopolitical divides, with smaller and developing nations demanding a voice in shaping emerging governance regimes. Bridging the digital divide, advancing secure and rights-based technologies, and protecting against cybercrime were framed as essential.

The bigger picture: A comprehensive coverage of UNGA80 can be found on our dedicated web page.


Chips and sovereignty: From globalisation to guarded autonomy

The global race for semiconductor dominance is accelerating, with both the EU and Taiwan asserting tighter control over their technological assets in response to growing US pressure.

EU member states have called for a revised and more assertive EU Chips Act, arguing that Europe must treat semiconductors as a strategic industry on par with aerospace and defence. The signatories — representing all 27 EU economies — warn that while competitors like the US and Asia are rapidly scaling public investment, Europe risks falling behind unless it strengthens its domestic ecosystem across R&D, design, manufacturing, and workforce development.

The proposed ‘second-phase Chips Act’ is built around three strategic objectives:

  • Prosperity, through a competitive and innovation-led semiconductor economy
  • Indispensability, by securing key control points in the value chain
  • Resilience, to guarantee supply for critical sectors during geopolitical shocks.

The EU’s message is clear: Europe intends not just to participate in the semiconductor industry, but to shape it on its own terms, backed by coordinated investment, industrial alliances, and international partnerships that reinforce — rather than dilute — strategic autonomy.

That same theme of sovereignty defines Taiwan’s position.

Amid negotiations with Taiwan, US Commerce Secretary Howard Lutnick floated a proposal that only half of America’s chips should be produced in Taiwan, relocating the other half to the USA, to reduce dependence on a single foreign supplier. But Taiwan’s Vice Premier Cheng Li-chiun dismissed the idea outright, stating that such terms were never part of formal talks and would not be accepted. 

While Taiwan is willing to deepen commercial ties with the US, it refuses to relinquish control over the advanced semiconductor capabilities that underpin its geopolitical leverage.

The bottom line: The age of supplier nations is over; The age of semiconductor sovereignty has begun. The message is the same on both sides of the Atlantic: chips are too critical to trust to someone else.


From code to court: xAI vs OpenAI and Apple

In the high-stakes arena of AI, a bitter rivalry is now unfolding in courtrooms.

Elon Musk’s AI venture xAI has launched an aggressive new lawsuit against OpenAI, accusing it of orchestrating a coordinated ‘poaching’ campaign to steal proprietary technology. xAI claims that OpenAI recruiters targeted engineers who then illicitly transferred source code, data-centre playbooks, and training methodologies to further OpenAI’s competitive edge. 

According to xAI, key incidents included employees uploading confidential files to personal devices, and repeated AirDrop transfers — behaviour that Musk’s company says amounts to trade secret misappropriation. Their remedy: damages, injunctions, and orders compelling OpenAI to purge models built on the contested materials. 

OpenAI, however, fired back. In court filings earlier this week, it asked a judge to dismiss xAI’s claims, calling them part of Musk’s ‘ongoing harassment’ of the company. OpenAI contends that xAI employees are free to leave and be hired elsewhere, and that xAI’s allegations are unsubstantiated. 

But the conflict doesn’t stop there.

This August, Musk had accused Apple of colluding with OpenAI to block competition — alleging that Apple disadvantaged the Grok chatbot (developed by xAI) in its App Store rankings precisely to favour OpenAI’s ChatGPT. 

Apple and OpenAI have responded together this week in court, asking a federal judge to dismiss this separate antitrust-style claim. Their defence is blunt: the agreement between Apple and OpenAI is explicitly non-exclusive, and Apple retains the freedom to work with other AI providers. Further, they argue, xAI has failed to plausibly show how embedding ChatGPT into Apple devices has harmed competition.

What’s behind all this? The ferocious race for talent, technological leadership, and market dominance in AI. We’ll see how it pans out.

LOOKING AHEAD
 Art, Drawing, Person, Doodle, Face, Head
SSF ITU

On 7–8 October 2025, the ITU will host the Space Sustainability Forum (SSF-25), gathering experts, regulators, industry leaders, and policy makers to address the long-term health, security and governance of outer space.

Swiss IGF

On 9 October 2025, policymakers, researchers, industry representatives, and civil society actors will gather at Welle 7 in Bern, in situ and online, for the Swiss Internet Governance Forum 2025.

SEEDIG 10

With the theme ‘A Decade of Dialogue and Cooperation: What’s Next?‘, the anniversary edition of the South Eastern European Dialogue on Internet Governance (SEEDIG) is designed as both a stocktaking exercise and a forward-looking consultation. 



READING CORNER
quantum ai data science and cybersecurity

Quantum internet is emerging not only as a scientific milestone but as a transformative force that could redefine how governments, healthcare systems, and citizens interact in the digital age.

UNGA

The annual General Debate at UNGA is the stage where countries outline their strategic priorities, concerns, and proposals. Overall, the sentiment of the General Debate can be distilled into three key words: echo, gloom, and hope.

Digital on Day 6 of UNGA80: Global AI governance, technology equity, and closing the digital divide

 Lighting, Stage, Purple, Electronics, Screen, Computer Hardware, Hardware, Monitor, Light, Urban, Indoors, Club

Welcome to the fifth daily report from the General Debate at the 80th session of the UN General Assembly (UNGA80). Our daily hybrid AI–human reports bring you a concise overview of how world leaders are framing the digital future.

Day 6 discussion centred on the transformative potential and urgent risks of AI, emphasising that while AI can boost development, health, education, and productivity—especially in least developed countries—it must be governed responsibly to prevent inequality, bias, and insecurity. Calls for a global AI framework were echoed in various statements, alongside broader appeals for inclusive digital cooperation, accelerated technology transfer, and investment in infrastructure, literacy, and talent development. Speakers warned that digital disruption is deepening geopolitical divides, with smaller and developing nations demanding a voice in shaping emerging governance regimes. Bridging the digital divide, advancing secure and rights-based technologies, and protecting against cybercrime were framed as essential

To keep the highlights clear and accessible, we leave them in bullet points — capturing the key themes and voices as they emerge.


Artificial intelligence

  • Responsible AI governance
  • AI presents both unprecedented opportunities and profound challenges, and if harnessed responsibly, it can accelerate development, improve health and education, and unlock economic growth. Without clear governance, AI risks deepening inequalities and undermining security. A global framework is called for to ensure AI is ethical, inclusive, and accessible to all nations, enabling it to serve as a force for development rather than division. (Malawi)
  • AI is a tool that must be harnessed for all humankind, equally in a controlled manner, as opportunities are vast, including for farmers, city planning, and disaster risk management. (President of the General Assembly)
  • The risks of AI are becoming more prevalent, and age-old biases are being perpetuated by algorithms, as seen in the targeting of women and girls by sexually related deepfakes. (President of the General Assembly)
  • Discussions on AI lend further prudence to the argument that ‘we are better together,’ and few would be comfortable leaving the benefits or risks of this immense resource in the hands of a few. (President of the General Assembly)
    International cooperation remains essential to establishing comprehensive regulations governing the use and development of AI. (Timor-Leste)

AI for development and growth

  • The transformative potential of science, technology, and AI, should be harnessed for national and global development. Malawi is optimistic that AI will usher in a new era of enhanced productivity for its citizens, helping to propel the country’s development trajectory. (Malawi)
  • Advancing AI and digital capabilities in LDCs is imperative, requiring investment in digital infrastructure and enhancing digital literacy, implementing e-government initiatives, promoting AI research and innovation, cultivating talent and establishing a policy framework. (Timor-Leste)
  • Making AI a technology that benefits all is an important issue agreed upon in the Global Digital Compact, which also covers peace and security, sustainable development, climate change, and digital cooperation. (Djibouti) 
  • Canada emphasised national strength in AI, clean technologies, critical minerals and digital innovation. (Canada)

Global digital governance

  • Nepal advocates for a global digital cooperation framework that ensures access to infrastructures, digital literacy, and data protection for all. (Nepal)
  • Digital transformation and digital and technological disruption are converging with other crises, such as climate catastrophe and widening inequality. (Malawi, Nepal, Holy See) Digital transformation demands renewed collective action. A renewed collective resolve to fortify the founding values of the UN, and a revitalised, transformed UN are needed. (Malawi, Nepal, Holy See)

Digital technologies and development

Addressing the digital divide and inequality

  • Rapid technological, geopolitical, and environmental shifts are ushering in a new, multipolar global order that offers both opportunities and risks, and insisted that smaller states must not be sidelined but fully heard in shaping it. (Benin)
  • The development gap has expanded between the North and the South despite technological revolutions. (Algeria)
  • Digital transformations deserve urgent global attention, and technology must be inclusive, secure, and rights-based. (Nepal)
  • It is crucial to narrow the digital divide within and among countries to create a peaceful and equitable society. (Nepal)
  • Policies and programmes for technologies and progress should be within the reach of everyone for the good of everyone. (Nicaragua)

Technology transfer 

  • The gap between rich and poor nations continues to widen, and developing countries struggle with limited technology transfer and low productivity. (Malawi)
  • The full and effective implementation of the Paris Agreement should include ensuring equitable access to sustainable technologies. (Malawi)
  • The international community is called upon to foster an environment that supports inclusive growth and harnesses the transformative potential of science and technology, and AI. (Malawi)
  • A comprehensive and inclusive approach is needed to address the pressing challenges in the Mediterranean, making economic development on the Southern Front a shared priority through investment and technology transfer. (Algeria)
  • Technology transfer must be accelerated and scaled up, with calls for scaled-up, predictable and accessible technology transfer and capacity building for countries on the front line, particularly LDCs. (Nepal)

Cybersecurity

  • Safeguarding cybersecurity is imperative alongside the advancement of AI and digital capabilities in LDCs. (Timor-Leste)
  • Russia has sought to undermine Moldova’s sovereignty through illicit financing, disinformation, cyberattacks, and voter intimidation. (Moldova)

For other topics discussed, head over to our dedicated UNGA80 page, where you can explore more insights from the General Debate.

Diplo NEWS25 Insta UNGA
The General Debate at the 80th session of the UN General Assembly brings together high-level representatives from across the globe to discuss the most pressing issues of our time. The session took place against the backdrop of the UN’s 80th anniversary, serving as a moment for both reflection and a forward-looking assessment of the organisation’s role and relevance.

Digital on Day 5 of UNGA80: AI governance, inclusion, and tech for development

 Lighting, Stage, Purple, Electronics, Screen, Computer Hardware, Hardware, Monitor, Light, Urban, Indoors, Club

Welcome to the fifth daily report from the General Debate at the 80th session of the UN General Assembly (UNGA80). Our daily hybrid AI–human reports bring you a concise overview of how world leaders are framing the digital future.

Day 5 discussions revolved around harnessing AI and digital technologies for development, security, and inclusive growth. Delegates emphasised responsible AI governance, ethical frameworks, and international norms to manage risks, including in military applications. The need for equitable access to AI, digital literacy, and capacity building for developing countries was highlighted to bridge technological and social divides. Participants also addressed cybersecurity, disinformation, and the influence of global tech corporations, emphasising the importance of multilateral cooperation and human-centric approaches. Discussions underscored that leveraging AI and digital innovation responsibly can drive sustainable development, economic autonomy, and long-term prosperity for all.

To keep the highlights clear and accessible, we leave them in bullet points — capturing the key themes and voices as they emerge.


Artificial intelligence

Responsible AI governance

  • AI‘s transformative force can aid conflict prevention, peacekeeping, and humanitarian actions, but early, constructive, and inclusive multilateral engagement is essential. However, AI requires guardrails so that it can be harnessed responsibly. (Singapore)
  • Common norms need to be established at the UN as soon as possible to unlock the transformative potential of new technologies, especially AI, for the benefit of all, while mitigating the risks. (Cuba)
  • Military uses of AI and autonomous weapons in the military domain are dangerous and require international laws regulating them. (Saudi Arabia)
  • Meaningful human control must be retained over life-or-death decisions made by AI in conflict, guided by international law and ethical principles, as the rapid advance of AI has led to concerning levels of autonomy in conflict. (San Marino)
  • The establishment of an Independent International Science Panel on AI and the Global Dialogue on AI Governance are fundamental to promoting scientific understanding of AI and ensuring inclusive multistakeholder discussions, which will contribute to building UN membership capacity, fostering shared knowledge, common understanding, and pooled experience, equally benefiting stakeholders from developing countries. (San Marino)

AI for development and growth

  • The UN needs to be future-ready and harness the potential of emerging technologies like AI as a force for good for all. (Singapore)
  • Artificial intelligence (AI) offers promise but carries profound risks, and safeguards against misuse must be established to build digital societies that bridge development divides rather than widen them. (Philippines)
  • Efforts should be enhanced for developing countries to have access to AI and digital technologies. (Egypt)
  • UAE has sought to harness science, technology, and AI to advance sustainable development around the world. (UAE)
  • AI, as a horizontal and cross-cutting technology, has a particular promise for development. The approach to AI is to harness it responsibly for human welfare, with inclusion and impact as the watchwords for the summit India will host in 2026. (India)
  • AI applicationsdigital transformation, and innovation are highly important. (Oman)
  • The paradox of today’s world is that unprecedented technological advancement exists alongside deep inequality. Some children walk miles to fetch water from school, and some children are using AI in their lessons. To turn innovation into inclusion, education is needed. (Grenada)
  • AI and AI-related skills are being considered for teaching, understanding, and use to enhance education access, delivery, and outcome, as the jobs of tomorrow cannot be met with the skills of yesterday. (Grenada)

Digital technologies for development

Digital inclusion and access

  • Technological progress fosters growth and interaction. (Belarus) Technology is a defining force of our age, a connector, an enabler, an equaliser. (Philippines)
  • While interdependence has deepened thanks to technology, new divisions and fault lines have emerged, undermining many of the positive gains. (Belarus)
  • The world is rapidly advancing toward the Fourth Industrial Revolution and AI, but a widening gap remains between this realm and the one hostage to poverty and marginalisation. United efforts are needed to devise solutions that are capable of narrowing this gap by achieving just and comprehensive human-centred development (Mauritania)
  • The Global Digital Compact is an important tool that underscores the collective commitment to bridging the digital divide and promoting digital inclusion, creating a more equitable future and ensuring that digital technology is used for the benefit of all humanity. (San Marino)
  • Digital access and inclusive governance are important for enhancing mutual trust and shared benefits, supporting the implementation of the Global Digital Compact. (Lao People’s Democratic Republic)
  • Investing in human capital, advancing green and digital transitions, and reinforcing institutional resilience are key pillars for long-term prosperity. (Romania) 
  • The digital transition is one of the strategic pillars for the national long-term development programme. (Guinea)
  • Digital transformation and AI applications are a priority, alongside innovation and industrial development. (Oman)
  • The digital and scientific, and technological innovation potential is an untapped resource that can serve as a powerful catalyst for accelerating progress toward attaining the SDGs. (Lao People’s Democratic Republic)
  • Digital transformation and the application of modern technology are important to enhance efficiency and strengthen adaptability in ASEAN. (Lao People’s Democratic Republic)
  • Digital skillscoding, and technology clubs are now part of the school environment, and primary school students are assessed through electronic testing, prioritising both digital literacy and problem-solving skills. (Grenada)
  • Investment is being made in digital skills for the new economy. (Grenada, Saint Kitts and Nevis)
  • Digital public infrastructure has redefined governance and enabled the delivery of public services on an unprecedented scale. (India) The Maldives also noted they are digitalising services.
  • Results of self-reliance, developing national capabilities and nurturing talent can be seen in digital applications. (India)
  • The country’s technicians promote digitisation, and training facilities are open to the world. (India)

Technology transfer and capacity building

  • Access to new technology, innovation, and financial resources remains essential for countries in special situations and the most vulnerable groups. (Lao People’s Democratic Republic)
  • Adequate financial supporttechnology transfer, and capacity building are crucial for the effective implementation of national climate commitments. (Lao People’s Democratic Republic)
  • Technology transfer must be real, predictable, and accessible to SIDS upon the BBNJ Agreement entering into force, along with benefits sharing. (Maldives)
  • Technology transfer and access to concessionary financing and strengthening North-South partnerships are needed to achieve the right to development. (Tunisia)
  • Technology transfer and capacity building through multilateral processes are key to closing the widening gap between climate ambition and the means of implementation. (Philippines)
  • Global partnerships are needed to expand access to technology and innovation. Small states bring valuable experience in adaptation and resilience. (Grenada)
  • UAE supports building technological capacities of other countries, respecting their national values and priorities and ensuring the responsible and ethical use of these technologies in accordance with international law. (UAE)

Cybersecurity and crime

  • Cyber attacks can cross borders in a second, posing a threat that no single nation can resolve alone. (Bahamas)
  • Online scams are a form of transnational crime being actively combatted, as their impacts ripple far and wide, demanding cooperation without borders. (Thailand)
  • The UN Convention Against Cybercrime is welcomed and will contribute to preventing and combating the misuse of technology and safeguarding fundamental rights and freedoms, with the assistance of international and regional instruments for its implementation. The Council of Europe’s Cybercrime Programme Office (Bucharest) and the Southeast European Law Enforcement Centre hosted by Romania, contributed significantly to combating transnational crime. (Romania)
  • Surveillance drones are being detected intruding into territory on a daily basis across the border areas, which constitutes a violation of sovereignty and territorial integrity. (Thailand)
  • When powerful actors abandon rules, all nations are at risk; this includes the weaponisation of emerging disruptive technologies. (Iceland)
  • Consensus was achieved on the final report of the Open-ended Working Group on Cybersecurity (OEWG), which strengthened the normative framework for responsible state behaviour in cybersecurity, and it was agreed to establish the Global Mechanism on Cybersecurity as a permanent home for this work at the UN. (Singapore)

Disinformation and human rights online

  • Human rights must be upheld in the digital age and online, especially because that is where most young people are. (Romania, San Marino)
  • The implementation of the Global Digital Compact should ensure a human-centric, human rights-based approach to the digital future, which cannot be left with no rules. (Romania)
  • Freedom of expression is a cornerstone of democracy, innovation, culture, and progress, but twisting free speech into the mass production of lies, propaganda, or AI-driven disinformation is not exercising this freedom. (Iceland)
  • Disinformation and conspiracy theories spread online, corroding trust in facts, institutions, and one another, leading to rising intolerance, especially towards marginalised groups. (Iceland)
  • Digital technology increasingly impacts lives, and a few transnationals impose operating systems and control the content that is seen, read, heard, thus manipulating human behaviour under the ‘dictatorship of the algorithm’. (Cuba)

Digital economy and trade

  • The global order is undergoing fundamental shifts impacting trade, technology, and international cooperation. (San Marino)
  • Global corporations transcend borders, shaping economies, technology, and daily life without sufficient accountability, which demands international responses. (Iceland)
  • The negotiation process on the Digital Economy Framework Agreement is being accelerated to position ASEAN as a leading digital economic hub, promoting regional integration, expanding global connectivity, and enhancing capacity for addressing challenges of the modern global economy. (Lao People’s Democratic Republic)
  • High-tech control is an economic concern, along with the grip on supply chains and critical minerals, and the shaping of connectivity. (India)
  • There is a need to break with the cycle of dependence on the export of raw materials and strengthen economic autonomy, maximising the value of raw materials. (Burkina Faso, Niger)
  • Lasting prosperity involves proactive industrialisation policies, maximising the value of raw materials, and creating decent jobs. (Burkina Faso)
  • Making the most of scientific progress, technological advancement and innovation, which are genuine levers for shared, lasting development. (Burkina Faso) 

For other topics discussed, head over to our dedicated UNGA80 page, where you can explore more insights from the General Debate.

Diplo NEWS25 Insta UNGA
The General Debate at the 80th session of the UN General Assembly brings together high-level representatives from across the globe to discuss the most pressing issues of our time. The session took place against the backdrop of the UN’s 80th anniversary, serving as a moment for both reflection and a forward-looking assessment of the organisation’s role and relevance.