DW Weekly #164 – 14 June 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

The Apple-OpenAI partnership is now official! Apple has announced that ChatGPT from OpenAI will be integrated into Siri for free later this year on iOS 18 and macOS Sequoia. This feature will be optional. Apple users can ask Siri a question, and if Siri doesn’t fully understand or can’t complete their request, it might suggest asking ChatGPT. For instance, Siri might ask: ‘Hey, do you want to ask ChatGPT?’ This means Apple users can now tap into ChatGPT’s advanced capabilities and get answers. That begs the question of whether Apple is dropping out of the AI race. Certainly not, as the company just introduced  ‘Apple Intelligence’, a new AI system designed to be deeply integrated into Apple’s ecosystem. At least for now, Apple’s AI efforts will prioritise wide usability, while leaving chatbot development to companies like OpenAI and Google.

Craig Federighi, Apple’s head of software engineering, acknowledged that ChatGPT is one of the best large language models (LLMs) currently available, which is why Apple chose to integrate it into Siri. 

Apple had also been negotiating with Google, ultimately choosing OpenAI. According to Federighi, Apple is open to other partnerships as well. So, while the initial collaboration is with ChatGPT, we might see other models, too, with Apple’s approval and the deals they strike.

One person made sure this partnership would get even more attention. He is a tech mogul, billionaire, and well-known for his online trolling—yes, of course, it’s Elon Musk. The CEO of Tesla, SpaceX, and the social media company X (formerly known as Twitter) has announced (on X) a ban on Apple devices in his companies and that visitors ‘will have to check their Apple devices at the door, where they will be stored in a Faraday cage’. Why? Musk contends that the Apple-OpenAI partnership is an  ‘unacceptable security violation’. Specifically, Musk is worried that integrating ChatGPT into Apple’s products could compromise users’ privacy and security by allowing OpenAI to access and use user data without explicit permission. Although Apple said that user queries sent to ChatGPT will not be stored by OpenAI, it seems Musk is not buying it. Can we expect this ban to become a reality? Given Musk’s history with OpenAI, it’s unclear if he’s serious or just trolling once again.

 Person, Art, Advertisement, People, Face, Head, Electronics, Screen, Book, Comics, Publication

Staying with Elon Musk and OpenAI, Musk’s lawyers moved to dismiss his lawsuit against OpenAI and CEO Sam Altman, ending a months-long legal battle. Interestingly, this move came just a day after Musk criticised OpenAI’s and Apple’s partnership.

Musk’s lawsuit alleges that OpenAI strayed from its founding principles to develop AI solely for the betterment of humanity, not for profit. Musk claimed that OpenAI had breached its founding agreement by prioritising commercial interests over the public good, particularly with its partnership with Microsoft. In response, OpenAI argued that the lawsuit was a baseless attempt by Musk to further his own interests in the AI sector.

Why the sudden change? This is unclear, as  Musk’s attorneys filed the dismissal request in California state court without specifying a reason. Despite withdrawing the lawsuit, Musk dismissed the case without prejudice, leaving the door open for potential future legal action.

In other news, the G7 summit kicked off on Thursday in Italy. One of the main topics of discussion is AI. And here’s a historic first: Pope Francis will join the discussions on AI ethics. So, what might happen? Pope Francis is expected to advocate for international cooperation in regulating AI, highlighting the need to address global technology inequalities and threats like AI weapons and misinformation. Pope Francis’s engagement at the G7 reflects his active involvement in contemporary issues, as he aims to shape AI development ethically for the benefit of humanity.

Next week, don’t miss The European Dialogue on internet Governance (EuroDIG) 2024,17–19 June, in Vilnius, Lithuania. We’ll bring you reports on a selected number of sessions, so bookmark the hyperlinked pages.

To wrap up this week’s run-through, here are two rather bizarre stories: A Turkish student has been jailed for cheating on an exam by using AI, and Berlin is set to launch the world’s first cyber brothel.

Bojana, Boris and the Digital Watch team


Highlights from the week of 7-14 June 2024

brazil flag against city blurred background sunrise backlight scaled

The government anticipates that AI will be crucial in managing and analysing lawsuits more efficiently, alerting them to potential actions before final decisions are made, thereby mitigating significant financial losses.

usa flag and russia flag

The measures will broaden existing export controls to cover US-branded goods manufactured globally, addressing loopholes that have allowed Russia to adapt economically.

chinese flag 1752046 1280

The rules will target import and export of e-commerce, reflecting changes in markets and international regulation of e-commerce.

9dt4wutvwds

The legislation seeks to enforce fair practices, prohibit the exploitation of user data, and ensure users can choose third-party apps and default settings.

ICANN DomainNames

ICANN has named Kurt Erik Lindqvist as its new President and CEO, effective 5 December 2024. Kurt will be based in both the Geneva office and the Los Angeles headquarters.

flag of turkiye

The competition authority emphasised that the fine was imposed because Google did not adequately address concerns regarding fair competition.

google 959059 1280

The lawsuit aims to break up Google’s digital advertising business for more competition.

rsf logo

The self-regulation permitted by this framework convention will not ensure that AI serves the general interest and protects the right to information.

child safety on social media

Under the new laws, platforms will be barred from exposing ‘addictive’ algorithmic content to users under 18 without parental consent.

the flag of switzerland flying on a banner

Switzerland ramps up security measures amidst a rise in cyberattacks and disinformation campaigns ahead of the Ukraine peace summit, pointing to potential Russian involvement.



ICYMI

Is our software secure? Watch the latest Geneva Dialogue Podcast [ep 3] with Bert Hubert as we discuss cyber norms, stakeholder responsibilities, and the role of open-source software in enhancing security.

Upcoming

EuroDIG 2024

EuroDIG 2024 will occur in Vilnius, Lithuania from June 17–19. The conference is a multistakeholder platform created in 2008 to discuss internet governance annually in various European cities.


Reading corner

Encyclopedie Diderots Tree of Knowledge
www.diplomacy.edu

There has been a steady shift from using mind maps to relying on external maps. What impact does this have on human cognition and our decision-making processes? Aldo Matteucci analyses.

Numéro 90 de la lettre d’information Digital Watch – juin 2024

 Page, Text, Advertisement, Poster, Person, Book, Publication, Face, Head

Observatoire

Coup d’œil : les développements qui font des vagues

Gouvernance de l’IA

Le Chili a présenté une politique nationale actualisée en matière d’IA ainsi qu’une nouvelle législation visant à en garantir un développement éthique, à répondre aux préoccupations en matière de protection de la vie privée et à promouvoir l’innovation au sein de son écosystème technologique. En Afrique du Sud, le Gouvernement a annoncé la création d’un conseil consultatif d’experts en IA. Ce conseil sera chargé de mener des recherches, de formuler des recommandations et de superviser la mise en œuvre des politiques d’IA dans le pays. Dans le même temps, la Zambie a finalisé une stratégie globale en matière d’IA, visant à mettre les technologies modernes au service du développement du pays.

Le très attendu deuxième sommet mondial sur l’IA, qui s’est tenu à Séoul, a permis d’obtenir des promesses de sécurité de la part d’entreprises de premier plan, soulignant ainsi l’importance des efforts de collaboration pour faire face aux risques liés à l’IA.

Aux États-Unis, les législateurs ont présenté un projet de loi visant à réglementer les exportations d’IA. Ce projet de loi vise à contrôler l’exportation des technologies d’IA qui pourraient être utilisées à des fins malveillantes ou constituer une menace pour la sécurité nationale. En outre, le ministère américain du Commerce envisage de nouvelles mesures de contrôle des exportations de logiciels d’IA vendus à la Chine. Cette annonce intervient alors que les États-Unis et la Chine se sont rencontrés à Genève pour discuter des risques liés à l’IA. 

Les inquiétudes concernant la sécurité et la transparence de l’IA ont été mises en évidence par un groupe d’employés actuels et anciens d’OpenAI, qui ont publié une lettre ouverte signalant que les principales entreprises d’IA ne disposent pas de la transparence et de la responsabilité nécessaires pour prévenir les risques potentiels.

Technologies 

Les États-Unis devraient tripler leur production de semi-conducteurs d’ici 2032, creusant ainsi l’écart avec la Chine en matière de fabrication de puces. Les entreprises chinoises spécialisées dans les puces d’IA, dont des fleurons du secteur tels que MetaX et Enflame, revoient à la baisse la conception de leurs puces pour se conformer aux protocoles de sécurité de la chaîne d’approvisionnement et aux exigences réglementaires rigoureuses de la Taiwan Semiconductor Manufacturing Company (TSMC), ce qui suscite des inquiétudes quant à l’innovation et à la compétitivité à long terme. La Corée du Sud a dévoilé un programme de soutien substantiel de 26 billions de wons (19 milliards de dollars américains) pour son industrie des puces, tandis que la loi européenne sur les puces financera une nouvelle ligne pilote de puces à hauteur de 2,5 milliards d’euros. Le Japon envisage une nouvelle législation pour soutenir la production commerciale de semi-conducteurs avancés. 

Le premier essai sur l’homme de l’implant cérébral de Neuralink s’est heurté à des problèmes majeurs, car les fils du dispositif se sont détachés du cerveau, ce qui a compromis sa capacité à décoder les signaux cérébraux.

Cybersécurité

Les discussions de haut niveau entre les États-Unis et la Chine ont attiré l’attention sur des cybermenaces telles que Volt Typhoon, reflétant ainsi l’escalade des tensions. Les responsables américains et britanniques ont souligné que la Chine représentait une menace redoutable pour la cybersécurité. Par ailleurs, le groupe de travail à composition non limitée (GTCNL) sur la sécurité des TIC a établi un répertoire mondial des centres d’opérations d’urgence (POC), afin de renforcer la réponse internationale aux cyberincidents. Pour en savoir plus, voir page 7.

Une cyberattaque massive contre le ministère britannique de la Défense a suscité des soupçons, et la Chine a été mise en cause. Le groupe Qilin a revendiqué la responsabilité d’une cyberattaque contre les laboratoires Synnovis, qui a perturbé des services clés dans des hôpitaux londoniens. Une violation de données revendiquée par IntelBroker a visé Europol, amplifiant les inquiétudes concernant la sécurité des données des forces de l’ordre. En outre, Ticketmaster a été victime d’une violation de données qui a compromis les données personnelles de 560 millions d’utilisateurs et fait l’objet d’un recours collectif.

Infrastructure

Les autorités américaines ont averti les entreprises de télécommunications qu’une société chinoise contrôlée par l’État, chargée de réparer les câbles sous-marins internationaux, pourrait les endommager. Google a annoncé qu’il allait construire Umoja, le premier câble sous-marin reliant l’Afrique et l’Australie. Le Zimbabwe a accordé à Starlink, la société d’Elon Musk, une licence d’exploitation dans le pays. 

Juridique

Dans une bataille juridique, TikTok et ses créateurs ont poursuivi le gouvernement américain au sujet d’une loi exigeant que l’application rompe ses liens avec sa société mère chinoise, ByteDance, sous peine d’être interdite aux États-Unis. Cela a incité la cour d’appel du District de Columbia à accélérer l’examen de la loi d’interdiction de TikTok.

La bataille juridique entre la société X, d’Elon Musk, et l’autorité australienne de régulation de la cybersécurité au sujet de la suppression de 65 messages montrant une vidéo d’un évêque chrétien assyrien poignardé a pris fin. En avril, la Cour fédérale d’Australie, agissant à la demande du commissaire à la cybersécurité, a émis une ordonnance mondiale temporaire obligeant X à masquer le contenu de la vidéo. Toutefois, en mai, le tribunal a rejeté la requête de l’autorité de régulation visant à prolonger cette ordonnance, ce qui a conduit l’autorité de régulation à abandonner ses poursuites judiciaires à l’encontre de X.

L’UE a lancé une enquête sur Facebook et Instagram en raison de craintes concernant la sécurité des enfants. Dans le même temps, l’organisme de régulation italien a infligé une amende à Meta pour utilisation abusive des données des utilisateurs.

Économie de l’internet

Microsoft, OpenAI et Nvidia se sont retrouvés sous le microscope antitrust aux États-Unis en raison de leur position dominante perçue dans le secteur de l’IA. Le Rwanda a annoncé son intention de créer une monnaie numérique d’ici à 2026, tandis que les Philippines ont approuvé un programme pilote de monnaie stable.

Droit numérique

La Cour européenne des droits de l’Homme a déclaré que la loi polonaise sur la surveillance violait le droit à la vie privée, faute de garanties et d’un contrôle efficace. Les Bermudes ont interrompu leurs projets de technologie de reconnaissance faciale en raison de préoccupations liées à la protection de la vie privée et de retards dans les projets, ce qui reflète les hésitations mondiales quant à l’impact de la technologie sur les libertés civiles.

OpenAI a été critiquée pour avoir utilisé la voix de Scarlett Johansson dans ChatGPT sans son consentement, ce qui a mis en lumière les questions de respect de la vie privée et de droits de propriété intellectuelle. Le rapport de la GLAAD a révélé que les principales plateformes de médias sociaux ne gèrent pas la sécurité, la vie privée et l’expression de la communauté LGBTQ en ligne.

Google a lancé son service « Results about you » en Australie pour aider les utilisateurs à supprimer les résultats de recherche contenant leurs informations personnelles. Les grandes entreprises mondiales de l’internet travaillent en étroite collaboration avec les régulateurs de l’UE pour s’assurer que leurs produits d’intelligence artificielle sont conformes aux lois sur la protection des données de l’Union, a déclaré la Commission irlandaise de protection des données. Cependant, OpenAI est en conflit avec le Conseil européen de la protection des données au sujet de l’exactitude des résultats de ChatGPT

Développement

L’UE a officiellement adopté le règlement pour une industrie « zéro net » (NZIA) afin d’encourager la fabrication de technologies propres au sein de l’UE.

L’Afrique du Sud s’est engagée à réduire la fracture numérique dans le pays et à étendre l’accès à l’internet pour tous. Le Maroc a lancé un programme visant à étendre l’accès à l’internet à haut débit à 1 800 zones rurales. Le programme « Génération connectée » (GenSi) a été lancé pour fournir des compétences numériques aux jeunes et aux femmes des zones rurales d’Indonésie.

Socioculturel

L’UE a lancé une enquête sur la désinformation sur X après la fusillade du Premier ministre slovaque. Par ailleurs, X a officiellement commencé à autoriser les contenus pour adultes. 

Le Maroc a annoncé sa stratégie numérique 2030, qui vise à dématérialiser les services publics et à renforcer l’économie numérique afin d’encourager les solutions numériques locales, de créer des emplois et d’apporter de la valeur ajoutée. La Zambie a franchi une étape importante dans la transformation numérique des cartes d’identité, en numérisant 81 % de ses cartes d’identité papier en trois mois.

OpenAI a annoncé qu’elle avait démantelé cinq opérations secrètes qui utilisaient ses modèles d’IA pour des activités trompeuses en ligne, ciblant des questions telles que l’invasion de l’Ukraine par la Fédération de Russie, le conflit de Gaza, les élections indiennes, et la politique en Europe et aux États-Unis. Une enquête a révélé une grande inquiétude quant à une éventuelle utilisation abusive de l’IA lors de la prochaine élection présidentielle aux États-Unis. Les élections européennes sont un sujet brûlant au début du mois de juin. L’UE a accusé la Russie de diffuser de la fausse information avant ces élections, et une étude a montré que TikTok n’avait pas réussi à lutter efficacement contre la diffusion de la désinformation avant les élections. Il est intéressant de noter que Microsoft a indiqué que l’IA n’avait eu qu’un impact minime sur la désinformation les entourant.
Les législateurs new-yorkais s’apprêtent à interdire aux entreprises de médias sociaux d’utiliser des algorithmes pour contrôler le contenu vu par les jeunes sans le consentement de leurs parents. Dans le même temps, l’Australie a annoncé un essai de technologies de vérification de l’âge afin d’améliorer la sécurité en ligne des mineurs.

En bref

La gouvernance numérique au cœur du SMSI+20 et du Sommet mondial AI for Good 2024

La dernière semaine de mai a été marquée par deux événements numériques qui ont suscité un grand intérêt : le SMSI+20 et le Sommet mondial AI for Good. Le premier a figuré en bonne place à l’ordre du jour des responsables de la politique numérique, étant donné l’examen prochain, 20 ans après, des progrès réalisés dans la mise en œuvre des résultats du SMSI tels que définis dans la déclaration de Genève et l’agenda de Tunis. L’année 2024 a également été marquée par la négociation du Pacte mondial pour le numérique (PMN), dans le cadre duquel les États membres des Nations unies doivent réaffirmer et renforcer leur engagement en faveur du développement numérique et d’une gouvernance efficace. Il est tout à fait naturel qu’au cours du SMSI+20 de cette année, une question soit restée en suspens : quelle est la pertinence des résultats du SMSI à la lumière du PMN ? 

Selon la première révision du PMN, les États membres de l’ONU doivent « rester fidèles aux résultats du [SMSI] ». Les parties prenantes se sont réunies lors du SMSI+20 pour réfléchir et comparer le PMN et les processus d’examen du SMSI+20. Les intervenants ont souligné la nécessité d’aligner les deux processus, et en particulier de tirer parti du modèle multipartite inclusif défini par le processus du SMSI. Certains ont réitéré l’importance du Forum sur la gouvernance de l’internet (FGI), une plateforme clé de politique numérique pour les discussions multipartites née de l’agenda de Tunis, qui doit être exploitée dans la mise en œuvre et l’alignement des lignes d’action du SMSI et des principes du PMN. D’autres ont souligné la nécessité de mécanismes concrets de suivi du PMN et ont suggéré que le processus d’examen du SMSI+20 soit un moment crucial de réflexion. Enfin, plusieurs autres intervenants se sont penchés sur la dimension régionale, soulignant que les besoins locaux, le multiculturalisme et le multilinguisme étaient des éléments essentiels à prendre en compte dans les deux processus. 

Une discussion plus nuancée a également eu lieu sur la pertinence du processus global du SMSI pour la gouvernance numérique. Avant l’examen des 20 ans en 2025, les experts ont réfléchi aux réalisations du processus du SMSI jusqu’à présent, notamment en ce qui concerne la promotion de la coopération numérique entre les groupes de la société civile, le secteur privé et d’autres parties prenantes. Certains ont appelé à une collaboration accrue au sein du système des Nations unies afin de réaliser des progrès plus substantiels dans la mise en œuvre des AL du SMSI ; d’autres ont encouragé la communauté technique à s’intégrer davantage dans le processus d’examen du SMSI+20. 

Le Sommet mondial AI for Good, quant à lui, est pertinent pour la gouvernance numérique à deux égards. D’une part, il sert de plateforme aux acteurs de l’IA pour se réunir, échanger, travailler en réseau et rechercher des possibilités de développement. L’initiative de l’UIT comprend non seulement un sommet mondial, mais aussi des ateliers et des initiatives qui se déroulent tout au long de l’année, et qui encouragent les développeurs et les chercheurs dans le domaine de l’IA à trouver des solutions créatives aux défis mondiaux. Dans la première révision du PMN, l’initiative AI for Good est également mentionnée pour son rôle de mécanisme de renforcement des capacités en matière d’IA. 

D’autre part, le Sommet mondial AI for Good offre une plateforme aux chefs d’entreprise, aux décideurs politiques, aux chercheurs en IA et à d’autres pour discuter ouvertement des questions de gouvernance de l’IA, échanger des cas d’utilisation à fort potentiel pour faire progresser les ODD et établir des partenariats intersectoriels qui vont au-delà de l’événement de trois jours. Le sommet de cette année comprenait une journée sur la gouvernance de l’IA au cours de laquelle des décideurs politiques de haut niveau et des développeurs d’IA de premier plan ont pu débattre des principaux processus de gouvernance de l’IA, du rôle du système des Nations unies dans l’avancement de ces processus et de la difficulté pour les gouvernements de trouver un équilibre entre les risques et les avantages du développement de l’IA.
Les conversations du sommet ont porté sur des sujets plus techniques que les discussions politiques conventionnelles. Les experts ont évalué les avantages et les inconvénients des modèles linguistiques à code source ouvert par rapport aux modèles propriétaires, ainsi que la possibilité d’établir des normes pour l’harmonisation des industries de haute technologie ou le développement responsable et équitable de la technologie. La diversité linguistique et culturelle dans le développement de l’IA a également été présentée comme un élément clé, en particulier parce que les LLM occupent le devant de la scène.

GIP a fourni des rapports en temps réel du SMSI+20 et du Sommet mondial AI for Good.

Analyse

Avons-nous besoin d’un contrat social numérique ?

Vous connaissez peut-être le concept de « contrat social ». L’idée est que les individus veulent quitter l’état de nature, où il n’y a pas d’ordre politique, et qu’ils forment une société, acceptant d’être gouvernés par une autorité en échange d’une sécurité ou de droits civils. 

L’ère numérique soulève les questions suivantes : l’État peut-il respecter sa part du contrat social ? Avons-nous besoin d’un nouveau contrat social pour l’ère en ligne, qui rétablirait la relation de confiance entre les citoyens et l’État ? Suffit-il de réunir les citoyens et l’État autour d’une même table ? Ou bien le contrat social d’aujourd’hui devrait-il également impliquer spécifiquement la communauté technique et le secteur privé, qui gèrent la majeure partie du monde en ligne ? 

La société moderne pourrait avoir besoin d’un nouveau contrat social entre les utilisateurs, les sociétés Internet et les gouvernements, dans la tradition du Léviathan de Thomas Hobbes (échanger la liberté contre la sécurité) ou du Contrat social de Rousseau, plus favorable (volonté individuelle contre volonté commerciale/politique). Le nouvel accord entre les citoyens, les gouvernements et les entreprises devrait répondre aux questions suivantes : quels devraient être les rôles respectifs des gouvernements et du secteur privé dans la protection de nos intérêts et de nos actifs numériques ? Un système de freins et de contrepoids ? Un système d’équilibre des pouvoirs soigneusement conçu et plus transparent serait-il suffisant ? Le nouveau contrat social doit-il être mondial ou des contrats régionaux et nationaux peuvent-ils fonctionner ?

Un contrat social pourrait résoudre les principaux problèmes et jeter les bases d’un internet plus fiable. Cette solution est-elle réalisable ? Il y a des raisons d’être prudemment optimiste sur la base d’intérêts partagés dans la préservation de l’internet. Pour les entreprises de l’internet, plus elles ont d’utilisateurs confiants, plus elles peuvent faire de bénéfices. Pour de nombreux gouvernements, l’internet est un facilitateur de croissance sociale et économique. Même les gouvernements qui considèrent l’internet comme un outil subversif doivent réfléchir à deux fois avant d’interrompre ou d’interdire l’un de ses services. Nos habitudes quotidiennes et nos vies personnelles sont tellement liées à l’internet que toute perturbation de ce dernier pourrait catalyser une perturbation de la société dans son ensemble. Un internet digne de confiance est donc dans l’intérêt de la majorité.

D’un point de vue rationnel, il est possible de parvenir à un compromis autour d’un nouveau contrat social pour un internet de confiance. Nous devrions faire preuve d’un optimisme prudent, car la politique (en particulier la politique mondiale) tout comme la confiance (et la confiance mondiale) ne sont pas nécessairement rationnelles.

 Book, Comics, Publication, Baby, Person, Face, Head, People, Advertisement, Thomas Hobbes of Malmesbury, Tipu Sultan, Charles François de Cisternay du Fay, Ibn al-Ḥaytham

Les étapes de la gouvernance de l’IA en Europe

En l’espace d’une semaine, l’Europe a connu deux évolutions importantes en matière de gouvernance de l’IA : le Comité des ministres du Conseil de l’Europe a adopté une convention sur l’IA et les droits de l’Homme, tandis que le Conseil européen a donné son approbation finale à l’Acte sur l’IA de l’UE. Cela semble un peu confus à première vue, n’est-ce pas ? 

Tout d’abord, il s’agit d’organes différents : le Conseil de l’Europe (CdE) est une organisation européenne de défense des droits de l’Homme, tandis que le Conseil européen est l’un des organes exécutifs de l’UE. Ensuite, logiquement, les deux documents en question sont également différents, mais ils présentent de nombreuses similitudes.

Les deux documents définissent un système d’IA comme un système basé sur une machine qui déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels. 

Les deux documents visent à garantir que les systèmes d’IA soutiennent et ne portent pas atteinte aux droits de l’Homme, à la démocratie et à l’État de droit. Toutefois, la convention-cadre du Conseil de l’Europe offre une structure générale et globale applicable à toutes les étapes du cycle de vie de l’IA. La loi européenne sur l’IA est plus spécifique au marché unique de l’UE et vise également à garantir un niveau élevé de protection de la santé, de la sécurité et de l’environnement. 

Les deux documents adoptent une approche fondée sur le risque, ce qui signifie que les réglementations sont d’autant plus strictes que le préjudice potentiel pour la société est élevé. Ils soulignent que les personnes physiques doivent être informées si elles interagissent avec un système d’IA et non avec une autre personne physique. 

Aucun des deux documents ne couvre les activités liées à la sécurité nationale et à la défense ni les systèmes d’IA ou les modèles développés dans le cadre de la recherche et du développement scientifiques.  

Les États parties à la convention du CdE peuvent évaluer si un moratoire, une interdiction ou d’autres mesures appropriées sont nécessaires en ce qui concerne certaines utilisations de systèmes d’IA si l’État partie considère que ces utilisations sont incompatibles avec le respect des droits de l’Homme, le fonctionnement de la démocratie ou l’État de droit.

La convention du CdE est de caractère international, et elle est ouverte à la signature des États membres du CdE, des États non membres qui ont participé à son élaboration et de l’UE. Elle sera juridiquement contraignante pour les États signataires. La loi européenne sur l’IA, quant à elle, n’est applicable que dans les États membres de l’UE. 

En outre, les mesures énumérées dans ces deux documents sont appliquées de manière différente. Dans le cas de la convention-cadre du Conseil de l’Europe, chaque partie à la convention adopte ou maintient les mesures législatives, administratives ou autres appropriées pour donner effet aux dispositions énoncées dans la présente convention. Son champ d’application est multiple : Si les signataires doivent appliquer la convention aux « activités entreprises dans le cadre du cycle de vie ou des systèmes d’IA par les autorités publiques ou les acteurs privés agissant en leur nom », ils peuvent décider de l’appliquer également aux activités des acteurs privés ou de prendre d’autres mesures pour satisfaire aux normes de la convention dans le cas de ces acteurs. 

En revanche, la loi européenne sur l’IA est directement applicable dans les États membres de l’UE. Elle n’offre pas d’options : les fournisseurs de systèmes d’IA qui mettent sur le marché de l’UE des systèmes d’IA ou des modèles d’IA à usage général doivent se conformer aux dispositions, de même que les fournisseurs et les déployeurs de systèmes d’IA dont les résultats sont utilisés au sein de l’UE. 

Notre conclusion ? La convention du CdE a une perspective plus large et elle est moins détaillée que l’acte de l’UE, tant en ce qui concerne les dispositions que les questions d’application. Bien qu’ils se chevauchent quelque peu, ces deux documents sont distincts, mais complémentaires. Les parties qui sont des États membres de l’UE doivent appliquer les règles de l’UE lorsqu’elles traitent entre elles des questions couvertes par la convention du CdE. Elles doivent toutefois respecter les objectifs de la convention du CdE et l’appliquer pleinement lorsqu’elles interagissent avec des parties non membres de l’UE.

 Book, Comics, Publication, Advertisement, Person, Poster, Face, Head, Architecture, Building, Factory, Manufacturing, François Walthéry

En bref

Le téléphone rouge de la cybernétique : l’annuaire POC

Le concept des lignes directes entre États, qui servent de lignes de communication immédiates et sécurisées en cas de crise ou d’urgence, a été établi il y a de nombreuses années. L’exemple le plus célèbre est peut-être le téléphone rouge Washington-Moscou de 1963, créé pendant la crise des missiles de Cuba comme mesure de confiance pour éviter une guerre nucléaire.

 Book, Comics, Publication, Person, Face, Head

Dans le cybermonde d’aujourd’hui, où l’incertitude et l’interconnexion entre les États sont de plus en plus grandes, et où les conflits ne sont pas rares, les canaux de communication directe sont indispensables au maintien de la stabilité et de la paix. En 2013, les États ont discuté pour la première fois des points de contact pour la gestion des crises dans le contexte de la sécurité des TIC. 

Après une décennie de discussions sous les auspices de l’ONU, les États se sont finalement mis d’accord sur les éléments nécessaires à la mise en place d’un répertoire mondial et intergouvernemental des points de contact, dans le cadre du rapport d’activité annuel du groupe de travail à composition non limitée de l’ONU (GTCNL).

Qu’est-ce que l’annuaire POC et pourquoi est-il important ? L’annuaire POC est un répertoire en ligne de points de contact qui vise à faciliter l’interaction et la coopération entre les États afin de promouvoir un environnement TIC ouvert, sûr, stable, accessible et pacifique. Il se veut facultatif, pratique et neutre, et vise à accroître le partage d’informations entre les États, et à soutenir la prévention, la détection et la réponse à des incidents TIC urgents ou importants par le biais d’efforts de renforcement des capacités.

En janvier 2024, le Bureau des affaires de désarmement des Nations unies (UNODA) a invité tous les États à désigner, dans la mesure du possible, des POC diplomatiques et techniques. En mai 2024, l’UNODA a annoncé que 92 États l’avaient déjà fait. L’UNODA a également annoncé le lancement de l’annuaire mondial des POC et de son portail en ligne, marquant ainsi l’opérationnalisation de ces mesures de confiance dans la sphère de la sécurité des TIC.

Le premier test ping est prévu pour le 10 juin 2024, et d’autres tests de ce type seront effectués tous les six mois pour maintenir les informations à jour. Le travail sur le répertoire complétera le travail des réseaux des équipes d’intervention en cas d’urgence informatique (CERT) et des équipes d’intervention en cas d’incident de sécurité informatique (CSIRT).

Chaque État décide de la manière de répondre aux communications reçues par l’intermédiaire du répertoire. L’accusé de réception initial ne signifie pas que vous êtes d’accord avec les informations partagées, et toutes les informations échangées entre les POC doivent rester confidentielles.

Avant la création du répertoire mondial des POC au niveau des Nations unies, certains États utilisaient déjà des POC au niveau bilatéral ou régional, tels que les POC de cybersécurité ASEAN-Japon, le réseau de POC politiques et techniques de l’OSCE, les POC du Conseil de l’Europe établis par la Convention de Budapest et les POC d’INTERPOL pour la cybercriminalité. Bien que ces canaux puissent se chevaucher, tous les États ne sont pas membres de ces organisations régionales ou sous-régionales, ce qui fait de l’annuaire mondial un complément essentiel. 

Le répertoire s’accompagne également d’efforts de renforcement des capacités, ce qui en constitue probablement l’un des éléments les plus importants. Par exemple, le président du GTCNL est chargé d’organiser des exercices de simulation pour utiliser des scénarios de base afin de permettre aux représentants des États de simuler les aspects pratiques de la participation à un répertoire des POC, et de mieux comprendre leurs rôles diplomatiques et techniques. 

En outre, des réunions régulières en personne et virtuelles des POC seront organisées. Une réunion spécifique sera consacrée cette année à la mise en œuvre de l’annuaire et à l’examen des améliorations nécessaires ; nous devrions donc nous attendre à des actualisations ultérieures sur sa mise en œuvre pratique.

Réduire la confusion terminologique : s’agit-il de gouvernance numérique, de gouvernance de l’internet ou de gouvernance de l’IA ?

Les termes « numérique » et « internet » sont presque interchangeables dans les discussions sur la gouvernance. Bien que la plupart des utilisations soient occasionnelles, le choix signale parfois des approches de gouvernance différentes. 

Le terme « numérique » renvoie à l’utilisation d’une représentation binaire – par « 0 » et « 1 » – des éléments de notre réalité sociale. Le terme « internet » fait référence à toute communication numérique effectuée via le protocole de communication de transport/protocole internet (TCP/IP). Vous lisez probablement ce texte grâce au TCP/IP, qui transporte des signaux numériques (0 et 1) représentant des lettres, des mots et des phrases. L’utilisation correcte des deux termes décrit ce qui se passe en ligne, pour introduire un troisième terme, ainsi que dans les informations numérisées. 

Devrions-nous utiliser le terme de gouvernance de l’internet dans un sens plus spécifique que celui de gouvernance numérique ? La réponse est à la fois oui et non.

« OUI », on pourrait dire que tous les phénomènes numériques pertinents pour la gouvernance sont communiqués via TCP/IP, du contenu au commerce électronique et à la cybercriminalité. La plupart des aspects de l’IA qui nécessitent une gouvernance concernent l’utilisation de l’internet pour interagir avec ChatGPT ou pour générer des images et des vidéos sur des plateformes d’IA.

Par exemple, la réglementation des « hypertrucages » générés par l’IA est une question de gouvernance de l’internet, car le préjudice causé à la société est dû à leur diffusion via l’internet et les médias sociaux alimentés par TCP/IP, le protocole de l’internet. Si nous avons des hypertrucages enregistrés sur nos ordinateurs, il n’y a pas lieu de les réglementer, car ils ne causent pas de préjudice à la société.

La réponse « NON » est liée à la tendance croissante à régir l’IA au-delà de ses utilisations, en réglementant les algorithmes et le matériel sur lesquels l’IA fonctionne. Cette approche de la réglementation du fonctionnement de l’IA sous le prétexte des risques à long terme est problématique, car elle ouvre la porte à une intrusion plus profonde dans l’innovation, les utilisations abusives et les risques qui peuvent affecter le fondement de la société humaine.

Alors que les propositions de gouvernance de l’IA deviennent de plus en plus populaires, nous devrions garder à l’esprit deux leçons tirées de l’histoire de la technologie et de la gouvernance de l’internet. 

Premièrement, si l’internet s’est développé au cours des dernières décennies, c’est précisément parce qu’il a été réglementé au niveau des utilisations (applications). Deuxièmement, chaque fois qu’une gestion exceptionnelle est allée plus loin sous le capot de la technologie, cela s’est fait avec une ouverture et une transparence totales, comme cela a été le cas pour l’établissement de TCP/IP, HTML et d’autres normes internet. 

En résumé, si la gouvernance de l’IA s’effectue au niveau des usages, comme cela a été le cas pour la plupart des technologies dans l’histoire, elle n’est pas différente de la gouvernance de l’internet. Bien que cela puisse sembler hérétique, compte tenu de l’engouement actuel pour l’IA, on peut même se demander si nous avons besoin d’une gouvernance de l’IA. Elle devrait peut-être être régie par les règles existantes en matière de propriété intellectuelle, de contenu, de commerce, etc.

Prendre du recul par rapport au tourbillon des débats numériques pourrait nous aider à revoir la terminologie et les concepts que nous avons peut-être considérés comme acquis. De telles réflexions, y compris la façon dont nous utilisons les termes « internet » et « numérique », devraient améliorer la clarté de la pensée sur les développements numériques/internet/IA à venir.

Ce texte a été publié pour la première fois sur le blog de Diplo. Lire la version originale.


Actualités de la Francophonie

 Logo, Text

L’OIF au Sommet mondial de la société de l’information (SMSI) 27-31 mai à Genève

L’un des rendez-vous majeurs de l’agenda numérique international a donné l’occasion à l’OIF de mettre en avant ses priorités de de sensibiliser les décideurs à des thématiques importantes dans le contexte des négociations du Pacte numérique mondial.

C’est ainsi que l’OIF s’est associé à l’initiative de la Fédération Wallonie-Bruxelles autour du sujet « Intelligence artificielle et désinformation : des solutions techniques et politiques». M. Bertrand Levant, chef du pôle Intégrité de l’information à l’OIF, a présenté les initiatives de l’organisation dans ce domaine, et notamment le programme ODIL, plateforme francophone des initiatives de lutte contre la désinformation.De son côté, la Représentation permanente de l’OIF auprès des Nations Unies à Genève et Vienne (RPGV), cheffe de file de l’organisation sur les questions de gouvernance internationale du numérique et de l’intelligence artificielle, a organisé deux sessions. La première, organisée en partenariat avec le programme Information pour tous (IFAP) de l’UNESCO et intitulée « Comprendre et surmonter les biais culturels et linguistiques dans l’IA » a accueilli deux professionnels du secteur pour évoquer les méthodes concrètes de mise en œuvre de la découvrabilité de contenus francophones sur internet.

 People, Person, Adult, Female, Woman, Chair, Furniture, Crowd, Male, Man, Electronics, Headphones, Indoors, Accessories, Bag, Handbag, Computer, Laptop, Pc, Electrical Device, Microphone, Architecture, Building, Classroom, Room, School, Remote Control, Audience, Lecture, Computer Hardware, Hardware, Monitor, Screen, Hall

Puis, la RPGV s’est penchée plus particulièrement sur les enjeux du Pacte numérique mondial (PNM) en organisant un dialogue entre Mme Renata Dwan, conseillère spéciale au Bureau de l’Envoyé spécial pour les technologies du Secrétaire général de l’ONU, Mme Sorina Teleanu, Directrice de la connaissance à la Diplo foundation et M. Henri Eli Monceau, Représentant permanent de l’OIF à Genève. Ce dialogue, très suivi par les diplomates en charge des questions numériques à Genève, a notamment permis d’évoquer le partage des rôles entre Genève et New York dans la mise en œuvre et le suivi du PNM et les points d’amélioration des versions actuelles du document.

 People, Person, Crowd, Adult, Female, Woman, Male, Man, Audience, Indoors, Speech, Lecture, Face, Head, Clothing, Formal Wear, Suit

Les Tech civiques francophones au service de la gouvernance démocratique

En marge du SMSI, la RPGV a organisé le 30 mai au Graduate Institute de Genève, et en partenariat avec l’organisation ICT4Peace, un évènement de valorisation de l’action des Tech civiques francophones.

Quatre entrepreneurs sociaux (Open Terms Archive, Sayna, Siren Analytics et Fondation Hirondelle) ont ainsi eu l’opportunité de présenter leurs activités respectives, où les outils d’intelligence artificielle se mettent au service d’objectifs de « service public »:. contrôle démocratique des conditions d’utilisation des plateformes numériques, lutte contre la désinformation ou formation aux métiers du numérique des populations défavorisées. Des projets activement soutenus par l’OIF qui a souhaité faire connaître leur travail au plus grand nombre, convaincue que de nombreux partenariats sont possibles avec les organisations de la Genève internationale.

 Groupshot, Person, Adult, Male, Man, Clothing, Formal Wear, Suit, Coat, Face, Head, Computer Hardware, Electronics, Hardware, Monitor, Screen, Scarf, Pants

L’assistance de l’OIF dans le cadre des négociations du Pacte numérique mondial

L’OIF poursuit son soutien multiforme aux délégations francophones engagées dans les négociations du PNM. Au-delà des actions de plaidoyer et de sensibilisation, la Représentation permanente de l’OIF auprès des Nations unies à Genève et à Vienne (RPGV) a fourni aux délégations une analyse détaillée des changements apportés au projet de texte dans les versions successives au « 0 draft ».

Des propositions de formulation sur les priorités de l’OIF (promotion de la diversité culturelle et linguistique des contenus numériques, et renforcement des compétences numériques) ont également été soumises aux diplomates francophones afin qu’ils puissent s’en faire l’écho dans le cadre des négociations.

Par ailleurs, un atelier intitulé « La diversité culturelle et linguistique à l’ère du numérique et des technologies émergentes » a été organisé par la Représentation permanente de l’OIF à New York et la Représentation permanente de l’OIF à Genève, en collaboration avec le Groupe des amis de l’espagnol et la Communauté des pays de langue portugaise. Cette discussion a permis de réaffirmer collectivement l’importance d’élargir et de renforcer dans le texte du Pacte numérique mondial les formulations relatives à la diversité culturelle et linguistique, et de passer en revue les formulations concrètes qui pourraient être introduites dans le texte.

L’OIF à ICANN80

La Secrétaire générale de la Francophonie, invitée par les autorités rwandaises, a demandé à M. Henri Monceau, Représentant permanent de l’OIF à Genève et Vienne, de la représenter lors de la conférence ICANN80 de Kigali (8-14 juin).

C’est ainsi que M. Monceau a pris part à de nombreuses tables-rondes dans le cadre de la Conférence, ainsi qu’à des évènements organisés en marge, telle que la réunion convoquée par Smart Africa.

Cette mission a également permis d’organiser de nombreuses rencontres bilatérales avec les acteurs techniques de la gouvernance internationale du numérique afin de les sensibiliser aux priorités de l’OIF et des pays de l’espace francophone.


DW Weekly #163 – 7 June 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

AI in healthcare is not a new concept. What is new is the concept of an AI hospital town. Researchers from China’s Tsinghua University developed a virtual environment called ‘Agent Hospital’ where the entire process of diagnosing and treating patients is simulated. Virtual doctors, nurses, and patients are powered by large language models (LLMs). The environment has 14 doctors and 4 nurses and could reportedly treat as many patients in a few days as human doctors would in 2 years.

Its strength is in simulations. Because the patients aren’t ‘real’ and their roles are generated by AI – more specifically ChatGPT 3.5 – inexperienced doctors can practice diagnosis and treatment without risks. Another example researchers gave is simulating the spread and control of infectious diseases in a region. 

The town is scheduled to be operational by the second half of 2024. Researchers say it will bring high-quality, affordable and convenient healthcare services to the public.

Some questions that beg for an answer. Firstly, what data were the AI agents trained on? Secondly, if a real patient inputs their medical information, wherever they are supposed to input that data (that’s not clear either), how secure is that data? Thirdly, will there be a hardware component that could allow for more detailed tests to be carried out? And if not, and if patients have to go somewhere and get physical tests done, is using an AI doctor still affordable and convenient? Fourthly, will AI be able to give out prescriptions? If so, how will prescription abuse be prevented? These are just the questions at the top of our heads. There are six more months to go before the operationalisation of the AI hospital town – we’re still unsure what the ‘town’ part is about – so more details will surely surface.

We all know that entering your symptoms in a search engine and pressing the enter button is less than advisable since some of us will end up self-diagnosing with deadly eradicated diseases, (or possibly worse, a rational-sounding mistake), thus bringing more stress and anxiety upon ourselves. Will the AI doctor truly be more efficient? Would you entrust your healthcare to an AI agent, or would you follow up with a human doctor, just to make sure?

A caricature drawing shows a nude person sitting on a stool with a sheet covering their private parts. A mechanical AI probes and sends readings to its computer screen that says 'Patient No. 98,762. Condition: Processing ETA 0.00. It can take a few minutes or hours...'

In other news, the EU elections are in full swing. One of the most important issues of our time is disinformation, and this week, we’ve seen the EU accuse Russia of spreading disinformation ahead of these EU elections, and a study found TikTok failed to address disinformation effectively before the elections. Interestingly, Microsoft reported that AI had minimal impact on disinformation surrounding the EU elections. We also point you to our analysis of the impact of digital technologies on elections

Andrijana and the Digital Watch team


Highlights from the week of 31 May-7 June 2024

digital USA flag 2

The Department of Justice will lead the investigation into Nvidia, while the FTC will examine OpenAI and Microsoft.

OpenAi

Prominent figures in the AI community endorsed the letter, criticising the inadequate preparations made by AI companies for the potential dangers of AI technology.

tturhpw9bwq

Downgrading chip designs raises concerns about long-term innovation and competitiveness.

shutterstock 2253270387 scaled

The plan aims to strengthen the chip supply chain through various measures such as promoting domestic production sites, investing in human resources, and enhancing research and development activities.

x app logo front twitter blue bird symbol background 3d rendering

Elon Musk and Australian officials, including Prime Minister Anthony Albanese, engaged in heated exchanges over the issue.

person using new social media application smartphone 1

Users can mark their posts as containing sensitive media, and access to such posts is restricted for underage users.

Ticketmaster logo

The massive data breach of personal sensitive information of users have led to a law firm filing a lawsuit against the company.

back view of male hacker wearing a hoodie

The attack has compromised blood transfusion IT systems, endangering patient health and eroding public trust in healthcare institutions.

rwanda

Rwanda follows examples from other African countries, incorporating public consultations and international testing.



Reading corner

Temporal clauses

In her third post in the series ‘Speaking of Futures,’ Dr Biljana Scott delves into presuppositions and their influence on how we perceive the future, especially regarding AI.

AIatUN 1

The UN faces the challenge of integrating AI in a way that maintains its impartiality and credibility, advocating for an open-source AI platform contributed to by countries, companies, and citizens to ensure transparency, inclusivity, and adherence to its core principles.

Newsletter banner JUNE 2024 DW Banner 900x736px header

In our June issue, we discuss the need for a digital social contract, look at discussions from WSIS+20 and AI for Good, analyse the newest AI governance developments in Europe, explain the significance of the OEWG POC directory, and attempt to reduce terminological confusion over the terms digital, internet and AI governance.

Digital Watch newsletter – Issue 90 – June 2024

 Page, Text, Book, Publication, Advertisement, Poster, Person, Comics, Face, Head

Snapshot: The developments that made waves

AI governance

Chile introduced an updated national AI policy along with new legislation to ensure ethical AI development, address privacy concerns, and promote innovation within its tech ecosystem. In South Africa, the government announced the formation of an AI expert advisory council. The council will be responsible for conducting research, providing recommendations, and overseeing the implementation of AI policies in the country. Meanwhile, Zambia finalised a comprehensive AI strategy aimed at leveraging modern technologies for the country’s development.

The highly anticipated second global AI summit in Seoul, secured safety commitments from leading companies, emphasising the importance of collaborative efforts to address AI-related risks.

In the USA, lawmakers introduced a bill to regulate AI exports. This bill aims to control the export of AI technologies that could be used for malicious purposes or pose a threat to national security. Additionally, the US Department of Commerce is considering new export controls on AI software sold to China. This comes as the USA and China met in Geneva for discussions on AI risks. 

Concerns about AI safety and transparency were highlighted by a group of current and former OpenAI employees who issued an open letter warning that leading AI companies lack the necessary transparency and accountability to prevent potential risks.

Technologies

The USA is set to triple its semiconductor production by 2032, widening the chipmaking gap with China. Chinese AI chip firms, including industry leaders such as MetaX and Enflame, are downgrading their chip designs to comply with the Taiwan Semiconductor Manufacturing Company’s (TSMC) stringent supply chain security protocols and regulatory requirements, raising concerns about long-term innovation and competitiveness. South Korea has unveiled a substantial 26 trillion won (USD$19 billion) support package for its chip industry, while the EU Chips Act will fund a new chip pilot line with EUR2.5 billion. Japan is considering new legislation to support the commercial production of advanced semiconductors. 

Neuralink’s first human trial of its brain implant faced significant challenges as the device’s wires retracted from the brain, affecting its ability to decode brain signals.

Cybersecurity

High-level talks between the US and China brought attention to cyber threats like the Volt Typhoon, reflecting escalating tensions. US and British officials underscored that China poses a formidable cybersecurity threat. Meanwhile, the Open-ended Working Group (OEWG) on ICT Security established a Global POC Directory, aiming to bolster international response to cyber incidents. Read more below.

Suspicions arose over a massive cyberattack on the UK’s Ministry of Defence, with China being implicated. The Qilin group claimed responsibility for a cyberattack on Synnovis labs, disrupting key services at London hospitals. A data breach claimed by IntelBroker targeted Europol, amplifying concerns over law enforcement data security. Additionally, Ticketmaster suffered a data breach which compromised 560 million users’ personal data, and is facing a class action lawsuit.

Infrastructure

US officials warned telecom companies that a state-controlled Chinese company that repairs international undersea cables might be tampering with them. Google announced it will build Umoja, the first undersea cable connecting Africa and Australia. Zimbabwe has granted Elon Musk’s Starlink a license to operate in the country.

Legal

In a major legal battle, TikTok and creators on TikTok have sued the US government over a law that requires the app to sever ties with its Chinese parent company, ByteDance, or face a ban in the USA. This prompted a US Court of Appeals for the District of Columbia to expedite the review of the TikTok ban law.

A legal battle between Elon Musk’s X and the Australian cyber safety regulator over the removal of 65 posts showing a video of an Assyrian Christian bishop being stabbed has come to an end. In April, the Federal Court of Australia, acting upon the eSafety Commissioner’s application, issued a temporary worldwide order mandating X to hide the video content. However, in May, the court rejected the regulator’s motion to extend this order, leading the regulator to drop its legal proceedings against X.

The EU launched an investigation into Facebook and Instagram over concerns about child safety. Meanwhile, Italy’s regulatory body fined Meta for misuse of user data.

Internet economy

Microsoft, OpenAI, and Nvidia found themselves under the antitrust microscope in the USA for their perceived dominance in the AI industry. Rwanda announced plans for a digital currency by 2026, while the Philippines approved a stablecoin pilot program.

Digital rights

The European Court of Human Rights ruled that Poland’s surveillance law violates the right to privacy, lacking safeguards and effective review. Bermuda halted its facial recognition technology plans due to privacy concerns and project delays, reflecting global hesitations about the technology’s impact on civil liberties.

OpenAI was criticised for using Scarlett Johansson’s voice likeness in ChatGPT without her consent, highlighting issues of privacy and intellectual property rights. GLAAD’s report found major social media platforms fail to handle the safety, privacy, and expression of the LGBTQ community online.

Google launched its Results about you tool in Australia to help users remove search results that contain their personal information. Leading global internet companies are working closely with EU regulators to ensure their AI products comply with the bloc’s data protection laws, Ireland’s Data Protection Commission stated. However, OpenAI is in hot water with the European Data Protection Board over the accuracy of ChatGPT output

Development

The EU has officially enacted the Net-Zero Industry Act (NZIA) to bolster clean technologies manufacturing within the EU.

South Africa pledged to bridge the digital divide in the country and expand internet access for all. Morocco launched a programme to expand high-speed internet to 1,800 rural areas. The Connected Generation (GenSi) programme was launched to provide digital skills to youth and women in rural Indonesia.

Sociocultural

The EU launched an investigation into disinformation on X after the Slovakian Prime Minister’s shooting. X also officially began allowing adult content

Morroco announced its Digital Strategy 2030, which aims to digitise public services and enhance the digital economy to foster local digital solutions, create jobs, and add value. Zambia reached a key milestone in digital ID transformation, digitising 81% of its paper ID cards in 3 months.

OpenAI announced that it had disrupted five covert influence operations that misused its AI models for deceptive activities online, targeting issues such as Russia’s invasion of Ukraine, the Gaza conflict, Indian elections, and politics in Europe and the USA. A survey revealed widespread concerns about potential AI abuse in the upcoming US presidential election. EU elections are a hot topic at the beginning of June. The EU accused Russia of spreading disinformation ahead of these elections, and a study found TikTok failed to address disinformation effectively before the elections. Interestingly, Microsoft reported that AI had minimal impact on disinformation surrounding the elections.

New York lawmakers are preparing to ban social media companies from using algorithms to control content seen by youth without parental consent. Meanwhile, Australia announced a trial for age verification technologies to improve online safety for minors. 


Digital governance in focus at WSIS+20 Summit and AI for Good Global Summit 2024

The last week of May saw two attention-grabbing digital events: the WSIS+20 Forum and the AI for Good Global Summit. The former was featured heavily on the agenda of digital policymakers, given the upcoming 20-year review of the implementation progress of the WSIS outcomes as defined in the Geneva Declaration and the Tunis Agenda. Meanwhile, 2024 also saw the negotiation of the Global Digital Compact (GDC), where UN member states are to reaffirm and strengthen their commitment to digital development and effective governance. It is only natural that during this year’s WSIS+20 Forum, a question lingered on the tip of everyone’s tongue: What is the relevance of the WSIS outcomes in light of the GDC? 

 Advertisement, Person, Car, Transportation, Vehicle, Accessories, Bag, Handbag, Clothing, Footwear, Shoe, Poster

According to the first revision of the GDC, UN member states are to ‘remain committed to the outcomes of the [WSIS]’. Stakeholders gathered at the WSIS+20 Forum to reflect on and compare the GDC and the WSIS+20 review processes. Among participants, there was an evident concern about duplicating existing frameworks for digital governance, which increases the complexity and burden for stakeholders to follow and implement both processes; speakers emphasised the need to align the two processes, and especially to leverage the inclusive multistakeholder model laid out by the WSIS process. Some reiterated the importance of the Internet Governance Forum (IGF), a key digital policy platform for multistakeholder discussion born from the Tunis Agenda, to be harnessed in the implementation and alignment of both the WSIS Action Lines (ALs) and the GDC principles. Some stressed the necessity of concrete follow-up mechanisms to the GDC and suggested that the WSIS+20 review process be a critical time of reflection. Still others looked at the regional dimension, underscoring local needs, multiculturalism, and multilingualism as essential to be reflected in both processes. 

There was also a more nuanced discussion around the relevancy of the overall WSIS process to digital governance. Ahead of the 20-year review in 2025, experts reflected on the achievements of the WSIS process so far, especially in fostering digital cooperation among civil society groups, the private sector, and other stakeholders. Some called for increased collaboration among the UN system to make more substantive progress in the implementation of the WSIS ALs; others encouraged the technical community to be further integrated into the WSIS+20 review process. 

The AI for Good Global Summit, on the other hand, is relevant to digital governance in two ways. For one, it serves as a platform for AI actors to convene, exchange, network, and seek scaling opportunities. Not only does the ITU initiative feature a global summit, but it also hosts year-round workshops and initiatives that encourage AI developers and researchers to innovate creative solutions to global challenges. In the first revision of the GDC, AI for Good is also mentioned for its role as a mechanism for AI capacity building. 

Second, the AI for Good Global Summit provides a platform for business leaders, policymakers, AI researchers, and others to openly discuss AI governance issues, exchange high-potential use cases in advancing the SDGs, and establish cross-sectoral partnerships that go beyond the 3-day event. This year’s summit featured an AI governance day where high-level policymakers and top AI developers can deliberate on major AI governance processes, the role of the UN system in advancing such processes, and the conundrum for governments to balance risks and gains from AI development.

The conversations at the summit featured more technical topics than conventional policy discussions. Experts evaluated the pros and cons of open source vs proprietary large language models (LLMs) and the potential to set standards for the harmonisation of high-tech industries or responsible and equitable development of the technology. Linguistic and cultural diversity in AI development was also highlighted as key, especially as LLMs are taking centre stage.

GIP provided just-in-time reports from WSIS+20 and AI for Good Global Summit.

wf24 d2 1200x1200 1
dig.watch

The WSIS+20 Forum High-Level Event, part of the World Summit on the Information Society process, was held 27–31 May. The meetings reviewed progress related to information and knowledge societies, shared best practices, and built partnerships.

Global Summit 2024
dig.watch

The AI for Good Global Summit was held 30–31 May, in Geneva, Switzerland. This event, part of the AI for Good platform, focused on identifying practical AI applications to advance the SDGs globally.


Do we need a digital social contract?

You might be familiar with the concept of social contract. The idea is that individuals want to leave behind the state of nature, where there is no political order, and they form a society, consenting to be governed by an authority in exchange for security or civil rights. 

The digital age raises the question: Can the state deliver on its part of the social contract? Do we need a new social contract for the online era, which will re-establish the relationship of trust between citizens and the state? Is it enough to bring citizens and the state to the same table? Or should today’s social contract also specifically involve the technical community and the private sector, which manage most of the online world? 

Modern society may need a new social contract between users, internet companies, and governments, in the tradition of Thomas Hobbes’s Leviathan (exchange freedom for security) or Rousseau’s more enabling Social Contract (individual vs commercial/political will). The new agreement between citizens, governments, and businesses should address the following questions: What should the respective roles of governments and the private sector be in protecting our interests and digital assets? Would a carefully designed checks-and-balances system with more transparency be sufficient? Should the new social contract be global, or would regional and national contracts work?

Drawing captures the thought-bubble discussion of philosophers including Thomas Hobbes, David Hume, John Locke, and Hugo Grotius among a diverse group of government, academic, technical community, civil society and international organisation representatives at a large conference table covered with papers and computers.

A social contract could address the principal issues and lay the foundation for the development of a more trustworthy internet. Is this a feasible solution? Well, there is reason for cautious optimism based on shared interests in preserving the internet. For internet companies, the more trusting users they have, the more profit they can make. For many governments, the internet is a facilitator of social and economic growth. Even governments who see the internet as a subversive tool have to think twice before they interrupt or prohibit any of its services. Our daily routines and personal lives are so intertwined with the internet that any disruption to it could catalyse a disruption for our broader society. Thus, a trustworthy internet is in the interests of the majority.

Rationally speaking, there is a possibility of reaching a compromise around a new social contract for a trusted internet. We should be cautiously optimistic, since politics (especially global politics), like trust (and global trust), are not necessarily rational.

This text was adapted from the opinion pieces ‘The Internet and trust’ and ‘In the Internet we trust: Is there a need for an Internet social contract?

internet trust
www.diplomacy.edu

The blog explores the critical role trust plays in the fabric of internet governance and digital ecosystems. It argues for strengthened trust mechanisms to enhance security and cooperation in the digital age.

2015 02 12 internetbussinesmodel01X2 thumb
www.diplomacy.edu

The author examines the necessity of an internet social contract to foster trust and cooperation online, highlighting the importance of defining digital rights and responsibilities for a harmonious cyberspace. This contemplation stresses the need for a collective agreement to guide internet behaviour and governance.


AI governance milestones in Europe

In the span of a week, two significant developments in AI governance happened in Europe: the Council of Europe’s Committee of Ministers adopted a convention on AI and human rights, while the European Council gave final approval to the EU AI Act. Reads just a bit confusing at first glance, doesn’t it? 

Firstly, these are different bodies: The Council of Europe (CoE)is a European human rights organisation, while the European Council is one of the executive bodies of the EU. Secondly, logically, the two documents in question are also different, yet they share many similarities.

Both documents define an AI system as a machine-based system that infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. 

Both documents aim to ensure AI systems support and do not undermine human rights, democracy, and the rule of law. However, the CoE’s framework convention provides a broad, overarching structure applicable to all stages of the AI lifecycle. The EU’s AI Act is more specific to the EU’s single market and also aims to ensure a high level of protection of health, safety, and environmental protection. 

A risk-based approach is adopted in both documents, meaning the higher the potential harm to society, the stricter the regulations are. Both documents highlight that natural persons should be notified if they are interacting with an AI system, and not another natural person. 

Neither of the documents extends to national security and defence activities. Neither document covers AI systems or models developed for scientific research and development.

Parties to the CoE convention can assess whether a moratorium, a ban or other appropriate measures are needed with respect to certain uses of AI systems if the party considers such uses incompatible with the respect for human rights, the functioning of democracy or the rule of law.

The CoE convention is international in nature, and it is open for signature by the member states of the CoE, the non-member states that have participated in its drafting, and the EU. It will be legally binding for signatory states. The EU AI Act is, on the other hand, applicable only in EU member states. 

Further, the measures enumerated in these two documents are applied differently. In the case of the CoE framework convention, each party to the convention shall adopt or maintain appropriate legislative, administrative or other measures to give effect to the provisions set out in this convention. Its scope is layered: While signatories are to apply the convention to ‘activities undertaken within the lifecycle or AI systems undertaken by public authorities or private actors acting on their behalf’, they may decide whether to apply it to the activities of private actors as well, or to take other measures to meet the convention’s standards in the case of such actors. 

On the other hand, the EU AI Act is directly applicable in the EU member states. It does not offer options: AI providers who place AI systems or general-purpose AI models on the EU market must comply with the provisions, and so must providers and deployers of AI systems whose outputs are used within the EU. 

Our conclusion? The CoE convention has a broader perspective, and it is less detailed than the EU Act, both in provisions and in enforcement matters. While there is some overlap between them, these two documents are distinct yet complementary. Parties that are EU member states must apply EU rules when dealing with each other on matters covered by the CoE convention. However, they must still respect the CoE’s convention’s goals and fully apply the convention when interacting with non-EU parties.

A humanoid AI sits at a table discussing with two humans holding papers. The large words 'OBEY' and 'SERVE' and smaller charts show on the wall. Smaller indicators name the EU AI ACT and the CoE Convention on AI.

The red telephone of cyber: The POC Directory

The concept of hotlines between states, serving as direct communication lines for urgent and secure communication during crises or emergencies, was established many years ago. Perhaps the most famous example is the 1963 Washington-Moscow Red Phone, created during the Cuban Missile Crisis as a confidence-building measure (CBM) to prevent nuclear war. 

Coloured drawing divided in two parts depicts and old-fashioned red telephone held by a person in one classic war room with a map and a model battlefield game board and another on the right in a differently decorated but comparable war room.

In today’s cyberworld, where uncertainty and interconnectedness between states are increasingly higher, and conflicts are not unheard of, direct communication channels are indispensable for maintaining stability and peace. In 2013, states discussed points of contact (POCs) for crisis management in contexts of ICT security for the first time. 

After a decade of discussions under the auspices of the UN, states finally agreed on elements for the operationalisation of a global, intergovernmental POC directory as a part of the UN Open-ended working group (OEWG) Annual Progress Report (APR).

What is the POC directory and why is it important? The POC directory is an online repository of POCs which aims to facilitate interaction and cooperation between states to promote an open, secure, stable, accessible, and peaceful ICT environment. The directory is intended to be voluntary, practical, and neutral, aiming to increase information sharing between states and further the prevention, detection, and response to urgent or significant ICT incidents through related capacity-building efforts.

In January 2024 the UN Office for Disarmament Affairs (UNODA) invited all states to nominate, where possible, both diplomatic and technical POCs. In May 2024, UNODA announced that 92 states have already done so. UNODA also announced the launch of the global POC Directory and its online portal, marking the operationalisation of these CBMs in the sphere of ICT security.

The first ping test is planned for 10 June 2024, and further such tests will be conducted every six months to keep the information up-to-date. The work on the directory will complement the work of the Computer Emergency Response Teams (CERTs) and Computer Security Incident Response Teams (CSIRTs) networks.

Each state decides how to respond to communications received via the directory. Initial acknowledgement of receipt does not imply agreement with the information shared, and all information exchanged between POCs is to remain confidential.

Before the establishment of the global POC directory at the UN level, some states already used POCs at bilateral or regional levels, such as the ASEAN-Japan cybersecurity POCs, OSCE network of policy and technical POCs, CoE POCs established by the Budapest Convention, and INTERPOL POCs for cybercrime. While these channels may overlap, not all states are members of such regional or sub-regional organisations, making the global directory a crucial addition. 

Capacity-building efforts also accompany the directory, and this is probably one of the most important elements in the directory. For example, the OEWG chair is tasked with convening simulation exercises to use basic scenarios to allow representatives from states to simulate the practical aspects

of participating in a POC directory and better understand the roles of diplomatic and technical POCs. Additionally, regular in-person and virtual meetings of POCs will be convened. A dedicated meeting will be held this year to implement the directory and consider necessary improvements, so we should expect further updates on the directory’s practical implementation.



Reducing terminological confusion: Is it digital or internet or AI governance?

Digital and internet are used almost interchangeably in governance discussions. While most uses are casual, the choice sometimes signals different governance approaches. 

The term digital is about using a binary representation – via ‘0’ and ‘1’ – of artefacts in our social reality. The term internet refers to any digital communication that is conducted via the Transport Communication Protocol/Internet Protocol (TCP/IP). You’re probably reading this text thanks to TCP/IP, which carries digital signals (0s and 1s) that represent letters, words, and sentences. Using both terms correctly describes what is going on online, to introduce a third term, and in digitised information. 

Should we use the term internet governance in a more specific sense than digital governance? The answer is both yes and no.

YES, one could say that all digital phenomena with relevance for governance are communicated via TCP/IP, from content to e-commerce and cybercrime. Most AI aspects that require governance are about using the internet to interact with ChatGPT or to generate images and videos on AI platforms.

For instance, regulation of deep-fakes generated by AI is and internet governance issue, as harm to society is caused by their distribution through the internet and social media powered by TCP/IP, the internet protocol. If we have deepfakes stored on our computers, it does not require any governance as it does not cause any harm to society.

The answer NO relates to the increasing push to govern AI beyond its uses through the regulation of algorithms and hardware on which AI operates. This approach to regulating how AI works under the pretext of mainly long-term risks is problematic, as it opens the door to deeper intrusion into innovation, misuses, and risks that can affect the fabric of human society.

As proposals for AI governance become more popular, we should keep in mind two lessons from tech history and internet governance. 

First, the internet has grown over the last few decades precisely because it has been regulated at the uses (applications) level. Second, whenever exceptional management went deeper under the bonnet of technology, it was done with full openness and transparency, as has been the case with setting TCP/IP, HTML, and other internet standards. 

In sum, if AI governance takes place at the uses level, as has been done for most technologies in history, it is not different from internet governance. Although it may sound heretical, given the current AI hype, one might even question whether we need AI governance at all. Perhaps AI should be governed by existing rules on intellectual property, content, commerce, etc.

Stepping back from the whirlpool of digital debates could help us revisit terminology and concepts that we might have taken for granted. Such reflections, including how we use the terms internet and digital, should increase clarity of thinking on future digital/internet/AI developments.

This text was first published on Diplo’s blogroll. Read the original version.

OcMiksDy
www.diplomacy.edu

The blog discusses the importance of distinguishing between digital and internet governance. It emphasises the need for precision in terminology to accurately describe online activities and the governance required. 


DW Weekly #162 – 31 May 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

How much is too much? Everything in moderation, the saying goes, and Indonesians surely have it on their minds these days. The country is grappling with a huge excess of government digital public service apps, as new applications were made with each change in leadership. This is bound to cause confusion among citizens and drain resources from the ministries and regional administrations that operate the apps. The proposed solution? A hard stop on making apps and green light on integrating them – all 27,000 of them – into one platform, the INA Digital platform. Obviously, this will be a huge undertaking. Working on it are 400 local digital talents under GovTech Indonesia. By September, the platform would integrate services from at least 15 ministries. One of the drawbacks is, as is the case with any centralised system, that cybersecurity might become an issue: Data will still be stored by individual ministries, yet will need to safeguard this data with shared protocols.

Drawing of a person reaching out for help from beneath a mountain of apps. The pile of apps has a sinister shadow.

Things are moving along in the TikTok vs USA case: The US Court of Appeals for the District of Columbia has agreed to speed up the review of the ‘TikTok ban law’ that mandates that ByteDance divest TikTok’s US assets. Oral arguments are to be presented in September. However, reports suggest that TikTok is developing a new recommendation algorithm for its US-based users, separate from its current recommendation algorithm, which might pave the way for the divestiture. Historically speaking, no remedies TikTok or ByteDance have made have managed to reassure the USA that the companies are not beholden to China. Will this be enough?

This week, Geneva hosted WSIS+20 and AI for Good Global Summit 2024. Discussions are almost finished at WSIS – even as we’re sending this email, ITU’s Secretary General Doreen Bogdan-Martin is delivering closing remarks. Just a few more hours are left of the AI for Good programme. One of the most exciting points of the discussions was Sam Altman’s interview, where he touched upon OpenAI’s alleged use of Scarlett Johansson’s voice likeness in its AI model, ChatGPT. Altman claimed the company didn’t intend to make the voice sound like Johansson. 

And speaking of ChatGPT, a survey has revealed that up to 30% of the population has no knowledge of generative AI tools and their implications.

In other news this week, the EU established its AI Office, which is set to play a key role in the implementation of the AI Act. International law enforcement agencies took down 911 S5, the biggest botnet ever, Zambia joined the list of countries with national AI strategies, and more.

Andrijana and the Digital Watch team


Highlights from the week of 24-31 May 2024

HesBgBluFlagSet5 14

By integrating public services into the INA Digital platform, the Indonesian government hopes to achieve cost savings and enhance service delivery.

eu flags in front of european commission

The AI Office is structured into different units, each with specific responsibilities. Led by the Head of the AI Office and advised by a Lead Scientific Adviser and an international…

shutterstock 2248471653 1 scaled

The research shows that 20-30% of respondents in six countries have not heard of ChatGPT or other popular AI tools.

the flag of zambia

The Zambian ministry is also actively training its workforce in AI, indicating a commitment to building the necessary human capital to fully leverage AI technologies.

double exposure creative artificial intelligence icon with man hand writing notebook background neural networks machine learning concept

The companies have sought the European Commission’s input on their new AI products, particularly those in the large language model space.

shutterstock 2237752713 scaled

National privacy watchdogs have raised concerns about the widely used AI service, leading to ongoing investigations.

chinese flag 1752046 1280

Chinese chip shares have seen an increase lately as seventeen investors, including five major Chinese banks, contributed to the fund, each adding around 6% to the total capital.

tiktok9

The bill received significant support in Congress due to concerns among lawmakers about Chinese access to Americans’ data and potential espionage through the app.

tiktok7

TikTok and ByteDance have filed a lawsuit in US federal court to challenge the law forcing a sale or ban of the app.

eu european union flags in front of european comission building in background brussles belgium

The net-zero industry act is one of the three key legislative initiatives of the Green Deal Industrial Plan.

the united states supreme court building washington d c usa

Musicians are increasingly concerned about the misuse of their identities in AI-generated content.

handcuffs on laptop cyber crime concept

The arrest was part of a multiagency operation involving law enforcement from the US, Singapore, Thailand, and Germany.

cybercrime through the internet

The operation was conducted across Europe and North Asia by Europol and its partners. Four individuals were arrested.

WSIS20 2

The discussion highlighted key challenges such as limited CSO involvement in digital policy, financial barriers, and overrepresentation of Global North organisations. The CADE project aims to address these by offering tailored training to CSOs to enhance their internet governance skills and foster constructive dialogue with policymakers.



ICYMI

Flags help us uncover the basics of AI. Watch the video to find out what they teach us about pattern recognition and probability.


Check out our dedicated WSIS+20 and AI for Good Global Summit 2024 webpages for reports from selected sessions. 

wf24 d2 1200x1200 1

The WSIS+20 Forum High-Level Event, part of the World Summit on the Information Society process, was held 27–31 May. The meetings reviewed progress related to information and knowledge societies, shared best practices, and built partnerships.

Global Summit 2024

The AI for Good Global Summit was held 30–31 May, in Geneva, Switzerland. This event, part of the AI for Good platform, focused on identifying practical AI applications to advance the SDGs globally.


Reading corner

artificial intelligence ai and machine learning ml
dig.watch

Continuing the three-part series on AI’s influence on intellectual property (IP), this final section touches upon the approaches applied to safeguard IP in the AI Age.

Biscott
www.diplomacy.edu

Bi Scott’s first blog post, ‘Speaking of Futures (1): Story-capsules’, she looked at how story-capsules found in connotations and metaphors can subliminally influence the way we think about the future. This week, Scott looks at the framing devices in broader narratives about AI, from science fiction and cautionary tales to logical fallacies.

Chhath Puja
www.diplomacy.edu

In 2015, Aldo Matteucci commented on the ambitious plan for a big data-driven encyclopedia of religious cultural history, highlighting issues with Western biases and the difficulty of quantifying religious experiences.

DW Weekly #161 – 24 May 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

This week saw exciting developments in AI governance in Europe as the Council of Europe’s Committee of Ministers adopted the Convention on AI and human rights, while the European Council gave final approval to the EU AI Act. Reads just a bit confusing at first glance, doesn’t it? 

Firstly, these are different bodies: the Council of Europe is a European human rights organisation, while the European Council is one of the executive bodies of the EU. Secondly, and logically, the two documents in question are also different.

The Council of Europe adopted a Framework Convention on AI and human rights, democracy, and the rule of law. The convention encompasses activities throughout the AI system lifecycle that possess the potential to impact – you guessed it – human rights, democracy, and the rule of law. The convention has adopted a risk-based approach, similar to the EU AI Act, meaning the higher the potential harm to society, the stricter the regulations,. This approach applies to the entire lifecycle of AI systems, from design and development to use and decommissioning. The convention is international in nature, and it is open to non-European countries as well. It will be legally binding for signatory states. Its scope is layered: While signatories are to apply the convention to ‘activities undertaken within the lifecycle or AI systems undertaken by public authorities or private actors acting on their behalf’, they are left to decide whether to apply it to activities of private actors as well or to take other measures to meet the convention’s standards in the case of such actors.  Key provisions include transparency and oversight requirements tailored to specific contexts and risks. The convention’s provisions do not extend to national security activities. Concerns have been raised regarding the convention’s effectiveness, with questions about whether it primarily reaffirms existing practices rather than introducing substantive regulatory measures.

The European Council gave final approval to the EU AI Act. We’ve written about the EU AI Act at length. It aims to promote the development and adoption of safe and trustworthy AI systems within the EU’s single market. It adopts a risk-based approach, meaning the higher the potential harm to society, the stricter the regulations. The act applies exclusively to areas within EU jurisdiction, with exemptions for military, defence, and research purposes. The EU AI Act does not offer options: AI providers who place AI systems or general-purpose AI models on the EU market must comply with the provisions, and so must providers and deployers of AI systems whose outputs are used within the EU. 

The verdict? The convention has a broader perspective, and it is less detailed than the EU Act, both in provisions and in enforcement matters. While there is some overlap between them, these two distinct documents are complementary.

A computer-connected humanoid AI sits at a desk preparing data charts and analyses while the human experts point to the EU AI Act and CoE Convention on AI. A sign behind the  AI reads 'OBEY' and 'SERVE'

More US-China tensions, more national investments in the chip industry, and more AI-related launches round off the issue.

Next week, all eyes will be on the World Summit on the Information Society (WSIS)+20 Forum High-Level Event and the AI for Good Global Summit. We’ll bring you reports for a selected amount of sessions, so be sure to bookmark the hyperlinked pages.

Andrijana and the Digital Watch team


Highlights from the week of 10-17 May 2024

double exposure creative artificial intelligence abbreviation with man hand writing notepad background future technology ai concept

Tech companies have agreed on a set of safety commitments on AI at a second global safety summit led by South Korea and the UK.

1524167e 54ef 4a3f a7f3 00814510c175

The company emphasises the privacy of user data, assuring that it remains private and stored solely on the user’s device.

V 1 Google

The company aims to prioritise factual information while striking a balance between creativity and accuracy in language models.

shutterstock 2181327899

Funding comes from EU programs, the Flanders government, and industry players.

south korea flag waving against cloudy sky

The country’s share of the global fabless sector stands at 1%, highlighting a gap with leading players like Taiwan’s TSMC.

submarine cables 2048x1152 1

The warning has raised concerns about the security of commercial and military data.

TikTok

The US Justice Department and TikTok argue that the public has a significant interest in resolving this matter quickly due to the large number of TikTok users.

cryptocurrency law in the us senate no people realistic look no cryptocurrency logos

The United States Senate has passed a joint resolution calling for the Securities and Exchange Commission (SEC) to reverse a rule affecting financial institutions dealing with cryptocurrency firms

concept for facial recognition biometric security system or deepfake dangers

Announced at the ID4Africa event in Cape Town, a World Bank advisor noted Zambia digitized 81% of paper ID cards in three months, aiming for completion by July.

worker watching his laptop map world

Efforts include expanding WiFi hotspots, reducing data costs, promoting digital skills training, and leveraging new technologies.



ICYMI


Reading corner

seoul city
dig.watch

The declaration is the outcome of the AI Seoul Summit 2024, where world leaders gathered in response to the rapid advancements in AI since the first summit in November.

TikTok1
dig.watch

The TikTok legal saga highlights the complex interplay between technology, law, and geopolitics. As digital sovereignty and data privacy become increasingly important, the outcome of TikTok’s legal battles will have significant implications for the global tech industry.

bot and hand of god
www.diplomacy.edu

Diplo has launched a new online literacy course, Building the future we need (with Anita Lamprecht), aligning with the UN’s 2024 Summit of the Future. In the blog post Speaking of futures, Diplo faculty member and linguist Biljana Scott explores how language shapes our perception of the future, highlighting the importance of recognising unconscious biases.


Upcoming

wf24 d2 1200x1200 1
dig.watch

The WSIS+20 Forum High-Level Event, part of the World Summit on the Information Society, will be held on 27-31 May 2024. It aims to review progress related to information and knowledge societies, share best practices, and build partnerships.

Global Summit 2024
dig.watch

The AI for Good Global Summit will be held on 30-31 May, 2024, in Geneva, Switzerland. This event, part of the AI for Good platform, will focus on identifying practical AI applications to advance the SDGs globally.

Numéro 89 de la lettre d’information Digital Watch – mai 2024

 Person, Head, Face, Boxing, Sport

Observatoire

Coup d’œil : les développements qui font des vagues

Gouvernance de l’IA

La Corée du Sud a annoncé son intention d’accueillir le deuxième sommet mondial sur la sécurité de l’IA. Parallèlement, le Programme des Nations unies pour le développement (UNDP) a facilité les discussions entre la présidence italienne du G7 et l’Union africaine, en mettant l’accent sur l’utilisation de l’IA pour le développement durable. Le Premier ministre japonais Kishida Fumio a annoncé que plus de 49 pays et régions avaient rejoint le groupe des amis du processus d’Hiroshima sur l’IA. 

Dans le cadre d’une collaboration avec l’Allemagne et l’UE, le Kenya a lancé un projet visant à élaborer sa stratégie nationale en matière d’IA. 

Aux États-Unis, le Centre de sécurité de l’intelligence artificielle (AISC) de l’Agence nationale de sécurité a publié de nouvelles orientations sur la sécurisation des systèmes d’IA. Dans le même ordre d’idées, le National Institute of Standards and Technology (NIST) a publié quatre projets de rapport visant à améliorer les normes des systèmes d’IA. En Italie, la Cassa Depositi e Prestiti (CDP) a annoncé un investissement substantiel de 1 milliard d’euros dans l’IA et la cybersécurité.

Le paysage de l’IA a connu une explosion d’innovations, les géants de l’industrie OpenAI, Google, Meta et Mistral ayant tous dévoilé de nouveaux grands modèles de langage (LLM). Anthropic a également fait les gros titres en affirmant que ses modèles d’IA sont désormais aussi persuasifs que les humains.

Technologies 

Afin de réduire sa dépendance à l’égard des grands fabricants de puces mondiaux, Google a présenté une nouvelle puce d’IA. La Corée du Sud prévoit d’investir 6,94 milliards d’USD dans l’IA d’ici 2027, ainsi qu’un fonds distinct de 1,1 milliard d’USD pour encourager les entreprises de semi-conducteurs spécialisées dans l’IA. Samsung a également annoncé un investissement de 44 milliards d’USD aux États-Unis pour développer sa production de puces. La Chine a fixé une échéance à 2027 pour que son secteur des télécommunications remplace les puces américaines par des solutions locales. Les États-Unis ont annoncé un partenariat mondial visant à renforcer la coopération dans le domaine de l’IA et des semi-conducteurs, ce qui pourrait être considéré comme un contrepoids à l’influence croissante de la Chine dans ce secteur. Pour en savoir plus sur la lutte entre la Chine et les États-Unis pour la suprématie des puces, consultez les pages 4 et 5.

Cybersécurité

La présidence belge du Conseil de l’UE a dévoilé le cadre d’une loi sur la protection des enfants sur internet.

De l’autre côté de l’Atlantique, l’Agence américaine pour la cybersécurité et la sécurité des infrastructures (CISA) a publié la directive d’urgence 24-02 en guise de contre-mesure à une cyberattaque russe qui visait les comptes de messagerie électronique de Microsoft. En réponse à l’évolution des cybermenaces, le département d’État américain a présenté une nouvelle stratégie sur le cyberespace et la politique numérique afin de renforcer la sécurité nationale et la coopération internationale dans les espaces numériques.

Le secteur privé a également connu des perturbations, le fabricant de puces néerlandais Nexperia ayant signalé une cyberattaque, et RansomHub ayant exposé les dossiers personnels et médicaux de Change Healthcare lors d’une cyberattaque au début de l’année. L’UNDP a confirmé qu’il avait également été victime d’une attaque par rançongiciel.

Infrastructure

La Commission fédérale des communications (FCC) des États-Unis a rétabli les règles relatives à la neutralité de l’internet et a affirmé un nouveau contrôle réglementaire sur l’internet à haut débit, renversant ainsi les politiques adoptées par l’Administration précédente. 

Le Conseil de l’Union européenne a donné son approbation finale au Gigabit Infrastructure Act, une nouvelle loi visant à accélérer le déploiement des réseaux à haut débit dans l’UE. 

Juridique

La Chine prévoit d’établir un réseau informatique national avec son National Data Administration afin de combler les lacunes numériques régionales et de renforcer les capacités.

Le Congrès américain a introduit la loi sur la divulgation des droits d’auteur dans l’IA générative (Generative AI Copyright Disclosure Act), qui oblige les entreprises d’IA à divulguer au registre des droits d’auteur les documents protégés par le droit d’auteur utilisés dans leurs ensembles de données d’apprentissage avant de mettre sur le marché de nouveaux systèmes d’IA.

Économie de l’internet

Les autorités antitrust de l’UE examinent une proposition d’Apple visant à déterminer si elle autorise Spotify et d’autres services de diffusion de musique en continu à informer les utilisateurs de l’existence d’autres méthodes de paiement en dehors de l’App Store d’Apple. 

Le Trésor britannique a annoncé son intention de mettre en place un cadre réglementaire complet pour les cryptomonnaies et les monnaies stables. 

Le gouvernement canadien a annoncé son intention de mettre en place une taxe sur les services numériques à partir de 2024. Cette taxe vise spécifiquement les grandes entreprises technologiques opérant dans le pays.

Droit numérique

Les législateurs fédéraux américains ont présenté un projet de loi bipartite intitulé « American Privacy Rights Act » (loi américaine sur les droits à la vie privée). La législation proposée comprend des limitations à la collecte de données personnelles, un contrôle accru des consommateurs sur leurs informations personnelles et la mise en œuvre de mesures de protection contre les algorithmes discriminatoires.

Le Parlement éthiopien a adopté une législation complète sur la protection des données numériques, précisant les droits des personnes concernées, établissant des obligations statutaires pour les entités qui traitent des données personnelles, et fixant des limites à la collecte et à leur utilisation.

Enfin, NOYB, un groupe autrichien de défense de la vie privée, a déposé une plainte contre OpenAI, alléguant qu’elle n’a pas traité de manière adéquate la diffusion d’informations incorrectes sur les personnes par ChatGPT.

Développement

Le paysage mondial de la liberté de l’internet a connu un recul, le premier trimestre 2024 ayant enregistré 22 fermetures intentionnelles de l’internet dans 12 pays, soit une récurrence du pic observé en 2021. 

Le gouvernement sud-africain a lancé un plan global visant à connecter à l’internet environ 5,5 millions de foyers dans les communautés rurales et les municipalités au cours des trois à quatre prochaines années.

Au Brésil, une initiative tripartite impliquant Anatel, l’UNESCO et le gouvernement brésilien a été lancée pour réduire la fracture numérique en élargissant l’accès à l’internet dans tout le pays, en ciblant particulièrement les régions mal desservies.

Socioculturel

Microsoft a révélé que des groupes chinois utilisaient l’IA pour créer du contenu visant à fausser les élections américaines. 

La Cour suprême du Brésil a ouvert une enquête sur les actions de X (anciennement Twitter) concernant les comptes de médias sociaux. X a accepté de se conformer aux ordonnances du tribunal brésilien, ce qui pourrait permettre d’éviter d’autres complications juridiques. Le Pakistan a bloqué l’accès à X, citant la sécurité nationale comme raison principale.

Meta a annoncé une nouvelle politique visant à étiqueter les contenus générés par l’IA plutôt que de les supprimer. 
Par ailleurs, un sénateur italien a proposé la création d’une agence nationale chargée de lutter contre la désinformation.

LES CONVERSATIONS DE LA VILLE – GENÈVE

En avril, la 27e session de la Commission de la science et de la technologie au service du développement (CSTD) a constitué le point d’orgue de la Genève internationale en matière de gouvernance numérique. La session s’est articulée autour de deux thèmes principaux : les données au service du développement, et la coopération mondiale en matière de science, de technologie et d’innovation au service du développement. Elle a également abordé les progrès réalisés dans la mise en œuvre des résultats du Sommet mondial sur la société de l’information (SMSI), qui gagne en importance à l’approche de l’examen du SMSI+20 en 2025. Le Conseil économique et social (ECOSOC) a chargé la CSTD d’examiner les résultats du SMSI et de préparer un rapport sur le SMSI+20. La CSTD a présenté un calendrier de préparation au cours de la session. Un point de l’ordre du jour consacré au Pacte mondial pour le numérique (PMN) a été inscrit à l’ordre du jour, offrant aux États membres la possibilité de partager leurs points de vue sur le projet « Zero Draft » du PMN. 
En ce qui concerne le GDC, nous pouvons dire qu’il a été le sujet de conversation de la ville à Genève en avril, car les États membres, les agences de l’ONU et d’autres parties prenantes ont discuté du projet « Zero Draft » dans divers contextes. Pour en savoir plus sur le projet du GDC et le processus du SMSI+20, consultez notre Digital Watch Observatory.

En bref

La Chine et les États-Unis s’affrontent sur la technologie

Depuis longtemps, la Chine et les États-Unis s’opposent dans le domaine de la technologie. Les points de discorde du mois d’avril ? TikTok et les puces.

Le cœur du problème des États-Unis avec TikTok est la sécurité des données : les données des utilisateurs américains sont-elles régulièrement envoyées en Chine par TikTok ? 

Pour rappel, la société mère de TikTok, ByteDance, est basée en Chine, dont la loi sur le renseignement national de 2017 exige que les entreprises participent aux activités de renseignement de l’État. C’est de là que viennent les craintes concernant le transfert des données des utilisateurs vers la Chine. 

TikTok a affirmé à plusieurs reprises que la Chine n’avait pas accès aux données des utilisateurs américains. Les Américains n’en ont jamais été très convaincus et leurs inquiétudes ont encore augmenté en avril

La solution retenue pour résoudre ce dilemme, du moins pour les États-Unis, est la cession de TikTok, qui a été communiquée à la Chine au plus haut niveau – par le président américain Biden au président chinois Xi, lors d’un appel téléphonique. 

En avril, M. Biden a promulgué une loi sur l’aide à l’étranger, qui comprend une disposition visant à interdire TikTok si ByteDance ne se défait pas de l’application dans un délai d’un an. Plus précisément, ByteDance dispose d’une période initiale de neuf mois pour finaliser un accord (jusqu’au 24 janvier 2025), qui pourrait être prolongée de trois mois supplémentaires si des progrès sont constatés. Le premier délai est fixé au 19 janvier 2025, et le dernier au 19 avril 2025. 

Mais ByteDance n’envisage pas de vendre : les algorithmes de TikTok s’alignent étroitement sur les applications nationales de l’entreprise, ce qui rend difficile de s’en séparer sans renoncer à une propriété intellectuelle fondamentale. 

ByteDance et TikTok ont décidé de se battre en justice et poursuivent le gouvernement américain pour cette raison

ByteDance et TikTok soutiennent que le gouvernement américain n’a pas présenté de preuves suffisantes de l’utilisation abusive présumée par la Chine des données associées à l’application. Les entreprises cherchent à obtenir une décision de justice, déclarant la législation inconstitutionnelle parce qu’elle enfreint le premier amendement des États-Unis, qui protège la liberté d’expression. Elles ont également demandé une ordonnance du tribunal pour empêcher le procureur général d’appliquer la loi.

Cette situation étant inhabituelle, il est difficile de dire comment le tribunal se prononcera. Elle a cependant des implications plus larges sur la gouvernance des données : ceux qui contrôlent les données pourront alors contrôler le monde.

 Clothing, Jeans, Pants

Les deux pays se battent également au sujet des puces électroniques. Il est difficile de dire qui a donné le premier coup de poing – peut-être les États-Unis lorsque leur ministère du Commerce a placé Fujian Jinhua Integrated Circuit Co Ltd sur une liste d’entités qui ne peuvent pas acheter de composants, de logiciels ou de biens technologiques à des entreprises américaines en 2018. 

Ce qui peut être considéré comme l’un des coups les plus brutaux a été le contrôle des exportations américaines d’octobre 2022 sur les produits informatiques avancés et les produits de fabrication de semi-conducteurs. 

Ces mesures empêchent les entreprises américaines de vendre des puces avancées à la Chine ou de fournir aux entreprises chinoises des outils pour fabriquer leurs propres puces avancées. Elles empêchent également les entreprises d’autres pays de faire de même si ces puces ou ces outils ont été fabriqués à l’aide de technologies développées aux États-Unis. 

Pourquoi ce coup de poing a-t-il été si fort ? Il n’existe pratiquement pas de semi-conducteurs dont la conception ou les processus de production ne comportent pas d’éléments protégés par une marque américaine.

La Chine a donc entamé une procédure de règlement des différends commerciaux auprès de l’Organisation mondiale du commerce (OMC) à l’encontre des mesures américaines de contrôle des exportations de puces, arguant que ces mesures « menaçaient la stabilité des chaînes d’approvisionnement de l’industrie mondiale ». 

En octobre 2023, la Maison-Blanche a imposé une nouvelle interdiction d’exportation des puces avancées.

À la fin du mois de mars 2024, ces contrôles à l’exportation ont été renforcés, ce que la Chine a dénoncé en invoquant, une fois de plus, l’augmentation des barrières commerciales et l’incertitude dans le secteur mondial des puces. 

Toutefois, des entités chinoises ont réussi à contourner ces interdictions d’exportation et à mettre la main sur certaines puces Nvidia par l’intermédiaire de revendeurs, ce qui soulève des doutes quant à l’efficacité des contrôles à l’exportation. Nvidia et Intel prévoient également de produire des puces spécifiques à la Chine, qui seront développées dans le respect des contrôles et des sanctions à l’exportation des États-Unis. 

La Chine applique également son Document 79, une politique secrète surnommée « Delete A » ou « Delete America », qui impose à des secteurs vitaux tels que la finance et l’énergie d’éliminer progressivement tous les logiciels étrangers. 

Les deux pays augmentent leurs investissements dans la production locale de puces. La Chine mobilise un fonds de 27 milliards d’USD pour les puces, le National Integrated Circuit Industry Investment Fund. M. Biden a conclu un accord avec Micron Technology à la fin du mois d’avril, garantissant jusqu’à 6,14 milliards d’USD pour deux nouvelles usines de fabrication de puces à New York et dans l’Idaho. Un rapport très récent suggère que les États-Unis auront encore plus de succès : d’ici 2032, les États-Unis pourraient produire 28 % des puces avancées, alors que la Chine ne devrait en produire que 2 %.

Qu’en est-il des alliés ? La Chine demande la poursuite des échanges d’équipements avancés de fabrication de puces avec les Pays-Bas, tandis que les États-Unis poussent leurs partenaires – à savoir les Pays-Bas, l’Allemagne, la Corée du Sud et le Japon – à imposer des contrôles plus stricts sur les exportations de puces. 

Curieusement, c’est la Malaisie qui profite le plus de ces tensions, car la Chine et les États-Unis y investissent dans la fabrication de puces. 

Il convient également de mentionner que le poids lourd de la fabrication de puces est centré sur Taïwan, qui détient 61 % du marché de la fabrication de puces et produit environ 92 % des puces les plus perfectionnées au monde. 

S’agit-il d’un combat sans vainqueur ? Si l’on considère la date à laquelle le conflit a commencé, combien de rounds nous attendent-ils encore ? Les tensions pourraient-elles un jour s’apaiser ? 

Cela dépend en partie du résultat de l’élection présidentielle de cette année aux États-Unis – si l’ancien président Trump reprend la Maison-Blanche, la dynamique, au moins pour TikTok, pourrait changer, car il a déjà indiqué qu’il était contre l’interdiction. 

En attendant, la course aux puces est encore plus susceptible de s’accélérer en raison du tremblement de terre d’avril à Taïwan, qui nous rappelle brutalement à quel point nos appareils sont dépendants des puces taïwanaises.

 Bar Chart, Chart, Scoreboard

La saga de la propriété intellectuelle : stratégies pour concilier les progrès de l’IA et la protection de la propriété intellectuelle | Partie 3

Nous poursuivons notre exploration approfondie de l’influence de l’IA sur la propriété intellectuelle. La première partie s’est penchée sur le processus complexe de protection par le droit d’auteur des contenus générés par l’IA, révélant les défis posés par les lois traditionnelles sur la propriété. 

Le deuxième essai a exploré le terrain complexe de l’influence de l’IA sur les secrets commerciaux et les marques déposées dans les cadres juridiques de l’UE et des États-Unis. 

Cette dernière partie éclairera davantage les stratégies à multiples facettes mises en œuvre pour sauvegarder la propriété intellectuelle à l’ère de l’IA, soulignant la profondeur et l’importance de cette question en constante évolution.

 Lighting, Electronics, Hardware, Scoreboard

Le paysage juridique entourant l’IA et la propriété intellectuelle est complexe, et évolue rapidement. Il exige un examen attentif des contributions de l’Homme et de l’IA aux efforts de création et d’innovation. 

Si l’IA contribue de manière significative à l’innovation, elle se heurte à des obstacles pour faire valider sa participation. Par exemple, la Cour d’appel des États-Unis a récemment rejeté l’IA en tant qu’inventeur, s’alignant ainsi sur les lois sur les brevets centrées sur la personne. L’enregistrement des droits d’auteur pour les œuvres générées par l’IA est également controversé en raison des exigences relatives à la création humaine. 

Toutefois, il est important de noter que des efforts continus, comme on le voit dans des cas tels que la bande dessinée de Kashtanova, sont faits pour protéger les éléments créés par l’Homme. Le brevetage des systèmes d’intelligence artificielle en vertu de l’arrêt Alice Corp. v. CLS Bank International exige des transformations inventives pour être admissible, en passant par un test en deux étapes évaluant l’objet du brevet et le concept imaginatif. Ce paysage dynamique souligne l’urgence et l’importance de se tenir informé.

La distinction entre l’inspiration et la contrefaçon devient cruciale, ce qui nécessite la mise en place de mécanismes de gouvernance pour répondre à ces préoccupations et maintenir la confiance au sein des industries créatives. La bataille juridique entre la Writers Guild of America et l’Alliance of Motion Picture and Television Producers (l’Alliance des producteurs de cinéma et de télévision) est un rappel brutal de l’importance de réglementer l’utilisation de l’IA. Si des compromis ont été trouvés pour équilibrer l’innovation et la protection des droits d’auteur, la stipulation selon laquelle le contenu produit par l’IA ne peut être crédité en tant que support littéraire, mais que le travail en collaboration avec des écrivains humains est autorisé, constitue une avancée significative. 

Mais existe-t-il un moyen de détecter les infractions au droit d’auteur commises par l’IA ? Originality.AI signale que près de 20 % des 1 000 premiers sites web empêchent les robots d’exploration de collecter des données pour les besoins de l’IA. Les LLM tels que ChatGPT et Google’s Bard nécessitent un grand nombre de données pour leur apprentissage. Les fournisseurs de technologie proposent des solutions alimentées par l’IA pour la protection de la propriété intellectuelle, utilisant l’apprentissage automatique afin de détecter les infractions. Ces outils suivent les contenus protégés par le droit d’auteur sur les sites web et les médias sociaux, aidant ainsi les détenteurs de droits à protéger leurs droits de propriété intellectuelle.

Les progrès de la technologie de l’IA soulèvent des questions sur la propriété des contenus générés par l’IA. Qui détient les droits sur des créations telles que la musique ou les inventions composées par l’IA ? Les lois actuelles sur la propriété intellectuelle manquent de clarté à cet égard, ce qui souligne la nécessité de réformes pour tenir compte du rôle de l’IA. Les lois sur les droits d’auteur et les marques doivent également être adaptées aux œuvres générées par l’IA. 

De nombreux inventeurs choisissent d’utiliser des procédés de secret commercial plutôt que des brevets pour protéger leurs avancées en matière d’IA. Les futures réglementations devront aborder ces questions afin de favoriser l’innovation. La mise en œuvre d’un système de protection distinct pour les créations générées par l’IA et l’examen de la protection des algorithmes sont des solutions potentielles. Une réglementation efficace des droits de propriété intellectuelle liés à l’IA est cruciale pour la clarté juridique et l’innovation.

Une version plus approfondie de ce texte sera bientôt disponible sur Digital Watch Observatory. En attendant, découvrez les précédents articles de notre série sur l’IA et la propriété intellectuelle : « La saga de la propriété intellectuelle : l’ère du contenu généré par l’IA | Partie 1 » et « La saga de la propriété intellectuelle : l’impact de l’IA sur les secrets commerciaux et les marques déposées | Partie 2 ».

La domination du numérique dans les élections de 2024 partout dans le monde

Alors qu’un nombre historique d’électeurs se rend aux urnes, déterminant l’avenir de plus de 60 nations et de l’UE dans les années à venir, tous les regards se tournent vers le numérique, en particulier l’IA.
Les technologies numériques, y compris l’IA, font désormais partie intégrante de chaque étape du processus électoral, depuis le début des campagnes jusqu’aux bureaux de vote ; un phénomène observé depuis plusieurs années. Ce qui distingue le paysage actuel, c’est leur ampleur et leur impact sans précédent.

 Chart, Plot, Map, Atlas, Diagram, Person
Carte des élections en 2024 
Source photo : Gateway house

L’IA générative – un système d’IA permettant aux utilisateurs de générer rapidement de nouveaux contenus, y incluant du son, des images et du texte – a fait une percée significative en 2023, atteignant des millions d’utilisateurs. Grâce à sa capacité à produire rapidement de grandes quantités de contenu, l’IA générative contribue à la diffusion de fausses informations en générant des récits erronés et trompeurs à un rythme sans précédent. 

La multitude d’élections qui se sont déroulées cette année dans le monde entier et qui ont joué un rôle déterminant dans l’avenir de certains États a suscité une attention particulière pour les contenus générés artificiellement, compte tenu de leur capacité à influer sur les résultats des élections.

Les campagnes politiques sont marquées par l’émergence d’hypertrucages (deepfakes) faciles à produire, ce qui suscite des inquiétudes quant à la crédibilité des informations et alarme les responsables politiques, qui ont demandé aux grandes entreprises technologiques de mettre en place des mesures de protection plus strictes.

Dans l’ensemble, les entreprises technologiques s’associent aux efforts déployés par les différents gouvernements pour lutter contre la diffusion de fausses informations liées aux élections. 

Mais certains restent insatisfaits des efforts déployés par les entreprises technologiques pour lutter contre la désinformation. Plus de 200 groupes de défense ont appelé les géants de la technologie, dont Google, Meta, Reddit, TikTok et X, à adopter une position plus ferme à l’égard de la désinformation alimentée par l’IA avant les élections mondiales. Ils affirment que bon nombre des plus grandes entreprises de médias sociaux ont réduit les interventions nécessaires, telles que « la modération de contenu, les outils de surveillance de la société civile, la confiance et la sécurité », rendant les plateformes « moins préparées à protéger les utilisateurs et la démocratie en 2024 ». Entre autres demandes, les entreprises sont invitées à divulguer le contenu généré par l’IA et à interdire les fausses images (deepfakes) dans les publicités politiques, à promouvoir le contenu factuel de manière algorithmique, à appliquer des normes de modération uniformes à tous les comptes, et à améliorer la transparence grâce à des rapports réguliers sur les pratiques d’application et à la divulgation des outils d’IA et des données sur lesquelles ils ont été formés.

À quoi faut-il s’attendre ? L’importance des élections de 2024 ne se limite pas à la sélection de nouveaux dirigeants mondiaux. Elles offrent un moment crucial pour évaluer l’influence profonde du numérique sur les processus démocratiques, en mettant les plateformes numériques sous les feux de la rampe. L’état de préparation des géants de la technologie ainsi que leur volonté de défendre les valeurs démocratiques à l’ère numérique et de répondre aux exigences croissantes en matière de responsabilité seront mis à l’épreuve. 

De même, les élections parlementaires européennes testeront la capacité de l’UE à donner l’exemple en matière de régulation du paysage numérique, notamment en ce qui concerne la lutte contre la désinformation. L’efficacité des initiatives de l’UE sera évaluée, ce qui permettra de déterminer si les efforts de collaboration peuvent établir des mesures efficaces pour sauvegarder l’intégrité démocratique à l’ère numérique.

Une version plus approfondie de ce texte a d’abord été publiée sur le Digital Watch Observatory. Lisez-en la version complète.

Analyse

Déclaration multipartite NETmundial+10 : un schéma directeur pour une gouvernance numérique inclusive

La déclaration multipartite NETmundial+10 adoptée lors de ladite conférence jette un regard neuf sur les débats actuels autour du numérique, en démêlant un certain nombre de confusions et en proposant une voie pragmatique pour aller de l’avant. 

Pendant trop longtemps, les discussions sur la gouvernance numérique se sont embourbées dans une fausse dichotomie entre les approches multilatérales et les approches multipartites. La déclaration multipartite NETmundial+10 dissipe ce malentendu en illustrant comment les processus multilatéraux peuvent intégrer l’engagement multipartite, en favorisant l’enrichissement mutuel plutôt que la concurrence entre ces modèles de gouvernance. 

Le risque d’un « faux multipartisme », qui résulte d’un déséquilibre des pouvoirs, est l’une des questions abordées dans la déclaration. Lorsque des représentants d’entreprises multimilliardaires et de communautés défavorisées sont assis à la même table de discussion sans que le déséquilibre des pouvoirs soit pris en compte, les résultats peuvent être au moins superficiels et, au pire, manipulatoires. La déclaration propose des mesures visant à renforcer le pouvoir des parties prenantes les plus faibles, en veillant à ce que leur voix soit entendue et valorisée, et en s’orientant vers un modèle multipartite véritablement inclusif et efficace.

La déclaration plaide également en faveur de résultats plus tangibles du Forum sur la gouvernance de l’internet (FGI) et d’autres processus multipartites. En règle générale, la principale critique – justifiée – à l’encontre du FGI est qu’il est fort en discussions, mais faible en actions. Cette faiblesse est particulièrement problématique pour les petits pays et les pays en développement, qui n’ont pas les moyens humains et financiers de participer à des événements qui ne répondent pas à leurs préoccupations les plus pressantes. À la suite de la déclaration NETMundial+10, nous devrions activer une disposition longtemps négligée de l’agenda de Tunis, qui spécifie que le FGI peut avoir des résultats tangibles par le biais de recommandations politiques. L’opposition typique aux résultats tangibles du FGI était la crainte que la dynamique de négociation n’étouffe les échanges ouverts au sein du FGI. Ce défi peut être relevé en utilisant la technologie de l’intelligence artificielle pour surveiller le processus de rédaction afin d’en assurer l’équilibre et l’inclusivité, et de veiller à ce que les contributions soient fidèlement reflétées dans le texte final des recommandations du FGI. 

Le risque croissant de duplication des initiatives de gouvernance numérique est un autre problème mis en évidence par la déclaration. Rien que l’année dernière, on a assisté à une prolifération d’initiatives, en particulier dans le domaine de la gouvernance de l’IA, ce qui crée de la confusion et limite la participation effective des protagonistes des pays du Sud disposant de moins de ressources. Pour faire le tri dans une série d’initiatives de gouvernance, il est nécessaire de procéder à une sorte de test Bauhaus (les formes suivent la fonction) afin de s’assurer que les nouvelles initiatives sont nécessaires, qu’elles ne feront pas double emploi avec celles des organismes existants et qu’elles apporteront une véritable valeur ajoutée au paysage de la gouvernance numérique.

La déclaration multipartite NETmundial+10 présente une vision pour un cadre de gouvernance de l’IA et du numérique plus inclusif, plus juste et plus efficace. En s’attaquant aux déséquilibres de pouvoir, en préconisant des résultats tangibles et en évitant les doubles emplois inutiles, cette déclaration ouvre la voie à un modèle de gouvernance aussi diversifié que le monde numérique qu’il cherche à réguler. La déclaration est une boussole précieuse pour naviguer dans les eaux tumultueuses des négociations sur le numérique et l’IA dans le contexte de la CMD et du Sommet de l’avenir des Nations unies cette année, et de l’examen du SMSI-20 en 2025.

Une version plus approfondie de ce texte a d’abord été publiée sur le Digital Watch Observatory. Lisez-en la version complète.


Actualités de la Francophonie

 Logo, Text

Table-ronde francophone à New York sur les enjeux et défis de la régulation des plateformes numériques

Le 11 avril dernier l’OIF a réuni une trentaine de diplomates francophones en poste dans les Représentations permanentes auprès de l’ONU à New York pour une table ronde consacrée aux enjeux et défis de la régulation des plateformes numériques dans un contexte d’intensification de la manipulation de l’information en ligne. 

Cet évènement intervenait en amont du Dialogue interactif final organisé le 15 avril par le Département de la Communication globale (DCG) du Secrétariat de l’ONU portant sur l’élaboration du Code de conduite des Nations Unies pour l’intégrité de l’information sur les plateformes numériques. L’OIF avait transmis en décembre 2023 une contribution dans le cadre de la consultation lancée à l’automne 2023. 

Lors de cette table-ronde, la représentante de Meta a précisé la logique des plateformes numériques dans la modération des contenus en application des standards/règles de la communauté en vigueur. Elle a insisté sur le triptyque de modération : suppression des contenus à risques / réduction de la viralité de certains contenus / information des usagers pour une meilleure responsabilisation. Elle est également revenue sur les programmes d’accompagnement développés par Meta, notamment l’appui au réseau international des fact-checkers (IFCN) par lequel entre 70 et 90 pays sont soutenus en matière de vérification des faits. Elle a également indiqué que Meta s’appuie sur des experts pour renforcer la prévention de la désinformation durant les élections et les conflits. 

Le représentant de l’ARCOM (Autorité française de régulation de la communication audiovisuelle et numérique) a développé pour sa part le changement de paradigme qu’implique l’enjeu de régulation des plateformes, dans une approche plus systémique et basée sur la gouvernance et la transparence, à la différence d’une régulation de contenus telle qu’elle a été pensée pour les médias audiovisuels. Il a insisté sur l’enjeu crucial des langues dans la régulation des plateformes numériques, particulièrement en termes de capacités humaines pour la modération des contenus. Il a enfin souligné la nécessité de renforcer la coopération internationale entre les institutions et les Etats pour répondre au défi de la régulation des plateformes numériques, aucune solution nationale ne parvenant à un résultat satisfaisant au regard de l’asymétrie entre des plateformes globales et des acteurs publics nationaux. 

A sa suite, la représentante de l’UNESCO a présenté les initiatives récentes de l’UNESCO en matière de régulation et en particulier les Principes de gouvernance des plateformes numériques de novembre 2023. 

Enfin, le représentant de l’OIF est revenu sur les différents textes normatifs de l’OIF qui définissent des principes valables s’agissant de la régulation des plateformes numériques. Il a par ailleurs présenté une synthèse des deux contributions de l’OIF à l’élaboration des Principes de gouvernance des plateformes numériques et du Code de conduite des Nations Unies pour l’intégrité de l’information sur les plateformes numériques, en insistant sur 4 points essentiels du point de vue de l’OIF : l’indépendance des systèmes de régulation des plateformes numériques ; la transparence des plateformes ; l’éducation aux médias et à l’information ; l’accessibilité et la diversité culturelle et linguistique. 

Les réactions des participants ont été nombreuses, portant en grande partie sur les disparités géographiques et linguistiques constatées dans l’action des plateformes numériques contre les contenus trompeurs et préjudiciables. Elles ont également porté sur la nature de l’action de l’OIF dans ce domaine.

Au terme de cet évènement les participants ont soutenu la proposition de poursuivre le suivi de l’élaboration des Principes de Principes globaux des Nations Unies pour l’intégrité de l’information et leur référence éventuelle dans le Pacte numérique mondial et le Pacte du futur afin d’identifier l’opportunité et la nature de positionnements complémentaires de l’OIF dans cette matière.

 People, Person, Audience, Crowd, Indoors, Lecture, Room, Seminar, Adult, Male, Man, Female, Woman, Cup, Computer, Electronics, Laptop, Pc

Avancées dans le dialogue entre Réseau francophone des régulateurs des médias et plateformes numériques

L’OIF a participé les 23 et 24 avril 2024 en Côte d’Ivoire à la Conférence internationale du Réseau francophone des régulateurs des médias (REFRAM) et du Réseau africain des instances de régulation de la communication (RIARC). Celle-ci a abouti à la signature d’un protocole d’engagement volontaire de Meta, Tik Tok et X/Twitter pour la mise en place d’un dialogue renforcé au sein d’un forum de discussion dédié (Google soutenant aussi l’initiative). L’OIF salue et soutient ces engagements inédits.

 Clothing, Formal Wear, Suit, Adult, Female, Person, Woman, Male, Man, Blazer, Coat, Jacket, Face, Head, People, Accessories, Tie, Brooke Gladstone

La réunion a également permis aux participants de partager leurs visions sur la régulation des plateformes sur le continent africain et dans l’espace francophone et d’engager un dialogue régulier avec les représentants présents des grandes plateformes en ligne.

L’OIF suivra et soutiendra les efforts du REFRAM et des plateformes signataires dans la mise en œuvre des engagements et du forum de discussion.

Atelier sur « Les défis de l’acceptation universelle dans l’espace francophone » en collaboration avec ICANN

 Logo, First Aid

La RPGV a organisé le 29 avril dernier un atelier en ligne sur les défis de l’acceptance universelle pour les pays francophones, dans le cadre de la célébration par ICANN de la Journée de l’Acceptation universelle.

De nombreux délégués francophones ont pris part à cet évènement au cours duquel des experts comme M. Louis Houle (de Point Québec) ou M. Yahovi Atohoun (du Secrétariat d’ICANN) ont pu présenter les étapes à suivre par les pays francophones pour progresser sur la voie de l’acceptation universelle. 

Cet atelier a également permis de mobiliser les délégations francophones en amont de la réunion de ICANN80 qui se tiendra à Kigali du 10 au 13 juin prochains.

Atelier sur « Les défis de l’acceptation universelle dans l’espace francophone » en collaboration avec ICANN

L’OIF poursuit son travail de mobilisation des délégations francophones dans le cadre des négociations du Pacte numérique mondial, à la fois à New York et à Genève.

Ainsi, la Représentation de l’OIF à Genève a pris part à un certain nombre de concertations informelles où les pays membres de l’ONU ont échangé sur les priorités du Pacte et leur traduction institutionnelle et opérationnelle. Ces concertations ont été l’occasion de diffuser largement les principaux axes prioritaires pour l’OIF et les pays francophones, en particulier l’importance à donner à la diversité culturelle et linguistique des contenus numériques, et les efforts de renforcement de la littératie numérique dans les pays du Sud.

A New York, l’OIF est en contact constant avec les délégations francophones pour les sensibiliser à ces priorités et porter ces mêmes messages dans les instances de discussion et de négociation.

Événements à venir :

  • Atelier conjoint UNESCO/OIF autour de la diversité culturelle et linguistique dans l’intelligence artificielle le 29 mai, dans le cadre du SMSI
  • Evènement de promotion des Tech civiques francophones le 30 mai au Graduate Institute de Genève
  • Conférence ICANN80 à Kigali (Rwanda) du 10 au 13 juin

DW Weekly #160 – 17 May 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

AI, content policy, and cybersecurity issues are – yet again – the most prevalent, as they have been for most of May. 

There were new AI-related launches this week, as Anthropic unveiled its new AI chatbot Claude in the EU, OpenAI released GPT-4o with advanced multimodal capabilities, and the UAE made headway in the large language model (LLM) competition with Falcon 2, supposedly rivalling Meta’s Llama 3. Google also announced it will introduce AI-generated answers to online queries in the USA, with plans to expand the feature globally.

AI safety was at the forefront, with the UK AI Safety Institute unveiling an open-source platform for global AI safety evaluations. The USA and China met in Geneva to discuss AI, particularly the security implications of China’s use of AI for the USA and its allies. On that note, the USA is considering new AI software export control to China. Plus, US officials have just designated China, once again, as a significant cybersecurity threat. And as TikTok creators are suing the US government over the possible TikTok ban, tensions are unlikely to simmer down.

We have new content policy developments in the X (formerly Twitter) vs Australia saga as the Australian court reversed the block on X regarding the church stabbing video. The EU is also paying attention to X as it intensifies its scrutiny of disinformation campaigns on X in the aftermath of the recent shooting of Slovakia’s prime minister, Robert Fico.

Ascension and Europol were some of the many victims of cyberattacks confirmed this week. An apparent win for the good guys on Wednesday as the FBI seized the BreachForum website has again turned into a loss – the threat actors behind BreachForums have seemingly regained control of the domain… But the international community made a significant step towards enhancing international cooperation and resilience in addressing cyber threats with the launch of the Global Points of Contact (POC) directory in the framework of the Open-ended Working Group on security of and in the use of ICTs 2021-2025 (OEWG)

And remember that Global roundtable on ICT security capacity-building organised by the OEWG? We included a report from the event in our Reading corner.

ICYMI, we interviewed Malta’s Ambassador for Digital Affairs (video) about the intersection of quantum computing and diplomacy, and contemplated how ‘0’ evolved from representing ‘nothingness’ to being a cornerstone of our digital age in Byte-sized Insight #21. Intrigued? Watch them!
Andrijana and the Digital Watch team

Andrijana and the Digital Watch team


Highlights from the week of 10-17 May 2024
flag of usa and china on cracked concrete wall background

The US wants China to match its stance on ensuring that only humans, not AI, make decisions on deploying nuclear weapons.

abstract technology ai computing

The US government is considering AI software export restrictions to China in a series of efforts to prevent the use of advanced AI in military and cyberattacks.

south korea flag waving against cloudy sky

South Korea is preparing an investment package for chip industry and research worth more than $7.30 billion, the finance minister said on Sunday, after declaring the country would prevail in the semiconductor ‘war.’

Screenshot 2023 08 01 142134 1024x575 1

In a new legal development, an Australian court has lifted the order blocking X, marking a pivotal moment in the ongoing dispute.

asian woman using tiktok application her iphone14 while relaxing coffee shop

The lawsuit alleges that the law infringes on free speech rights and threatens to eliminate an important communication medium.

close up button with china flag black keyboard

The officials raised alarm over China’s escalating cyberthreat to international security and stability.

flag united nations

The establishment of the PoC marks a significant step towards enhancing international cooperation and resilience in addressing cyber threats, with 92 member states already nominating such points of contact.

europolbuilding 3

Europol clarified that no core systems or operational information were compromised.

dfb20d24 1c75 477d 9813 3f7d2e4db8c5

Neuralink’s first human trial of its brain implant faced significant challenges as the device’s wires retracted from the brain, affecting its ability to decode brain signals.

march 16 2022 brazil this photo illustration woman holds smartphone with facebook logo displayed screen with meta platforms logo displayed background

The investigation comes after Meta submitted a risk assessment report in September that raised concerns about the platforms’ practices and their impact on child safety.



#ICYMI

We caught up with André Xuereb, Malta’s first Ambassador for Digital Affairs, and spoke about quantum computing and its implications for diplomacy.

Explore the philosophical and mathematical ideas surrounding ‘0’ and its evolution from representing ‘nothingness’ to being a cornerstone of our digital age.


Reading corner
un flag waved against the sun and blue sky 2023 11 27 05 29 35 utc
dig.watch

The Chair of the OEWG convened a dedicated Global Roundtable on ICT security capacity-building, as the OEWG agreed in its second Annual Progress Report. Read the event report.

DW Weekly #159 – 10 May 2024

 Page, Text

Dear readers, 

Welcome to another issue of the Digital Watch weekly! 

AI, content policy, and cybersecurity issues are again the most prevalent. We’re seeing more countries – now including Chile and South Africa – shape AI governance nationally and an unusual collaboration between China and France on the same topic. We’re also seeing platforms grapple with AI-generated content and content removal rules. China and the USA are still boxing it out over TikTok and chips – you can read more in-depth about that in our May Monthly newsletter – and cybersecurity (remember, the USA is accusing China of cyberespionage via Volt Typhoon). The newest development in the geopolitical matches could very well be the US bill that would make implementing AI model export rules easier.

An exciting update this week has been the launch of the United States International Cyberspace & Digital Policy Strategy, a document that puts digital solidarity, which isn’t a term often seen in policy documents, at the heart of the country’s tech policy.

Speaking of terminology, our reading corner includes a blog on reducing terminological confusion: Is it digital or internet governance? (hint: it’s both) as well as our monthly review of digital policy developments

ICYMI, our AI Shorts #5 explainer on what artificial general intelligence (AGI) is and Byte-sized Insight #20 on how the ‘mandate from heaven’ could influence the new digital social contract. Intrigued? Watch them!

If you’re a cybersecurity professional or enthusiast, you might be interested in today’s Open-ended Working Group on security of and in the use of ICTs 2021-2025 (OEWG) Global roundtable on ICT security capacity-building. If you must miss the UN Web TV stream, we’ve got you covered: reports – and transcripts – from the event will be available on the Digital Watch Observatory. 

Andrijana and the Digital Watch team


Highlights from the week of 3-10 May 2024
ai learning artificial intelligence concept 1

Chile leads in global AI governance, unveiling updated national policy and groundbreaking legislation at a significant event attended by UNESCO Director-General and Chilean Minister of Science, Technology, Knowledge, and Innovation.

create south african flag in resolution 1920x300 the flag should be realistic and vaiwing only the flag no background 1

South Africa is set to establish an AI Expert Advisory Council to address regulatory challenges amidst broader discussions on the ethical considerations and economic benefits of AI adoption.

flags of china and france can flags be realistic

The two countries recognised the key role of AI in development and innovation, while also acknowledging the potential challenges that may arise from its use.

law and justice in united states of america

The measure would streamline regulations, particularly regarding open-source AI, and grant the Commerce Department enhanced oversight over AI systems if approved.

cybersecurity cybercrime internet scam anonymous hacker crypto currency investment digital network vpn technology computer virus attack risk protection

The breach occurred multiple times, and the MoD is currently investigating the extent of the hack.

flag of usa and china on cracked concrete wall background

Concerns about the security of US data and critical infrastructure were raised, a top official revealed.

us the semiconductor production

The US is set to significantly increase semiconductor production by 2032, leading to a wider gap with China in chip manufacturing capabilities

tiktok i like the first picture can you somewhere to say tiktok

TikTok contends that Congress has singled out and banned the platform without evidence of Chinese government misuse. The app claims a ban would be impractical and isolate US users, undermining its business.

TikTok

The decision comes amid concerns about the potential use of AI-generated content to spread misinformation during the US elections.

The clash between X and the Australian cyber regulator has sparked intense debate over global content moderation and national sovereignty, raising crucial questions about the future of online free speech.

digital USA flag 1

The US Department of State introduced a new strategy to promote digital solidarity and shape international technology governance. The strategy aims to support allies, especially emerging economies, in seizing opportunities presented by new technologies and pursuing economic and development goals.



#ICYMI

What is artificial general intelligence? And why is Elon Musk suing OpenAI over it? Watch to find out!

Delve into the timeless wisdom of ancient Chinese thinkers as we explore their relevance to today’s digital age and learn how the ‘mandate from heaven’ parallels Western theories like Hobbes’ Leviathan and Rousseau’s social contract.


Reading corner
OcMiksDy
www.diplomacy.edu

The blog discusses the importance of distinguishing between digital and internet governance. It emphasises the need for precision in terminology to accurately describe online activities and the governance required. While the terms are often used interchangeably, they highlight the specificities of each term and the implications of their usage in discussions around governance. The text advocates for a clear understanding of the nuances between digital and internet governance to enhance communication and decision-making in this realm.

May 2024 newsletter featured image 900 736
dig.watch

In our May issue of the Digital Watch Monthly, we analyse how China and the USA are boxing it out over tech, look at strategies for balancing AI advancements and IP protection, reflect upon the dominance of digital technologies and AI in 2024 elections worldwide, and examine the significance of the NetMundial+10 Multistakeholder Statement as a blueprint for inclusive digital governance.

Digital Watch newsletter – Issue 89 – May 2024

 Person, Head, Face, Boxing, Sport

Snapshot: The developments that made waves

AI governance

South Korea announced its plans to host the 2nd global AI safety summit. Meanwhile, the UN Development Programme (UNDP) facilitated discussions between the G7 Italian presidency and the African Union, focusing on leveraging AI for sustainable development. Japan’s Prime Minister Kishida Fumio announced that over 49 countries and regions have joined the Hiroshima AI Process Friends Group. 

In a collaborative effort with Germany and the EU, Kenya launched a project to develop its National AI Strategy. 

In the USA, the National Security Agency’s Artificial Intelligence Security Center (AISC) issued new guidance on securing AI systems. In a related development, the National Institute of Standards and Technology (NIST) issued four draft reports aimed at enhancing AI system standards. Meanwhile, in Italy, the Cassa Depositi e Prestiti (CDP) announced a substantial investment of EUR1 billion in AI and cybersecurity.

The AI landscape saw a burst of innovation as industry giants OpenAI, Google, Meta, and Mistral each unveiled new large language models (LLMs). Anthropic also made headlines by claiming its AI models are now as persuasive as humans.

Technologies

In a bid to reduce dependency on major global chipmakers, Google introduced a new AI chip. South Korea plans to invest USD6.94 billion in AI by 2027, along with a separate USD1.1 billion fund to foster AI semiconductor firms. Samsung also announced a USD44 billion investment in the USA to expand its chip manufacturing. China set a 2027 deadline for its telecom sector to replace American chips with local alternatives. The USA announced a global partnership aimed at enhancing cooperation in AI and semiconductors, which could be seen as a counterbalance to China’s growing influence in the sector. Read more about China’s and the USA’s battle for chip supremacy below.

Cybersecurity

The Belgian EU Council presidency unveiled the framework for an online child protection law.

Across the Atlantic, the US Cybersecurity and Infrastructure Security Agency (CISA) issued Emergency Directive 24-02 as a countermeasure against a Russian cyberattack that targeted Microsoft email accounts. In response to evolving cyber threats, the US Department of State introduced a new Cyberspace & Digital Policy Strategy to bolster national security and international cooperation in digital spaces.
The private sector also experienced disruptions, with Dutch chipmaker Nexperia reporting a cyberattack and RansomHub exposing personal and medical records taken from Change Healthcare during a cyberattack earlier this year. The UNDP confirmed that it had also suffered a ransomware attack.

Infrastructure

The US Federal Communications Commission (FCC) has reinstated net neutrality rules and asserted new regulatory control over broadband internet, reversing the policies enacted under the former administration.
The Council of the European Union has given final approval to the Gigabit Infrastructure Act, a new law to accelerate the deployment of high-speed networks in the EU.

Legal

China plans to establish a national computing network with its National Data Administration to address regional digital gaps and enhance capabilities.

The US Congress introduced the Generative AI Copyright Disclosure Act, which requires AI companies to disclose copyrighted materials used in their training datasets to the Register of Copyrights before releasing new AI systems.

Internet economy

EU antitrust regulators are scrutinising a proposal by Apple to determine whether it allows Spotify and other music streaming services to inform users of alternative payment methods outside of Apple’s App Store. 

The UK treasury announced plans to introduce a comprehensive regulatory framework for cryptocurrencies and stablecoins. 
The Canadian government announced its plan to push ahead with a digital services tax starting in 2024. The tax specifically targets big tech companies operating within the country.

Digital rights

Federal legislators in the USA introduced a bipartisan bill titled the American Privacy Rights Act. The proposed legislation encompasses limitations on collecting personal data, increased consumer control over their personal information, and the implementation of protective measures against discriminatory algorithms.

The Ethiopian Parliament enacted comprehensive digital data protection legislation, specifying the rights of data subjects, establishing statutory obligations for entities that process personal data, and setting forth limitations on collecting and using such data.

Finally, NOYB, an Austrian privacy advocacy group, filed a complaint against OpenAI, alleging that it has failed to adequately address the dissemination of incorrect information about individuals by its ChatGPT.

Development

The global landscape for internet freedom has experienced a setback, with 1st quarter of 2024 recording 22 intentional internet shutdowns in 12 countries, a recurrence of the peak observed in 2021. 

The South African government initiated a comprehensive plan to connect approximately 5.5 million households in rural communities and townships to the internet over the forthcoming 3–4 years.

In Brazil, a tripartite initiative involving Anatel, UNESCO, and the Brazilian government has been launched to close the digital divide by expanding internet access throughout the country, specifically targeting underserved regions.

Sociocultural

Microsoft disclosed that Chinese groups were leveraging AI to create content aimed at distorting the US elections. 

The Supreme Court of Brazil initiated an investigation into X’s (formerly Twitter) actions regarding social media accounts. X agreed to comply with Brazilian court orders, a move possibly aimed at mitigating further legal complications. Pakistan blocked access to X, citing national security as the primary reason.

Meta announced a new policy to label AI-generated content rather than removing it. 

Elsewhere, an Italian senator proposed the establishment of a national agency dedicated to combating disinformation.

THE TALK OF THE TOWN – GENEVA

In April, the highlight of multilateral Geneva when it comes to digital governance was the 27th session of the Commission on Science and Technology for Development (CSTD). The session revolved around two key themes: data for development and global cooperation in science, technology, and innovation for development. It also addressed the progress in implementing the outcomes of the World Summit on the Information Society (WSIS), which gains importance ahead of the WSIS+20 review in 2025. The Economic and Social Council (ECOSOC) entrusted the CSTD  to review WSIS outcomes and prepare a WSIS+20 report. The CSTD presented a timeline of its preparation during the session. An agenda item dedicated to the Global Digital Compact (GDC), offering member states an opportunity to share their views of the GDC Zero Draft, was included. 

Speaking of the GDC, we can safely say it was the talk of the town in Geneva in April, as member states, UN agencies, and other stakeholders discussed the Zero Draft in various settings. Read more about the GDC process and WSIS+20 process on our Digital Watch Observatory.


China and USA box it out over tech

For a considerable span of time, China and the USA have found themselves at odds in the realm of technology. The focal points of contention in April? TikTok and chips.

The crux of America’s problem with TikTok is data safety: is US user data being regularly sent to China by TikTok? 

Just to remind you, TikTok’s parent company, ByteDance, is based in China, whose 2017 National Intelligence Law requires companies to assist with state intelligence work. This is where fears about the transfer of user data to China come from. 

TikTok has repeatedly claimed that China does not have access to US user data. Americans have never been very convinced of this, and their concerns skyrocketed again in April. 

The preferred solution for this dilemma, at least for the USA, is the divestment of TikTok, which was conveyed to China on the highest level – from US President Biden to China’s President Xi, in a phone call. 

In April, Biden signed into law a foreign aid package that includes a provision to ban TikTok if ByteDance fails to divest the app within a year. More precisely, ByteDance has an initial nine-month period to finalise a deal (until 24 January 2025), which could be extended for three more months if progress is evident. The first deadline is 19 January 2025, with the final deadline being 19 April 2025. 

But ByteDance is not contemplating a sale: TikTok’s algorithms align closely with the company’s domestic apps, making it challenging to divest without relinquishing crucial intellectual property. 

ByteDance and TikTok have instead decided to fight it out in a legal battle and are suing the US government over the law

ByteDance and TikTok argue that the US government has not presented sufficient evidence of the alleged Chinese misuse of the data associated with the app. The companies seek a court judgement to declare the legislation unconstitutional because it infringes upon the US First Amendment, which protects the freedom of speech. They have also requested a court order to prevent the attorney general from enforcing the law.

This situation is unusual, so it’s difficult to say how the court will rule. It does, however, have wider implications on data governance: those who control data will control the world.

Abstract digital waves with flowing particles.

The two countries are also trading blows over chips. It’s hard to say who threw the first punch – perhaps it was the USA when its Department of Commerce placed Fujian Jinhua Integrated Circuit Co Ltd on a list of entities that cannot buy components, software, or technological goods from US firms in 2018.

What can be identified as one of the most brutal punches was the US October 2022 export controls on advanced computing and semiconductor manufacturing items. 

These measures prevent US firms from selling advanced chips to China or providing Chinese firms with tools for making their own advanced chips. They also prevent firms from other countries from doing the same if those chips or tools were made with US-developed technologies. 

Why did this punch land so hard? There are almost no semiconductors without some kind of US-trademarked bits in their design or production processes.

This led to China initiating a trade dispute procedure at the World Trade Organization (WTO) against US chip export control measures, arguing that these measures ‘threatened the stability of the global industry supply chains’. 

In October 2023, the White House imposed a new export ban on advanced chips.

At the end of March 2024, these export controls tightened, a move that China blasted, citing, again, increased trade barriers and uncertainty in the global chip sector. 

However, Chinese entities managed to bypass these export bans and get their hands on some Nvidia chips through resellers, thus raising doubts about the effectiveness of export controls. Nvidia and Intel are also planning to produce China-specific chips, which will be developed in compliance with US export controls and sanctions. 

China also enforces its Document 79, a secretive policy nicknamed ‘Delete A’ or ‘Delete America’, which mandates vital sectors like finance and energy to phase out all foreign software. 

Both countries are ramping up investment in local production of chips. China is mobilising a USD27 billion chip fund called the National Integrated Circuit Industry Investment Fund. And Biden inked a deal with Micron Technology at the end of April, securing up to USD6.14 billion for two new chip factories in New York and Idaho. A very recent report suggests that the USA will have even more success: By 2032, the USA could produce 28% of advanced chips, while China is expected to produce only 2%.

And what of allies? China is calling for continued advanced chipmaking equipment trade with the Netherlands, while the USA is pushing its partners, namely the Netherlands, Germany, South Korea, and Japan, to impose stricter chip export controls. 

Oddly enough, it is Malaysia that is benefiting the most from these tensions, as both China and the USA are investing in chipmaking there

It also bears mentioning that the heavyweight in chipmaking is centred in Taiwan, which has a 61% market share in chipmaking and produces around 92% of the world’s most advanced chips. 

Is this a fight with no winners? Considering when the match began, how many more rounds are we in for? Could tensions ever simmer down? 

Some of that hinges on the outcome of this year’s presidential election in the USA – if former President Trump retakes the White House, the dynamics, at least for TikTok, could change, as he already indicated he is against the ban. 

In the meantime, the chips race is even more likely to accelerate due to the April earthquake in Taiwan, a stark reminder of how dependent our devices are on Taiwan’s chips.

 Scoreboard, Bar Chart, Chart

The intellectual property saga: Strategies for balancing AI advancements and IP protection | Part 3

We continue our in-depth exploration of AI’s influence on intellectual property. The first part delved into the intricate process of copyrighting AI-generated content, revealing the challenges posed by traditional ownership laws. 

The second essay navigated the complex terrain of AI’s influence on trade secrets and trademarks within the EU and US legal frameworks. 

This final part will further illuminate the multifaceted strategies implemented to safeguard IP in the Age of AI, underscoring the depth and significance of this evolving issue.

Shiny blue drawing of a complex circuit in the shape of a human brain

The legal landscape surrounding AI and intellectual property is intricate and rapidly evolving. It demands careful consideration of human and AI contributions to creative and innovative endeavours. 

While AI is a significant contributor to innovation, it faces hurdles in getting its input recognised. For instance, the US Court of Appeals recently rejected AI as an inventor, aligning with human-centric patent laws. Copyright registrations for AI-generated works are also contentious due to human authorship requirements. 

However, it’s important to note that ongoing efforts, as seen in cases like Kashtanova’s comic book, are being made to protect human-authored elements. Patenting AI systems under Alice Corp. v. CLS Bank International requires inventive transformations for eligibility, navigating a two-step test assessing subject matter and imaginative concept. This dynamic landscape underscores the urgency and importance of staying updated.

Distinguishing between inspiration and infringement becomes crucial, asking for the establishment of governance mechanisms to address these concerns and maintain trust within creative industries. The legal battle between the Writers Guild of America and the Alliance of Motion Picture and Television Producers is a stark reminder of the importance of regulating AI usage. While compromises have been reached to balance innovation and copyright protection, the stipulation that AI-produced content cannot be credited as literary material, but collaborative work with human writers is allowed, is a significant development. 

But is there a way to detect AI copyright infringements? Originality.AI reports that nearly 20% of the top 1,000 websites block crawler bots from gathering data for AI use. LLMs such as ChatGPT and Google’s Bard need extensive data for training. Tech providers offer AI-powered solutions for IP protection, using machine learning to detect infringement. These tools track copyrighted material across websites and social media, helping rights holders protect their IP rights.

As AI technology progresses, it raises questions about the ownership of AI-generated content. Who owns the rights to creations like AI-composed music or inventions? Current IP laws lack clarity on this, underscoring the necessity for reforms to accommodate AI’s role. Copyright and trademark laws also need adjustment for AI-generated works. 

Many innovators opt to use trade secret processes over patents to protect their AI advancements. Future regulations must address these issues to foster innovation. Implementing a distinct protection system for AI-generated creations and discussing algorithm protection are potential solutions. The effective regulation of AI-related IP rights is crucial for legal clarity and innovation.

A more in-depth version of this text will be available on the Digital Watch Observatory shortly.  Meanwhile, explore the previous parts of our AI and intellectual property series: The intellectual property saga: The age of AI-generated content | Part 1 and The intellectual property saga: AI’s impact on trade secrets and trademarks | Part 2.

AI and copyright
dig.watch

Patent authorities globally are grappling with the challenge of redefining their approach to handling inventions generated not by human ingenuity but by AI. It has sparked considerable debate within the intellectual property community.

double exposure creative human brain microcircuit with hand writing notepad background with laptop future technology ai concept
dig.watch

In continuing the three-part series on AI’s influence on intellectual property, the first part discussed the complexities of copyrighting AI-generated content, noting the challenges of traditional laws in ownership. The second section will explore AI’s impact on trade secrets and trademarks in the EU and US legal frameworks


Digital dominance in 2024 elections worldwide

As a historic number of voters head to the polls, determining the future course of over 60 nations and the EU in the years ahead, all eyes are on digital, especially AI.

Digital technologies, including AI, have become integral to every stage of the electoral process, from the inception of campaigns to polling stations, a phenomenon observed for several years. What distinguishes the current landscape is their unprecedented scale and impact. 

World map signals the 54 courntries with democratic elections during 2024, notably including many EU countries and the USA, as well as xxx [check third island area, I cannot tell which countries are highlighted
A map of elections in 2024 Image credit: Gateway house

Generative AI, a type of AI enabling users to quickly generate new content, including audio, visuals, and text, made a significant breakthrough in 2023, reaching millions of users. With its ability to quickly produce vast amounts of content, generative AI contributes to the scale of misinformation by generating false and deceptive narratives at an unprecedented pace. 

The multitude of elections worldwide this year, pivotal in shaping the future of certain states, have directed intense focus on synthetically generated content, given its potential to sway election outcomes.

Political campaigns experience the emergence of easily produced deepfakes, stirring worries about information credibility and setting off alarms among politicians who called on Big Tech for more robust safeguards.

Tech companies are, by and large, partnering with individual governments’ efforts to tackle the spread of election-related misinformation. 

But, some remain dissatisfied with the ongoing efforts by tech companies to mitigate misinformation. Over 200 advocacy groups called on tech giants like Google, Meta, Reddit, TikTok, and X to take a stronger stance on AI-fuelled misinformation before global elections. They claim that many of the largest social media companies have scaled back necessary interventions such as ‘content moderation, civil-society oversight tools, and trust and safety’, making platforms ‘less prepared to protect users and democracy in 2024’. Among other requests, the companies are urged to disclose AI-generated content and prohibit deepfakes in political ads, promote factual content algorithmically, apply uniform moderation standards to all accounts, and improve transparency through regular reporting on enforcement practices and disclosure of AI tools and data they are trained on.

What should we expect? The significance of the 2024 elections extends beyond selecting new world leaders. They offer a pivotal moment to assess the profound influence of digital on democratic processes, putting digital platforms into the spotlight. The readiness (and willingness) of tech giants to uphold democratic values in the digital age and respond to increasing demands for accountability will be tested. 

Likewise, the European parliamentary elections will test the EU’s ability to lead by example in regulating the digital landscape, particularly in combating misinformation. The effectiveness of EU initiatives will be gauged, shedding light on whether collaborative efforts can establish effective measures to safeguard democratic integrity in the digital age.

A more in-depth version of this text was first published on the Digital Watch Observatory. Read the full version of the blog.

african american man voting for general election i 2023 11 27 05 02 30 utc
dig.watch

Digital technologies, particularly AI, have been integral to all stages of the electoral process for several years now. What distinguishes the current landscape is their unprecedented scale and impact.


NETmundial+10 Multistakeholder Statement: A blueprint for inclusive digital governance

The NETmundial+10 Multistakeholder Statement adopted at the NETmundial+10 conference provides a fresh outlook on the current digital debates, untangling quite a few confusions and offering a pragmatic path forward. 

 Leaf, Plant, Art, Graphics, Advertisement, Poster

For too long, discussions around digital governance have been mired in a false dichotomy of multilateral versus multistakeholder approaches. The NETmundial+10 Multistakeholder Statement clears up this misunderstanding by illustrating how multilateral processes can incorporate multistakeholder engagement, fostering cross-fertilisation rather than competition between these governance models. 

The risk of ‘fake multistakeholderism’, which results from power imbalances, is one of the issues that the statement addresses. When representatives of trillion-dollar companies and marginalised communities are placed at the same discussion table without addressing the power imbalance, the outcomes can be superficial at least and manipulative at worst. The statement proposes steps to empower weaker stakeholders, ensuring their voices are heard and valued, moving towards a genuinely inclusive and effective multistakeholder model.

The statement also advocates for more tangible outcomes from the Internet Governance Forum (IGF) and other multistakeholder processes. Typically, the main – and justified – criticism of the IGF is that it is strong on talks but weak on actions. This weakness is particularly problematic for small and developing countries that cannot afford people and funding to participate in events that do not address their most pressing concerns. Following the NETMundial+10 statement, we should activate a long-overlooked provision of the Tunis Agenda specifying that the IGF can have tangible outcomes through policy recommendations. Typical opposition to tangible outputs of the IGF was the concern that negotiation dynamics might stifle open exchanges at the IGF. This challenge can be addressed using AI technology to monitor the drafting process for balance and inclusivity and ensure that inputs are fairly reflected in the final text of the IGF recommendations. 

The growing risk of duplication of digital governance initiatives is another issue highlighted by the statement. Last year alone saw a proliferation of, in particular, AI governance initiatives, which creates confusion and limits the effective participation of less-resourced actors from the Global South. To sort out a range of governance initiatives, there is a need for a sort of Bauhaus test (forms follow the function) to ensure that new initiatives are necessary, will not duplicate those of existing bodies and will genuinely add value to the digital governance landscape.

The NETmundial+10 Multistakeholder Statement sets forth a vision for a more inclusive, fair, and effective AI and digital governance framework. By addressing power imbalances, advocating for tangible outcomes, and preventing unnecessary duplication, this statement paves the way for a governance model as diverse as the digital world it seeks to regulate. The statement is a valuable compass for navigating the storming waters of digital and AI negotiations in the context of the GDC and the UN Summit of Future this year and the WSIS-20 review in 2025.

A more in-depth version of this text was first published on the Digital Watch Observatory. Read the full version of the blog

netmundial image
dig.watch

The São Paulo Multistakeholder Guidelines adopted at last week’s NETmundial +10 conference (Sao Paulo, 29-30 April 2024) provide a fresh outlook in the current digital debates.