HETEROGENEOUS COMPUTE FOR DEMOCRATIZING ACCESS TO AI

20 Feb 2026 13:00h - 14:00h

HETEROGENEOUS COMPUTE FOR DEMOCRATIZING ACCESS TO AI

Session at a glanceSummary, keypoints, and speakers overview

Summary

Résumé

Cette table ronde s’est concentrée sur l’informatique hétérogène et les défis d’infrastructure IA en Inde, avec des experts de Qualcomm, Cisco, IIT Madras et Intel, ainsi qu’un ministre du gouvernement. Le thème central tournait autour de la distribution du calcul IA à travers différentes couches – des appareils de périphérie aux centres de données – pour créer des systèmes IA plus efficaces et résilients.


Durga Malladi de Qualcomm a souligné l’importance d’exécuter l’inférence IA directement sur les appareils, notant que les smartphones peuvent maintenant gérer des modèles de 10 milliards de paramètres tandis que les lunettes intelligentes peuvent exécuter des modèles de moins d’1 milliard de paramètres. Il a plaidé pour une “IA hybride” qui distribue de manière transparente le calcul entre les appareils, le cloud de périphérie et les centres de données selon la connectivité et les exigences. La discussion a mis en évidence les interfaces vocales dans les langues natives comme un domaine d’application clé, avec un support pour 14 langues mentionné.


Arun Shetty de Cisco a identifié trois obstacles majeurs à l’adoption de l’IA : les contraintes d’infrastructure (alimentation, calcul et réseau), les préoccupations de sécurité et de sûreté, et les lacunes de données. Il a souligné que les entreprises et les gouvernements possèdent les meilleurs jeux de données mais ont besoin de solutions sécurisées et adaptées à leur usage. L’aspect sécurité a été particulièrement mis en avant, notant des défis comme l’hallucination de modèles, l’injection de toxicité et le besoin d’une visibilité complète à travers les systèmes IA.


Le Professeur Kamakoti a discuté de l’importance critique de la confiance dans les systèmes IA, expliquant que les définitions mathématiques de la confiance sont complexes et dépendantes du contexte. Il a souligné le besoin de modèles IA souverains et de mesures de cybersécurité robustes, particulièrement pour les infrastructures critiques et les systèmes publics. L’efficacité énergétique est apparue comme une préoccupation cruciale, avec des discussions sur l’efficacité d’utilisation de l’énergie (PUE) et le besoin de solutions énergétiques hybrides. Les panélistes ont conclu que l’avenir de l’IA en Inde dépend d’efforts collaboratifs pour adresser les défis d’infrastructure, de sécurité et d’énergie tout en tirant parti des forces du pays dans le développement d’applications et les jeux de données diversifiés.


Points clés

Points de discussion majeurs :

Informatique hétérogène et infrastructure IA distribuée : Le panel a longuement discuté du besoin d’informatique distribuée à travers les appareils, le cloud de périphérie et les centres de données plutôt que de concentrer tout le calcul dans des emplacements uniques. Cela inclut l’exécution d’inférence sur smartphones (jusqu’à 10 milliards de paramètres de modèles) et lunettes intelligentes pour réduire la dépendance à la connectivité réseau et aux centres de données.


Contraintes d’infrastructure et gestion des ressources : Focus significatif sur trois goulots d’étranglement critiques – la consommation d’énergie (avec des projections de 63 gigawatts nécessaires), la disponibilité de calcul et les défis de réseau. La discussion a mis l’accent sur l’efficacité énergétique, avec les centres de données nécessitant 40% d’énergie pour le refroidissement, 40% pour l’informatique et 20% pour la connectivité, soulignant le besoin d’une meilleure efficacité d’utilisation de l’énergie (PUE).


Sécurité et sûreté dans les systèmes IA : Discussion complète sur les défis de sécurité IA incluant les vulnérabilités de modèles, l’IA adversariale, l’empoisonnement de données et le besoin de détection “d’IA fantôme” dans les entreprises. Le panel a distingué entre les problèmes de sûreté (modèles ne fonctionnant pas comme prévu) et les menaces de sécurité (acteurs externes changeant le comportement des modèles).


Qualité des données et modèles IA souverains : Accent sur l’importance de jeux de données de haute qualité et accessibles pour le développement IA, avec un focus particulier sur le besoin de l’Inde pour des modèles de langage large souverains utilisant des données locales plutôt que de s’appuyer uniquement sur des jeux de données publics utilisés par les modèles globaux.


Applications pratiques et écosystème IA de l’Inde : Discussion de l’écosystème IA croissant de l’Inde avec plus de 300 startups Gen AI, focus sur le développement de la couche application, et le besoin de solutions localisées incluant des interfaces vocales dans 14 langues indiennes et des modèles spécifiques au domaine pour divers secteurs verticaux.


Objectif global :

La discussion visait à explorer la voie de l’Inde vers la construction d’une infrastructure IA robuste, sécurisée et efficace à travers des approches d’informatique hétérogène, adressant à la fois les défis techniques et les considérations politiques pour l’adoption à grande échelle de l’IA à travers les entreprises et systèmes publics.


Ton général :

La discussion a maintenu un ton professionnel, collaboratif et optimiste tout au long. Les panélistes ont démontré un respect mutuel et ont construit de manière constructive sur les points de chacun. Le ton était tourné vers l’avenir et orienté solutions, avec les participants partageant des insights pratiques de leurs domaines respectifs tout en reconnaissant les défis partagés. Les remarques de clôture du ministre ont renforcé l’atmosphère positive et collaborative en soulignant le partenariat entre les décideurs politiques et les technologues pour le bien-être sociétal.


Intervenants

Intervenants de la liste fournie :


Kazim Rizvi – Modérateur/Animateur de la table ronde


Prof. V. Kamakoti – Professeur et Directeur d’une institution éducative de premier plan en Inde, impliqué dans les politiques IA de l’Inde, expertise en cybersécurité et confiance dans les systèmes IA


Arun Shetty – Représentant de Cisco, expertise en réseau, connectivité, infrastructure IA, et sûreté/sécurité IA


Gokul Subramaniam – Expertise en informatique de périphérie, modèles de déploiement IA, applications IA spécifiques aux secteurs verticaux, et optimisation d’infrastructure


Durga Malladi – Représentant de Qualcomm, expertise en processeurs, informatique hétérogène, inférence IA sur appareils, et solutions IA hybrides


Sridhar Babu – Honorable Ministre, décideur politique axé sur la fourniture de support d’infrastructure (énergie, électricité, eau, terrain) pour le développement IA


Intervenants additionnels :


Sarah – Représentante d’Intel (mentionnée seulement brièvement à la fin pour la présentation de cadeaux)


Keypoints

Speakers

Full session reportComprehensive analysis and detailed insights

Cette table ronde sur l’informatique hétérogène et l’infrastructure IA en Inde a réuni des experts de premier plan de l’industrie, du monde académique et du gouvernement pour aborder les défis critiques et les opportunités dans le développement de l’IA du pays. Modéré par Kazim Rizvi, le panel comprenait Durga Malladi de Qualcomm, Arun Shetty de Cisco, le Professeur V. Kamakoti de l’IIT Madras, Gokul Subramaniam d’Intel, et le Ministre Sridhar Babu, créant une convergence d’expertise technique et de perspectives politiques.


Le Passage vers une Infrastructure IA Distribuée

Durga Malladi de Qualcomm a ouvert avec une vision convaincante de l’informatique distribuée qui remet en question la pensée conventionnelle de l’infrastructure IA. Son principe central—que l’expérience utilisateur de l’IA devrait rester cohérente indépendamment de la connectivité réseau—a établi le cadre pour repenser le déploiement de l’IA. Cela nécessite d’exécuter l’inférence directement sur les appareils plutôt que de s’appuyer uniquement sur le traitement cloud centralisé.


Malladi a démontré la faisabilité de cette approche avec des réalisations techniques impressionnantes : les smartphones modernes peuvent gérer jusqu’à 10 milliards de paramètres de modèles multimodaux, tandis que les lunettes intelligentes peuvent exécuter efficacement des modèles de moins d’1 milliard de paramètres avec une autonomie de batterie de 24 heures. Ces capacités représentent un bond significatif dans la puissance de l’informatique de périphérie, permettant aux applications IA sophistiquées de fonctionner indépendamment de la connectivité réseau.


Le concept d’« IA hybride » a émergé comme l’approche stratégique de Qualcomm, distribuant l’informatique entre les appareils, l’infrastructure cloud de périphérie, et les centres de données traditionnels basés sur les exigences spécifiques de charge de travail. Cette optimisation à travers le continuum informatique s’éloigne du forçage de tout traitement IA à travers des goulots d’étranglement centralisés.


Les interfaces vocales ont exemplifié les applications pratiques de cette approche distribuée. Malladi a souligné la voix comme « l’interface utilisateur la plus naturelle », particulièrement importante pour l’interaction en langue native. Supporter 14 langues nécessite des processeurs hétérogènes capables de gérer des contextes linguistiques et culturels divers, bénéficiant d’un traitement localisé qui comprend les environnements utilisateur spécifiques.


Contraintes d’Infrastructure et Défis Énergétiques

Arun Shetty de Cisco a identifié trois obstacles critiques à l’adoption de l’IA en Inde : les contraintes d’infrastructure englobant l’énergie, le calcul et la mise en réseau ; les préoccupations de sécurité et de sûreté ; et des lacunes de données significatives. Le défi énergétique est apparu comme particulièrement aigu, avec des projections que l’infrastructure IA nécessitera une montée en puissance énergétique substantielle dans les années à venir.


Gokul Subramaniam d’Intel a souligné trois contraintes physiques que l’Inde ne peut contourner : la terre, l’eau et l’énergie. Son analyse a révélé que dans les centres de données, 40% de l’énergie va au refroidissement, 40% au calcul, et 20% à la connectivité. Cette répartition souligne l’importance d’atteindre des ratios optimaux d’Efficacité d’Usage de l’Énergie, où l’énergie maximale va au calcul réel plutôt qu’à l’infrastructure de support.


Le défi du refroidissement devient complexe à mesure que les exigences de calcul augmentent, avec différentes solutions de refroidissement nécessaires pour des densités de puissance variables. Pour l’Inde, avec ses conditions climatiques diverses, cela nécessite des solutions spécifiques à la région tenant compte des facteurs environnementaux locaux.


Subramaniam a souligné l’opportunité de saut technologique que cela présente pour l’Inde, notant que l’informatique de périphérie peut atteindre des zones sans infrastructure de connectivité traditionnelle, démocratisant potentiellement l’accès aux capacités IA à travers le paysage géographique et économique diversifié du pays.


Sécurité et Sûreté : Comprendre la Distinction

Arun Shetty a fait une distinction cruciale entre les préoccupations de sûreté et de sécurité dans les systèmes IA. Les problèmes de sûreté impliquent que les modèles ne fonctionnent pas comme prévu—incluant l’hallucination, la toxicité, et le comportement imprévisible. Les préoccupations de sécurité impliquent des acteurs externes changeant délibérément le comportement du modèle par des attaques adverses ou l’empoisonnement de données.


Cette distinction a des implications profondes pour les stratégies d’atténuation des risques. La sûreté nécessite des contrôles internes et la validation de modèles, tandis que la sécurité exige la détection de menaces externes et des mécanismes défensifs. La nature non-déterministe des modèles IA complique les deux défis, car des relations cohérentes entrée-sortie ne peuvent être garanties.


Le Professeur Kamakoti a fourni un cadre mathématique pour comprendre la confiance dans les systèmes IA, référençant l’émission télévisée « Yes Prime Minister » pour illustrer que la confiance n’est ni réflexive, ni symétrique, ni transitive. La confiance dépend du contexte et est temporelle, variant selon les circonstances et changeant avec le temps. Cette complexité nécessite de nouvelles approches à la sécurité IA qui tiennent compte de la nature nuancée et contextuelle de la confiance.


Shetty a brièvement mentionné le défi de l’« IA fantôme » dans les entreprises, où les organisations manquent de visibilité sur les applications IA que leurs employés utilisent, créant des vulnérabilités de sécurité potentielles et des risques de conformité.


Souveraineté et Qualité des Données

La discussion a révélé des opportunités significatives pour l’Inde de tirer parti de ses jeux de données uniques tout en abordant les défis de qualité et d’accessibilité. Shetty a observé que bien que la plupart des modèles IA globaux s’entraînent sur des données publiquement disponibles, les entreprises et gouvernements possèdent des jeux de données supérieurs qui pourraient permettre des applications IA plus efficaces.


Kazim Rizvi a noté que l’Inde a environ 300 startups GenAI construisant sur de grands modèles de langage tout en développant simultanément des modèles souverains. Cette stratégie double tire parti des avancées IA globales tout en construisant des capacités indigènes, équilibrant la vitesse d’innovation avec l’autonomie stratégique.


Le Professeur Kamakoti a suggéré d’incorporer des principes de « besoin de savoir » dans les modèles IA, similaires aux systèmes d’habilitation de sécurité, permettant des réponses appropriées basées sur les niveaux d’autorisation utilisateur tout en maintenant la fonctionnalité pour les utilisateurs autorisés.


Applications Pratiques et Opportunités Stratégiques

Gokul Subramaniam a souligné des applications IA spécifiques dans l’éducation, incluant des services de traduction et transcription en temps réel qui pourraient transformer les expériences d’apprentissage. Ces modèles spécifiques au domaine optimisés pour le contenu éducatif pourraient fournir un apprentissage personnalisé et une livraison de contenu adaptative, fonctionnant efficacement même dans des zones avec une connectivité limitée.


Le secteur de l’éducation représente un domaine particulièrement prometteur pour le déploiement d’IA distribuée, démocratisant potentiellement l’accès aux ressources éducatives de haute qualité à travers les régions géographiques diverses de l’Inde.


Les petites et moyennes entreprises représentent également des opportunités significatives pour le déploiement d’IA de périphérie, rendant les capacités IA avancées accessibles aux organisations qui ne pouvaient précédemment se permettre des solutions sophistiquées basées sur le cloud.


Support Politique et Cadre Collaboratif

La participation du Ministre Sridhar Babu a souligné le support politique critique pour le développement de l’infrastructure IA de l’Inde. Son engagement à fournir une infrastructure adéquate d’énergie, d’électricité, d’eau et de terre représente un soutien gouvernemental essentiel pour les initiatives IA du secteur privé.


Le ministre a souligné « le bien-être pour tous, le bonheur pour tous » comme l’objectif ultime de l’implémentation de l’IA, fournissant un ancrage éthique important qui assure que le développement de l’IA serve des objectifs sociaux plus larges plutôt que des objectifs purement techniques ou commerciaux.


Perspectives d’Avenir

Les panélistes ont esquissé une vision pour l’avenir IA de l’Inde qui équilibre des objectifs techniques ambitieux avec des défis d’implémentation pratiques. L’approche IA hybride représente un chemin pragmatique vers l’avant, permettant un déploiement incrémental des capacités IA à travers le continuum informatique sans nécessiter d’investissements initiaux massifs dans l’infrastructure centralisée.


Le développement de modèles IA souverains représente à la fois un défi technique et une opportunité stratégique, nécessitant un investissement soutenu dans l’infrastructure de données, les capacités de développement de modèles, et le capital humain pour concurrencer globalement tout en servant spécifiquement les besoins indiens.


Les améliorations d’efficacité énergétique offrent des opportunités significatives pour réduire l’impact environnemental tout en contrôlant les coûts opérationnels. La combinaison des capacités d’informatique de périphérie avec le déploiement stratégique de centres de données pourrait optimiser le développement de l’infrastructure IA de l’Inde dans les contraintes de ressources existantes.


Conclusion

Cette table ronde a illuminé les défis complexes auxquels fait face le développement de l’infrastructure IA de l’Inde tout en soulignant des opportunités significatives d’innovation et de leadership. Le passage vers l’informatique hétérogène et distribuée représente une réimagination fondamentale du déploiement IA qui pourrait servir des besoins utilisateur divers tout en respectant les contraintes d’infrastructure et les exigences de sécurité.


La position unique de l’Inde—combinant talent technique, jeux de données divers, un écosystème de startups vibrant, et un environnement politique de soutien—positionne le pays pour diriger dans ce nouveau paradigme. L’esprit collaboratif évident dans cette discussion, où experts techniques, décideurs politiques, et leaders de l’industrie travaillent vers des objectifs communs, fournit un cadre convaincant pour naviguer les défis complexes à venir tout en maximisant le potentiel transformateur de l’IA pour tous les citoyens.


La vision articulée par les panélistes de systèmes IA qui servent tous les citoyens, respectent les exigences de souveraineté et de sécurité, et opèrent efficacement dans les contraintes de l’Inde offre une feuille de route pour l’avenir IA du pays qui équilibre l’innovation avec les réalités d’implémentation pratiques.


Session transcriptComplete transcript of the session
Durga Malladi

with them. 14 languages. Voice is the most natural user interface to devices around you. So the idea is not to actually keep typing and texting, but it’s about the usage of voice, but in native languages, which actually work very nicely. And that means that you have to make sure that the use cases are built on top of it. So that’s what our focus is from a processor standpoint. One final note, and given that I have maybe just one minute, another aspect of heterogeneous computers, disaggregation of compute within the network itself. What I mean by that is, at some point in time, you might have extremely good connectivity to the network. And at some other point in time, you might have zero connectivity to the network.

And the question to ask is, do you want your AI user experience to be invariant to the quality of the communications that you have at that point in time? Or do you want it to depend on it? Obviously, you want it to be invariant. That means you must have the ability to run inference directly on devices. Not that you want to do it all the time, but when you can, why not? today we can run up to a 10 billion parameter model multimodal model state of the art on a smartphone and a sub 1 billion parameter model in your glasses without necessarily charging a device the whole day it’s once every 24 hours so we’ve come a long way in that which means use the data centers use the edge cloud as and when necessary they have a role to play at the same time make sure that we also build for devices where the inference actually occurs and users directly perceive that’s where the data originates so it’s important to think about it that way

Kazim Rizvi

yeah there’s there’s also very strong environmental aspect to this and which often gets unnoticed and undiscussed but that element is also very important in terms of efficiently managing the energy requirements because energy as we also know is finite and so I think you one thing which I was struck to me which is spoke what was inferences and the other is that it’s not just about the energy but it’s also about the energy and the A lot of what’s happening in India is also around inferencing models, right? So, I mean, in terms of the Gen AI story, which we have, we have almost 300 Gen AI startups, which are building on top of the large language models.

And India is definitely leading the way in terms of application layer. There’s no doubt about that. Now, of course, with Sarvam and others, we are also building sovereign large language models, right? So, we are sort of, as Minister Vaishnav has spoken about, every, you know, piece of the puzzles. We are there in terms of fitting that puzzle together. I’d like to come to Mr. Arun Shetty, sir, is with Cisco. And, you know, we just want to take it further from where Durga sir had left in terms of talking about enterprise adoption at scale. And, you know, of course, with Cisco, what are the challenge of bottlenecks, which you see in terms of computer availability, connectivity, which Cisco is trying to do, which you see in generally.

And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about.

And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And

Arun Shetty

Yeah, so as you know, we connect and protect the… This should be working, right? Yeah, yeah, yeah. As you know, we connect and protect even in the AI era, right? We started in the internet, we came into the cloud, and we are in this era. First of all, thank you very much for having me, and it’s indeed a pleasure to be representing this esteemed panel. So I think what I’ll do is I’ll summarize based on what others have spoken, actually, and I think those are real problems. The first one is clearly the three impediments for AI adoption is one is clearly infrastructure constraints, and we all spoke about it, and they all spoke about it.

The first one is the power. power is a challenge will be a challenge i think usc is expecting it will be 63 gigawatts of power in couple of years what they require okay and then the compute is a problem we did recognize that compute is becoming a problem and then uh kamakoti sir did tell that cisco is in networking what are you doing in networking and networking will be a problem actually and then we need to see how we need to address and clearly it has to be a fit for purpose solutions because you not only do huge data centers and i think what we see is in couple of years you will see there is more inferencing happening at the edge and that’s what we need that’s what the how the world will move and that’s why solutions have to be fit for purpose for sure the second bigger challenge what we have is the security and the safety aspect so that is something what we need to pay lot of attention because as the adage says what if you can’t see you can’t trust right you can’t trust something what you can’t see so you need to have the visibility across the stack and also you need to see whether the models what we are using are the right models for us or is there anything malicious into the models itself actually vulnerabilities in that model so the security aspect becomes where security and safety aspect becomes very very important because the models hallucinate you can inject toxicity into the model so those are the challenges what we need to address as far as what we use so i think it is very very important to build our models and if you look at the models all the models were built using the public data which was the text voice and video data so but however the enterprises the government has the best data sets so why can’t we use those data sets so the third impediment what we have today is the data set so the third impediment what we have today is the data set so the third impediment is the data gap and data gap is essentially i need to have high quality accessible and manageable data and we can build gpts using that what we can call it as a machine gpt what we can build using that use that for inferencing use that for training use that for inferencing and we get a lot of quality use of ai without data the which is the fuel for the ai today you can’t really move forward on the ai and i think these are the typical three problems and the ways we are looking at addressing this is clearly one is i will not be able to build a huge data center for a specific use case so take a use case and then see how fast i can give that infrastructure a comprehensive secure ai factory or a secure infrastructure whether it is in the data center or in the edge actually so that people can focus on building the use cases or the applications on top of it and the second thing comes on the safety and the security aspect of it and how we can do the defense mechanism and the third one is the data so these are the three problems what cisco is trying to address along with the ecosystem partners of course because this is not a problem what you can solve alone actually yeah thank you

Kazim Rizvi

yeah i think i don’t know if my mic okay it’s okay yeah and i’ll i’ll sort of take from the security point which you have spoken and i’ll come back to dr kamakoti i think we have on the clock it shows seven but on my watch it shows 15 yeah so i’ll go by my watch uh yeah so dr kamakoti would like to focus on critical infra and public systems here and as you know that as with the advent of ai we’re going to use it across these sectors as well so how important do you see heterogeneous compute in terms of contributing to national resilience to safeguard and to sort of you know ensure that our critical infrastructure public systems are secure as well

Prof. V. Kamakoti

So today, the type of things that we need to do for each one of these actions, the type of inferencing, type of response time we need, as Shetty mentioned, it’s going to be different. I hope all of you have seen Yes Prime Minister, and always they say, need to know, right? You need to know, right? And now what happens is if I am going to make a model that has understood the entire data, then this that the model, and it is used to be someone that someone should they need to know that data? That’s a very important question. So that’s where the entire aspect of cybersecurity comes in. And that’s why we are all saying that we have need to have sovereign models.

As he rightly pointed out, we can have adversarial AI, we can go poison the whole thing and then make it teach make it tell the things that, you know, should not be told, or need not be told. Okay. This is something that we need to very much look at from a security point where i do an inferencing and my training data set goes for a toss number one so we need to have something for for education at least as a director of one of the premium students in the country what my worry is that for education like how we have since our board for uh you know movies what we should make models for which certain details alone should be fed into it see is a bacha right whatever you teach what it will tell you back probably do a little more uh generative on that so this is number one number two is again coming back to cisco itself right you do deep packet inspection and basically you do it with some signatures today the the whole story is changing dynamically the malware can change its signature so that’s going to be the biggest challenge now and what sort of inferencing they are going to do they have to bring some more different architecture and that will be a heterogeneous architecture now and so so So, ultimately, you know, as you see, you know, what you see, the trust component, I always repeat this, I’ll finish with this with my one minute.

So, trust is, you know, friends, you know, if you want to define A is equivalent to B, that’s the definition, right? If you want to define A, you have to come with B, which is equivalent to A. So, equivalence in discrete mathematics, equivalence relation should satisfy three properties, reflexive, symmetric, transitive. A is trust is not reflexive, I don’t trust myself sometimes. Trust is not symmetric, I trust Sarah, Sarah may not trust me. Trust is not transitive, I trust Gokul, Gokul trust you, I may not trust you. Trust is in addition, trust is context dependent, I trust. I trust you on something, I don’t trust you on something else. It is temporal, morning I trust you, evening I don’t trust you.

So, right? So, the main thing is, we have to build that mathematics. defined trusted and if you go to you know some of these search engine and define trust you get 1 million hits for that so so that is going to be the most important part so specifically on heterogeneous we will have certain different types of security issues something which a can sound something which is originating because of a and that’s where all of us edge connectivity server all the three people have to work together and and we will teach and he’ll put policy so

Kazim Rizvi

but both of you are equally playing an important role in terms of policy dr. Kamothi you’re also you know very influential and important figure in India’s AI policies of course lots to learn from you Goku very quickly would like to come to you and you know just sort of taking away in terms of the practical deployment models and what are the sort of examples you’ve seen which demonstrate that we are moving towards heterogeneous compute right and what needs to be done to also get get to that

Gokul Subramaniam

So I started off with workload and I’ll go back to the same thing. So one of the things that we’re looking at and it’s critical is to see what vertical really needs what kind of domain specific models. And then try to apply that as much as possible as edge inferencing and contain the walls that are there that prevents AI to work efficiently. Primarily it’s like memory, you know, the connectivity, the IO, the thermal and then the power. So from an edge inferencing standpoint, there are quite a few things that are being done, be it an education segment where you want more translation, data being available, transcription. So that the knowledge is being imparted in a way that you have with the right data with the lowest power that’s meaningful for the student.

And more importantly, when we talk security, it’s not only about protecting data. the models we keep talking data and models it’s protecting the user that’s even more fundamental and how you can ensure that that happens second thing is applying it to other verticals be it small and medium business i think there is a great opportunity there where edge inferencing and putting compute with the right kind of power that can translate the businesses into actually using ai more effectively the last aspect that i want to also touch upon is in terms of just power you know as we go from one gig to nine to ten gig in the next five years in the country we have to realize that india is challenged by three physical things that we cannot run away from land water and power and these are very important aspects that it will drive how we set up our infrastructure and you know almost you know in a hundred percent of your power energy that comes into a data center forty percent goes into cooling forty percent into your computer and twenty percent on connectivity and there is this famous metric that you use, the PUE, the power usage efficiency.

It has to be as close to one as possible. All the power that you give goes to the most important thing, which is the computer, not to the cooling and things. And there are a lot of technologies that are being played with with respect to how much you can air cool on a rack, per rack, and that was okay up to about 25 kilowatt, and as you start to get to 100, you have to use liquid cooling, and then how we can set that infrastructure up. And for a country like India, it’s absolutely important to look at what hybrid energy solutions we can go with, because just pure renewable may not be able to address it. You’ll have to have something that is stable and be able to do something off -grid so that there is that dependency for you to get the data from the data centers and push as much as possible to edge, because edge is all about reach.

How can I take it to places across the country where there is no access to connectivity? It’s about how can I leapfrog? How can I leapfrog with verticals that have not used technology as much? We’ve always done a leapfrogging in India, and this is a great moment for us, and total cost of ownership. Those are the big areas.

Kazim Rizvi

Thank you, Gokul. And I think as we are approaching the end of the panel, I’d sort of like to go to Durga and Dr. Shetty also in terms of closing remarks and the way forward. So to both of you, I’ll pose this question in terms of the next two to four years, because I think the AI age, we don’t think too far ahead. We can’t do five -year planning or 10 -year planning. I think two -year planning is sufficient. So what enterprise outcomes are you both looking at? Maybe we can start with Durga in terms of defining India’s access to compute, access to infrastructure, capacity, and also sort of building in scale, cost efficiency and energy efficiency.

Durga Malladi

So I’ll keep it brief. I think what I’m looking forward to with all the conversations here and in other parts of the world as well, where the problems are somewhat similar, is the ability to distribute compute across the entire network. So think of a combination of inference that runs in devices to the largest… extent that’s possible. Edge cloud, on -prem servers, where a lot of the localized processing can be done. And these can be done in air -cooled carts, by the way. The point that was made earlier is absolutely relevant. You don’t necessarily need liquid cooling all the time. You can do air -cooled carts and then just use air -cooled servers and running up to 100 to 300 billion parameter models, which are getting pretty sophisticated.

That’s the edge cloud. And as you go deeper from there onwards, then you have the data centers. It then mitigates the overall requirements of what you need in a data center. And instead of, therefore, concentrating the entire compute in one single location and then building it for just that alone, a holistic approach of devices, edge cloud, plus data center is probably what we are looking forward to. From Qualcomm, we call it as hybrid AI. It’s not just a marketing slogan, but it is something that we truly believe in. Thank you.

Arun Shetty

Since the infrastructure part has been addressed here, so let me talk. A little bit more on safety and security aspects. So I think one of the things what we need to understand about the modern… these models are very intricate and very complex. And it’s also non -deterministic because if you give an input, not necessarily the output will be the same like a standard application, correct? So that’s why it is non -deterministic. So what one should be doing, right? There are two aspects of safety and security. I’ll just touch upon why it is important to know that actually. Safety is all about, we want the models to work in a certain way but it is not working in that certain way or the way we want them to work.

That is the first part of it. That’s where the toxicity part, hallucination, all those challenges come actually. The second part of it is the security part wherein a bad actor from outside can change the behavior of the model. So we need to be careful about both the things actually. So what one should be doing? Say for example, I think Kamakoti sir also told about users to have, that’s it. users also to be secure, right? So it is essential that the organizations or the country has to build that actually. So which means if I’m accessing a chat GPT and sending some confidential info, the system should stop me. So that is the when I’m accessing a third party application, the system should be smart enough to stop me saying that you can’t be sharing that information that’s not allowed for you to share that.

So that’s something which is already happening in organizations today. The second part of it is the first party application, I’m building an application, and I’m using a model. So now the organization should be able to scan what all my AI assets are. Because one of the biggest challenges for enterprise is the shadow AI applications, they don’t know what people are doing actually. So I need to clearly know what all my assets are. That is number one, I detect all my assets or discover all my assets. And next is I should scan. and also ensure that these models and the applications what I’m using are not vulnerable. If it is vulnerable, then I need to put guardrails around it or I need to fix those problems.

And similarly, there are organizations who are already telling that there are a lot of risks. So you need to nist Mitre and OWASP are telling that there are a lot of risks associated with that and we need to ensure that we need to stop that. So that is something what Cisco is focus, our focus to see how we can use AI to defend the, to defend against all these malice and also the vulnerabilities what we see. Thank you so much.

Kazim Rizvi

I think with this, we’ll probably close the panel, but I’d like to invite Honorable Minister once again for his very quick closing remarks that you have sort of. Thank you. us highly motivated to sort of build on this. You’ve heard us in the last one hour. What are your thoughts? We’d love to hear from you in terms of your closing address.

Sridhar Babu

Thank you, Rizvi. And in fact, it’s a great pleasure to be here with the eminent Padmasree Awadi, Professor Kamakoti and Gokul and Durga Prasad and Mr. Vichetti sharing their truly professional experience and how as a policymaker, how we should view the things especially in terms of power, electricity, water and the land. How we should be well equipped to provide all these things where all the eminent panelists over here or the eminent people of the days would be thinking of putting. My primary challenge they have posed before is try to provide all these things. We are here to provide the rest remaining. And in fact, you know, thanks once again for a very apt introduction. very apt dialogue over here.

Ultimately, we have to all, me as a policymaker, and you all technocrats and innovators have to think the basic agenda for this AI impact term is welfare for all, happiness for all. Thank you for inviting me. Thank you so much.

Kazim Rizvi

With this, we will have to close the panel. I’d like to thank all our panelists and also invite colleagues, Sarah from Intel to hand over the gifts. But we’ll just have a group photo. Thank you.

Speakers Analysis
Detailed breakdown of each speaker’s arguments and positions
D
Durga Malladi
4 arguments197 words per minute538 words163 seconds
Argument 1
Les interfaces vocales dans les langues natives nécessitent des processeurs hétérogènes pour gérer divers cas d’usage
EXPLANATION
Durga Malladi soutient que la voix est l’interface utilisateur la plus naturelle pour les appareils, mais elle doit fonctionner dans les langues natives plutôt que simplement par saisie et messagerie. Cela nécessite des processeurs informatiques hétérogènes capables de gérer la complexité de multiples langues et de construire des cas d’usage appropriés sur cette base.
EVIDENCE
A mentionné le support de 14 langues et souligné que les cas d’usage doivent être construits sur les interfaces vocales dans les langues natives
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure IA distribuée
Argument 2
L’expérience utilisateur IA devrait être invariante à la qualité de la connectivité réseau, nécessitant des capacités d’inférence sur l’appareil
EXPLANATION
Malladi affirme que les utilisateurs devraient avoir des expériences IA cohérentes qu’ils aient une excellente connectivité réseau ou aucune connectivité. Cela nécessite la capacité d’exécuter l’inférence IA directement sur les appareils, non pas comme méthode principale mais comme solution de secours lorsque les conditions réseau sont mauvaises.
EVIDENCE
A expliqué le scénario de qualité variable de connectivité réseau et le besoin d’expérience utilisateur cohérente
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure IA distribuée
Argument 3
Les smartphones modernes peuvent exécuter des modèles multimodaux de 10 milliards de paramètres, les lunettes peuvent exécuter des modèles de moins d’1 milliard de paramètres
EXPLANATION
Malladi démontre les capacités actuelles des appareils de périphérie à exécuter des modèles IA sophistiqués. Il montre qu’un traitement IA significatif peut maintenant se faire directement sur les appareils grand public sans nécessiter une charge constante, représentant un progrès majeur dans les capacités IA embarquées.
EVIDENCE
Spécifications techniques spécifiques : modèles multimodaux de 10 milliards de paramètres sur smartphones, modèles de moins d’1 milliard de paramètres dans les lunettes, avec 24 heures d’autonomie
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure IA distribuée
Argument 4
L’approche IA hybride combinant appareils, cloud de périphérie et centres de données est la solution optimale
EXPLANATION
Malladi préconise une approche informatique distribuée qui exploite les appareils, le cloud de périphérie et les centres de données selon les besoins plutôt que de concentrer tout le calcul en un seul endroit. Cette approche hybride, que Qualcomm appelle ‘IA hybride’, atténue les exigences globales des centres de données et fournit un déploiement IA plus flexible et efficace.
EVIDENCE
A mentionné le concept d’IA hybride de Qualcomm et expliqué comment cette approche réduit les exigences de concentration des centres de données
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure IA distribuée
AGREED WITH
Arun Shetty, Gokul Subramaniam
DISAGREED WITH
Arun Shetty
A
Arun Shetty
8 arguments179 words per minute1219 words407 seconds
Argument 1
La consommation d’énergie atteindra 63 gigawatts dans les années à venir, présentant des défis d’infrastructure majeurs
EXPLANATION
Shetty identifie l’énergie comme l’un des trois obstacles majeurs à l’adoption de l’IA, citant des projections selon lesquelles les besoins énergétiques atteindront 63 gigawatts dans les années à venir. Cela représente un défi d’infrastructure significatif qui doit être relevé pour un déploiement généralisé de l’IA.
EVIDENCE
A cité les attentes de l’USC d’un besoin énergétique de 63 gigawatts dans quelques années
MAJOR DISCUSSION POINT
Contraintes d’infrastructure et efficacité énergétique
AGREED WITH
Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
DISAGREED WITH
Gokul Subramaniam
Argument 2
L’inférence en périphérie deviendra plus répandue, nécessitant des solutions adaptées à des fins spécifiques plutôt que d’énormes centres de données centralisés
EXPLANATION
Shetty soutient que l’avenir de l’IA verra davantage d’inférence se produire en périphérie plutôt que dans des installations centralisées massives. Ce changement nécessite de développer des solutions spécifiques adaptées à des cas d’usage particuliers plutôt que de construire d’énormes centres de données pour chaque application.
EVIDENCE
A mentionné que dans quelques années, davantage d’inférence se produira en périphérie et a souligné le besoin de solutions adaptées à des fins spécifiques
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure d’IA distribuée
AGREED WITH
Durga Malladi, Gokul Subramaniam
DISAGREED WITH
Durga Malladi
Argument 3
La sécurité et la sûreté constituent des défis majeurs car les modèles d’IA sont non-déterministes et peuvent halluciner ou être injectés de toxicité
EXPLANATION
Shetty souligne que les modèles d’IA sont complexes, sophistiqués et non-déterministes, ce qui signifie qu’ils ne produisent pas toujours la même sortie pour la même entrée. Cela crée à la fois des problèmes de sûreté (modèles ne fonctionnant pas comme prévu, hallucinations, toxicité) et des vulnérabilités de sécurité où des acteurs malveillants peuvent modifier le comportement du modèle.
EVIDENCE
A expliqué la nature non-déterministe des modèles d’IA et a distingué entre les problèmes de sûreté (hallucination, toxicité) et les menaces de sécurité provenant d’acteurs externes malveillants
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
AGREED WITH
Prof. V. Kamakoti, Gokul Subramaniam
DISAGREED WITH
Gokul Subramaniam
Argument 4
La visibilité sur l’ensemble de la pile technologique est essentielle pour la confiance, et les modèles eux-mêmes peuvent contenir des vulnérabilités
EXPLANATION
Shetty soutient que les organisations ont besoin d’une visibilité complète sur leur pile technologique d’IA pour établir la confiance. Il souligne que les modèles d’IA eux-mêmes peuvent contenir des éléments malveillants ou des vulnérabilités, rendant crucial de vérifier l’intégrité des modèles utilisés.
EVIDENCE
A fait référence à l’adage ‘on ne peut pas faire confiance à quelque chose qu’on ne peut pas voir’ et a mentionné le besoin de vérifier les éléments malveillants dans les modèles
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
Argument 5
Des jeux de données de haute qualité, accessibles et gérables sont essentiels pour une mise en œuvre efficace de l’IA
EXPLANATION
Shetty identifie le manque de données comme le troisième obstacle majeur à l’adoption de l’IA, soulignant que les organisations ont besoin de données de haute qualité, accessibles et gérables pour construire des systèmes d’IA efficaces. Sans des données appropriées comme carburant pour l’IA, les organisations ne peuvent pas avancer efficacement avec la mise en œuvre de l’IA.
EVIDENCE
A décrit les données comme ‘le carburant de l’IA’ et a souligné le besoin de jeux de données de haute qualité, accessibles et gérables
MAJOR DISCUSSION POINT
Qualité des données et modèles d’IA souverains
AGREED WITH
Prof. V. Kamakoti, Kazim Rizvi
Argument 6
Les entreprises et les gouvernements possèdent les meilleurs jeux de données qui devraient être utilisés au lieu de s’appuyer uniquement sur les données publiques
EXPLANATION
Shetty souligne que bien que la plupart des modèles d’IA soient construits à partir de données textuelles, vocales et vidéo publiques, les entreprises et les gouvernements possèdent des jeux de données supérieurs qui devraient être exploités. Il suggère de construire des GPT spécialisés en utilisant ces jeux de données privés de haute qualité pour l’entraînement et l’inférence.
EVIDENCE
A noté que les modèles actuels utilisent des données publiques alors que les entreprises et les gouvernements disposent des meilleurs jeux de données, suggérant de construire des ‘GPT machines’ avec des données privées
MAJOR DISCUSSION POINT
Qualité des données et modèles d’IA souverains
Argument 7
Les organisations ont besoin de protection contre la mauvaise utilisation interne (partage d’informations confidentielles avec l’IA tierce) et les menaces externes
EXPLANATION
Shetty décrit une approche de sécurité à deux volets : empêcher les employés de partager des informations confidentielles avec des services d’IA tiers comme ChatGPT, et sécuriser les applications d’IA propriétaires que les organisations développent elles-mêmes. Les systèmes doivent être suffisamment intelligents pour empêcher les utilisateurs de partager des informations inappropriées.
EVIDENCE
A donné un exemple spécifique de systèmes empêchant les utilisateurs de partager des informations confidentielles avec ChatGPT
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
Argument 8
Les applications d’IA fantômes posent des risques car les entreprises ne savent pas quels outils d’IA leurs employés utilisent
EXPLANATION
Shetty met en évidence l’IA fantôme comme un défi majeur où les organisations ignorent quelles applications d’IA leurs employés utilisent. Il souligne la nécessité pour les organisations de découvrir, analyser et sécuriser tous leurs actifs d’IA, y compris l’identification des vulnérabilités et la mise en place de garde-fous appropriés.
EVIDENCE
A mentionné que les organisations doivent découvrir les actifs d’IA, analyser les vulnérabilités, et a fait référence aux orientations NIST, Mitre et OWASP sur les risques de l’IA
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
G
Gokul Subramaniam
6 arguments186 words per minute572 words183 seconds
Argument 1
Les modèles spécialisés par domaine devraient être appliqués en périphérie pour différents secteurs verticaux comme l’éducation et les petites et moyennes entreprises
EXPLANATION
Subramaniam préconise l’application de modèles d’IA spécialisés par domaine en périphérie pour divers secteurs verticaux de l’industrie, soulignant particulièrement les opportunités dans l’éducation (pour la traduction et la transcription) et les petites et moyennes entreprises. Cette approche permet un déploiement d’IA plus efficace tout en maîtrisant les contraintes techniques qui empêchent l’IA de fonctionner efficacement.
EVIDENCE
A mentionné des applications spécifiques dans l’éducation pour la traduction et la transcription, et des opportunités pour les petites et moyennes entreprises d’utiliser l’IA plus efficacement
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure d’IA distribuée
AGREED WITH
Durga Malladi, Arun Shetty
Argument 2
L’Inde fait face à des contraintes physiques de terrain, d’eau et d’énergie qui orienteront les décisions d’installation d’infrastructure
EXPLANATION
Subramaniam identifie trois limitations physiques fondamentales auxquelles l’Inde ne peut échapper : le terrain, l’eau et l’énergie. Ces contraintes sont des facteurs critiques qui détermineront comment l’infrastructure d’IA est établie et déployée à travers le pays, nécessitant une considération attentive dans la planification et la mise en œuvre.
EVIDENCE
A spécifiquement mentionné le terrain, l’eau et l’énergie comme trois contraintes physiques auxquelles l’Inde ne peut échapper
MAJOR DISCUSSION POINT
Contraintes d’infrastructure et efficacité énergétique
AGREED WITH
Arun Shetty, Kazim Rizvi, Sridhar Babu
Argument 3
Les centres de données nécessitent 40% d’énergie pour le refroidissement, 40% pour le calcul, 20% pour la connectivité – un ratio PUE optimal est nécessaire
EXPLANATION
Subramaniam détaille la consommation énergétique des centres de données, montrant que le refroidissement et le calcul consomment chacun 40% de l’énergie totale, la connectivité prenant 20%. Il souligne l’importance d’atteindre un ratio d’efficacité d’utilisation de l’énergie (PUE) aussi proche de 1,0 que possible, signifiant qu’un maximum d’énergie va au calcul plutôt qu’au refroidissement et autres frais généraux.
EVIDENCE
A fourni une répartition spécifique : 40% refroidissement, 40% calcul, 20% connectivité, et expliqué la métrique PUE
MAJOR DISCUSSION POINT
Contraintes d’infrastructure et efficacité énergétique
Argument 4
Les racks refroidis par air fonctionnent jusqu’à 25 kilowatts, le refroidissement liquide est nécessaire au-delà de 100 kilowatts
EXPLANATION
Subramaniam explique les limitations techniques des différentes approches de refroidissement pour les centres de données. Le refroidissement par air est suffisant pour les racks jusqu’à environ 25 kilowatts, mais lorsque la densité de puissance augmente à 100 kilowatts et au-delà, les systèmes de refroidissement liquide deviennent nécessaires pour gérer la chaleur générée.
EVIDENCE
A fourni des seuils techniques spécifiques : limite de 25 kilowatts pour le refroidissement par air, exigence de 100 kilowatts pour le refroidissement liquide
MAJOR DISCUSSION POINT
Contraintes d’infrastructure et efficacité énergétique
Argument 5
Les solutions énergétiques hybrides et les capacités hors réseau sont essentielles pour les besoins d’infrastructure de l’Inde
EXPLANATION
Subramaniam soutient que l’Inde ne peut pas s’appuyer uniquement sur les énergies renouvelables pour ses besoins d’infrastructure d’IA et doit développer des solutions énergétiques hybrides qui offrent de la stabilité. Les capacités hors réseau sont particulièrement importantes pour réduire la dépendance aux systèmes d’alimentation centralisés et permettre le déploiement d’IA dans des zones à connectivité limitée.
EVIDENCE
A mentionné que l’énergie purement renouvelable pourrait ne pas être suffisante et souligné le besoin de solutions stables et hors réseau
MAJOR DISCUSSION POINT
Contraintes d’infrastructure et efficacité énergétique
DISAGREED WITH
Arun Shetty
Argument 6
Protéger les utilisateurs est plus fondamental que simplement protéger les données et les modèles
EXPLANATION
Subramaniam souligne que bien que les discussions se concentrent souvent sur la protection des données et des modèles d’IA, la préoccupation plus fondamentale devrait être de protéger les utilisateurs eux-mêmes. Cela représente un changement dans la pensée sécuritaire, passant de la protection d’actifs techniques à des approches de sécurité centrées sur l’humain.
EVIDENCE
A explicitement déclaré que protéger les utilisateurs est ‘encore plus fondamental’ que protéger les données et les modèles
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
AGREED WITH
Arun Shetty, Prof. V. Kamakoti
DISAGREED WITH
Arun Shetty
P
Prof. V. Kamakoti
5 arguments170 words per minute611 words215 seconds
Argument 1
Différents types d’inférence et temps de réponse nécessitent des architectures hétérogènes pour les applications de cybersécurité
EXPLANATION
Kamakoti soutient que les applications de cybersécurité nécessitent différents types d’inférence IA avec des exigences de temps de réponse variables, nécessitant des architectures informatiques hétérogènes. Il mentionne spécifiquement comment l’inspection approfondie de paquets, traditionnellement effectuée avec des signatures, doit évoluer pour gérer les logiciels malveillants qui changent dynamiquement et peuvent modifier leurs signatures.
EVIDENCE
A fait référence aux capacités d’inspection approfondie de paquets de Cisco et au défi des logiciels malveillants qui changent leurs signatures de manière dynamique
MAJOR DISCUSSION POINT
Informatique hétérogène et infrastructure d’IA distribuée
Argument 2
La confiance n’est ni réflexive, ni symétrique, ni transitive, et dépend du contexte et du temps
EXPLANATION
Kamakoti fournit une analyse mathématique de la confiance, expliquant que contrairement aux relations d’équivalence mathématiques, la confiance ne suit pas les propriétés logiques standard. La confiance n’est pas réflexive (les gens ne se font pas toujours confiance), pas symétrique (si A fait confiance à B, B peut ne pas faire confiance à A), pas transitive (si A fait confiance à B et B fait confiance à C, A peut ne pas faire confiance à C), et varie selon le contexte et le temps.
EVIDENCE
A fourni des exemples mathématiques : ‘Je ne me fais pas confiance parfois’, ‘Je fais confiance à Sarah, Sarah peut ne pas me faire confiance’, ‘Je fais confiance à Gokul, Gokul te fait confiance, je peux ne pas te faire confiance’, et a expliqué les dépendances contextuelles et temporelles
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
Argument 3
L’IA adversariale peut empoisonner les modèles et les faire révéler des informations de manière inappropriée
EXPLANATION
Kamakoti met en garde contre les attaques d’IA adversariale qui peuvent empoisonner les modèles d’IA et les amener à révéler des informations qui ne devraient pas être divulguées. Cela représente une menace de sécurité significative où des acteurs malveillants peuvent manipuler les systèmes d’IA pour qu’ils se comportent de manière inappropriée ou divulguent des informations sensibles.
EVIDENCE
A mentionné que l’IA adversariale peut ’empoisonner le tout’ et faire que les modèles ‘disent des choses qui ne devraient pas être dites’
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
AGREED WITH
Arun Shetty, Gokul Subramaniam
Argument 4
Les principes du besoin de savoir devraient s’appliquer aux modèles d’IA pour empêcher l’accès non autorisé aux données sensibles
EXPLANATION
Kamakoti fait référence au principe du ‘besoin de savoir’ des protocoles de sécurité, questionnant si les modèles d’IA qui comprennent des ensembles de données entiers devraient être accessibles aux utilisateurs qui n’ont pas l’autorisation pour toutes ces informations. Cela soulève des questions importantes sur le contrôle d’accès aux données dans les systèmes d’IA.
EVIDENCE
A fait référence à ‘Yes Prime Minister’ et au principe du ‘besoin de savoir’, questionnant si quelqu’un devrait accéder à un modèle entraîné sur des données pour lesquelles il n’a pas d’autorisation
MAJOR DISCUSSION POINT
Sécurité et sûreté dans les systèmes d’IA
AGREED WITH
Arun Shetty, Kazim Rizvi
Argument 5
Les modèles d’IA éducatifs devraient être organisés comme les classifications de films pour garantir un contenu approprié aux différents publics
EXPLANATION
Kamakoti suggère que les modèles d’IA utilisés dans l’éducation devraient être organisés et filtrés de manière similaire à la façon dont les films sont classés pour différents publics. Il souligne la nécessité de contrôler quelles informations sont introduites dans les modèles d’IA éducatifs pour garantir un contenu approprié à l’âge et au contexte.
EVIDENCE
A fait une analogie avec les commissions de classification des films et a souligné la nécessité de contrôler quels détails sont introduits dans les modèles d’IA éducatifs
MAJOR DISCUSSION POINT
Qualité des données et modèles d’IA souverains
K
Kazim Rizvi
2 arguments183 words per minute839 words275 seconds
Argument 1
La gestion énergétique est cruciale car les ressources énergétiques sont limitées, avec de fortes implications environnementales
EXPLANATION
Rizvi souligne les aspects environnementaux du déploiement d’infrastructures d’IA, notant que les ressources énergétiques sont limitées et qu’une gestion énergétique efficace est cruciale. Il fait remarquer que cette dimension environnementale passe souvent inaperçue et n’est pas discutée malgré son importance.
EVIDENCE
A mentionné que l’énergie est limitée et a souligné l’aspect environnemental qui « passe souvent inaperçu et n’est pas discuté »
MAJOR DISCUSSION POINT
Contraintes d’Infrastructure et Efficacité Énergétique
AGREED WITH
Arun Shetty, Gokul Subramaniam, Sridhar Babu
Argument 2
L’Inde développe des modèles de langage souverains tout en étant leader dans les applications d’IA avec plus de 300 startups GenAI
EXPLANATION
Rizvi met en évidence l’approche duale de l’Inde en matière de développement de l’IA : être leader dans les applications d’IA avec plus de 300 startups d’IA générative construisant sur des modèles de langage, tout en développant des capacités souveraines à travers des entreprises comme Sarvam. Cela représente la stratégie globale de l’Inde à travers la chaîne de valeur de l’IA.
EVIDENCE
A cité le nombre spécifique de plus de 300 startups GenAI et mentionné Sarvam comme exemple de développement de LLM souverain
MAJOR DISCUSSION POINT
Qualité des Données et Modèles d’IA Souverains
AGREED WITH
Arun Shetty, Prof. V. Kamakoti
S
Sridhar Babu
2 arguments141 words per minute166 words70 seconds
Argument 1
Les décideurs politiques doivent assurer une fourniture adéquate d’énergie, d’électricité, d’eau et de terres pour l’infrastructure d’IA
EXPLANATION
Minister Babu reconnaît les défis d’infrastructure soulevés par les experts techniques et s’engage à fournir les ressources fondamentales nécessaires. Il reconnaît que les décideurs politiques ont un rôle crucial pour assurer une fourniture adéquate des exigences d’infrastructure de base qui permettent le développement et le déploiement de l’IA.
EVIDENCE
A répondu directement aux préoccupations des panélistes concernant les contraintes d’infrastructure et s’est engagé à fournir l’énergie, l’électricité, l’eau et les terres
MAJOR DISCUSSION POINT
Politique et Résilience Nationale
AGREED WITH
Arun Shetty, Gokul Subramaniam, Kazim Rizvi
Argument 2
L’objectif ultime de la mise en œuvre de l’IA devrait être le bien-être et le bonheur de tous les citoyens
EXPLANATION
Minister Babu souligne que malgré les complexités techniques et les défis d’infrastructure, l’objectif fondamental du développement de l’IA devrait être d’assurer le bien-être et le bonheur de tous. Cela représente une approche centrée sur l’humain pour la politique et la mise en œuvre de l’IA.
EVIDENCE
A explicitement déclaré ‘le bien-être pour tous, le bonheur pour tous’ comme programme de base pour l’impact de l’IA
MAJOR DISCUSSION POINT
Politique et Résilience Nationale
Agreements
Agreement Points
L’infrastructure d’IA distribuée est supérieure aux centres de données centralisés
Speakers: Durga Malladi, Arun Shetty, Gokul Subramaniam
L’approche IA hybride combinant appareils, cloud de périphérie et centres de données est la solution optimale L’inférence en périphérie deviendra plus répandue, nécessitant des solutions adaptées plutôt que d’énormes centres de données centralisés Des modèles spécifiques au domaine devraient être appliqués en périphérie pour différents secteurs comme l’éducation et les petites et moyennes entreprises
Les trois experts techniques s’accordent à dire que l’avenir de l’IA réside dans les architectures informatiques distribuées plutôt que dans des centres de données centralisés massifs, l’inférence en périphérie devenant de plus en plus importante pour divers cas d’usage
Les contraintes de puissance et d’énergie constituent des défis critiques pour l’infrastructure d’IA
Speakers: Arun Shetty, Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
La consommation électrique atteindra 63 gigawatts dans les années à venir, présentant des défis d’infrastructure majeurs L’Inde fait face à des contraintes physiques de terrain, d’eau et d’énergie qui orienteront les décisions d’installation d’infrastructure La gestion énergétique est cruciale car les ressources énergétiques sont limitées, avec de fortes implications environnementales Les décideurs politiques doivent assurer une provision adéquate d’énergie, d’électricité, d’eau et de terrain pour l’infrastructure IA
Il y a un accord unanime que les contraintes d’énergie et d’alimentation représentent des défis fondamentaux qui doivent être abordés par la planification politique et infrastructurelle
La sécurité de l’IA nécessite des approches globales et multicouches
Speakers: Arun Shetty, Prof. V. Kamakoti, Gokul Subramaniam
La sécurité et la sûreté sont des défis majeurs car les modèles IA sont non-déterministes et peuvent halluciner ou être injectés de toxicité L’IA adversariale peut empoisonner les modèles et les faire révéler des informations de manière inappropriée Protéger les utilisateurs est plus fondamental que simplement protéger les données et les modèles
Tous les intervenants s’accordent à dire que la sécurité de l’IA est complexe, nécessitant une protection contre de multiples vecteurs de menace incluant l’empoisonnement de modèles, les attaques adversariales, et la protection des utilisateurs au-delà de la simple sécurité des données
Des données et modèles souverains de haute qualité sont essentiels pour un déploiement efficace de l’IA
Speakers: Arun Shetty, Prof. V. Kamakoti, Kazim Rizvi
Des jeux de données de haute qualité, accessibles et gérables sont essentiels pour une mise en œuvre efficace de l’IA Les principes du besoin de savoir devraient s’appliquer aux modèles IA pour prévenir l’accès non autorisé aux données sensibles L’Inde construit des modèles de langage souverains tout en étant leader dans les applications IA avec plus de 300 startups GenAI
Il y a consensus que la qualité et la souveraineté des données sont cruciales, avec accord sur le besoin d’un accès contrôlé aux informations sensibles et le développement de capacités IA indigènes
Similar Viewpoints
Les deux intervenants soulignent les capacités actuelles et le potentiel futur des dispositifs de périphérie pour exécuter des modèles d’IA sophistiqués, démontrant la faisabilité technique de l’IA distribuée
Speakers: Durga Malladi, Gokul Subramaniam
Les smartphones modernes peuvent faire fonctionner des modèles multimodaux de 10 milliards de paramètres, les lunettes peuvent faire fonctionner des modèles de moins d’1 milliard de paramètres Des modèles spécifiques au domaine devraient être appliqués en périphérie pour différents secteurs comme l’éducation et les petites et moyennes entreprises
Les deux intervenants abordent la confiance et la sécurité d’un point de vue systémique, soulignant la complexité d’établir la confiance dans les systèmes d’IA et la nécessité d’une visibilité et compréhension globales
Speakers: Arun Shetty, Prof. V. Kamakoti
La visibilité sur l’ensemble de la pile est essentielle pour la confiance, et les modèles eux-mêmes peuvent contenir des vulnérabilités La confiance n’est ni réflexive, ni symétrique, ni transitive, et dépend du contexte et du temps
Les deux intervenants fournissent des détails techniques spécifiques sur les défis de consommation énergétique dans l’infrastructure d’IA, démontrant une compréhension approfondie des exigences d’efficacité énergétique
Speakers: Gokul Subramaniam, Arun Shetty
Les centres de données nécessitent 40% d’énergie pour le refroidissement, 40% pour le calcul, 20% pour la connectivité – un ratio PUE optimal est nécessaire La consommation électrique atteindra 63 gigawatts dans les années à venir, présentant des défis d’infrastructure majeurs
Unexpected Consensus
Protection des utilisateurs comme préoccupation sécuritaire principale
Speakers: Gokul Subramaniam, Arun Shetty, Prof. V. Kamakoti
Protéger les utilisateurs est plus fondamental que simplement protéger les données et les modèles Les organisations ont besoin de protection contre la mauvaise utilisation interne (partage d’informations confidentielles avec l’IA tierce) et les menaces externes Les modèles IA éducatifs devraient être organisés comme les classifications de films pour assurer un contenu approprié pour différents publics
Bien que les discussions techniques se concentrent souvent sur la sécurité des données et des modèles, il y a eu un consensus inattendu que la protection des utilisateurs devrait être la préoccupation principale, représentant une approche centrée sur l’humain de la sécurité IA qui va au-delà des protections techniques traditionnelles
Approche mathématique pour comprendre la confiance dans les systèmes d’IA
Speakers: Prof. V. Kamakoti, Arun Shetty
La confiance n’est ni réflexive, ni symétrique, ni transitive, et dépend du contexte et du temps La visibilité sur l’ensemble de la pile est essentielle pour la confiance, et les modèles eux-mêmes peuvent contenir des vulnérabilités
La convergence vers une approche mathématique et systématique pour définir et mettre en œuvre la confiance dans les systèmes IA était inattendue, montrant un alignement entre les perspectives académiques et industrielles sur la complexité fondamentale de la confiance
Nécessité de solutions énergétiques hybrides
Speakers: Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
Les solutions énergétiques hybrides et les capacités hors réseau sont essentielles pour les besoins d’infrastructure de l’Inde La gestion énergétique est cruciale car les ressources énergétiques sont limitées, avec de fortes implications environnementales Les décideurs politiques doivent assurer une provision adéquate d’énergie, d’électricité, d’eau et de terrain pour l’infrastructure IA
Le consensus selon lequel l’énergie renouvelable pure est insuffisante et que des solutions hybrides sont nécessaires représente une approche pragmatique inattendue de la durabilité environnementale dans l’infrastructure IA
Overall Assessment

Le panel a démontré un consensus remarquable entre les perspectives techniques, politiques et commerciales sur les défis clés et les solutions pour le déploiement de l’infrastructure IA. Les principaux domaines d’accord incluent la supériorité des architectures IA distribuées, la nature critique des contraintes d’alimentation et d’énergie, la complexité des exigences de sécurité IA, et l’importance de la souveraineté des données.

Haut niveau de consensus avec un fort alignement entre experts de l’industrie, universitaires et décideurs politiques. Cela suggère une compréhension mature des défis de l’infrastructure IA et indique un potentiel pour des réponses politiques et techniques coordonnées. L’accord s’étend à la fois aux détails de mise en œuvre technique et aux approches stratégiques plus larges, suggérant que la stratégie de développement IA de l’Inde bénéficie d’un large soutien des parties prenantes.

Differences
Different Viewpoints
Approche d’infrastructure d’IA centralisée vs distribuée
Speakers: Durga Malladi, Arun Shetty
L’approche IA hybride combinant appareils, cloud de périphérie et centres de données est la solution optimale L’inférence de périphérie deviendra plus répandue, nécessitant des solutions adaptées plutôt que d’énormes centres de données centralisés
Bien que les deux intervenants s’accordent sur l’abandon des approches purement centralisées, Malladi préconise un système hybride complet qui inclut encore les centres de données comme partie de la solution, tandis que Shetty met l’accent sur l’orientation vers des solutions axées sur la périphérie et l’abandon complet de la construction d’énormes centres de données
Focus sécuritaire principal : Actifs techniques vs Protection humaine
Speakers: Arun Shetty, Gokul Subramaniam
La sécurité et la sûreté sont des défis majeurs car les modèles IA sont non-déterministes et peuvent halluciner ou être injectés de toxicité Protéger les utilisateurs est plus fondamental que de simplement protéger les données et les modèles
Shetty se concentre largement sur les aspects techniques de sécurité comme les vulnérabilités des modèles, la visibilité à travers les piles, et la protection des données et modèles, tandis que Subramaniam soutient que protéger les utilisateurs eux-mêmes devrait être la préoccupation plus fondamentale plutôt que simplement la protection des actifs techniques
Stratégie d’infrastructure énergétique : Solutions hybrides vs Optimisation du refroidissement
Speakers: Gokul Subramaniam, Arun Shetty
Les solutions énergétiques hybrides et les capacités hors réseau sont essentielles pour les besoins d’infrastructure de l’Inde La consommation d’énergie atteindra 63 gigawatts dans les années à venir, présentant des défis d’infrastructure majeurs
Subramaniam met l’accent sur le besoin de solutions énergétiques hybrides et de capacités hors réseau comme exigences fondamentales, tandis que Shetty se concentre davantage sur l’ampleur des défis énergétiques et les solutions adaptées sans préconiser spécifiquement les approches énergétiques hybrides
Overall Assessment

Les intervenants montrent un désaccord modéré sur les approches de mise en œuvre tout en partageant des objectifs communs autour de l’IA distribuée, de la sécurité et de l’efficacité de l’infrastructure

Le niveau de désaccord est modéré mais significatif, particulièrement autour des approches philosophiques de la sécurité et de l’équilibre optimal entre infrastructure centralisée et distribuée. Ces désaccords ont des implications importantes car ils reflètent des priorités différentes : optimisation technique vs conception centrée sur l’humain, rigueur théorique vs mise en œuvre pratique, et solutions hybrides complètes vs approches axées sur la périphérie. Les désaccords suggèrent que bien qu’il y ait consensus sur les défis auxquels fait face le déploiement de l’infrastructure IA, il existe des différences significatives sur la façon d’aborder ces défis qui pourraient impacter les décisions politiques et de mise en œuvre.

Partial Agreements
Tous les intervenants s’accordent sur l’importance de l’informatique de périphérie et de l’IA distribuée pour l’avenir, mais ils divergent sur l’équilibre optimal entre les ressources de périphérie, cloud et centres de données. Malladi souhaite une approche hybride incluant les trois, Shetty privilégie les solutions adaptées à l’usage plutôt que les grands centres de données, et Subramaniam se concentre sur les applications de périphérie spécifiques au domaine
Speakers: Durga Malladi, Arun Shetty, Gokul Subramaniam
L’expérience utilisateur IA devrait être invariante à la qualité de la connectivité réseau, nécessitant des capacités d’inférence sur l’appareil L’inférence de périphérie deviendra plus répandue, nécessitant des solutions adaptées plutôt que d’énormes centres de données centralisés Les modèles spécifiques au domaine devraient être appliqués en périphérie pour différents secteurs comme l’éducation et les petites et moyennes entreprises
Les deux intervenants s’accordent sur le fait que la sécurité de l’IA est une préoccupation critique et que les modèles peuvent être compromis, mais ils abordent la solution différemment. Shetty se concentre sur la visibilité organisationnelle, la découverte d’actifs et les mesures de protection techniques, tandis que Kamakoti souligne la complexité mathématique de la confiance et la nécessité d’un contrôle d’accès basé sur les principes d’habilitation sécuritaire
Speakers: Arun Shetty, Prof. V. Kamakoti
La sécurité et la sûreté sont des défis majeurs car les modèles IA sont non-déterministes et peuvent halluciner ou être injectés de toxicité L’IA adversariale peut empoisonner les modèles et les faire révéler des informations de manière inappropriée
Les deux intervenants s’accordent sur l’importance de développer des capacités d’IA souveraines et d’utiliser des jeux de données de haute qualité, mais ils mettent l’accent sur différents aspects. Shetty se concentre sur le fait que les entreprises et gouvernements disposent de meilleurs jeux de données que les sources publiques, tandis que Rizvi souligne l’approche globale de l’Inde à travers les applications et le développement de modèles souverains
Speakers: Arun Shetty, Kazim Rizvi
Des ensembles de données de haute qualité, accessibles et gérables sont essentiels pour une mise en œuvre efficace de l’IA L’Inde développe des modèles de langage souverains tout en étant leader dans les applications d’IA avec plus de 300 startups GenAI
Takeaways
Key takeaways
Une approche d’IA hybride combinant l’inférence sur appareil, le cloud de périphérie et les centres de données est essentielle pour un déploiement optimal de l’IA, plutôt que de s’appuyer uniquement sur des centres de données centralisés L’Inde fait face à des contraintes d’infrastructure critiques en matière d’énergie (63 gigawatts projetés nécessaires), de terrain et d’eau qui façonneront fondamentalement les décisions d’infrastructure d’IA La sécurité et la sûreté sont des préoccupations primordiales car les modèles d’IA sont non-déterministes, vulnérables aux attaques adverses, et peuvent halluciner ou être empoisonnés avec du contenu malveillant Les interfaces vocales dans les langues natives (14 langues mentionnées) représentent l’interface utilisateur la plus naturelle, nécessitant des processeurs hétérogènes pour gérer divers cas d’usage L’efficacité énergétique est cruciale avec les centres de données consommant 40% d’énergie pour le refroidissement, 40% pour le calcul, et 20% pour la connectivité – nécessitant une optimisation vers un ratio PUE de 1 L’Inde est leader dans les applications d’IA avec plus de 300 startups GenAI tout en développant également des modèles de langage souverains pour la résilience nationale La confiance dans les systèmes d’IA est complexe – ni réflexive, ni symétrique, ni transitive, et est à la fois dépendante du contexte et temporelle, nécessitant de nouveaux cadres mathématiques Des ensembles de données d’entreprise et gouvernementales de haute qualité devraient être exploités au lieu de s’appuyer uniquement sur des données publiques pour l’entraînement des modèles d’IA L’inférence en périphérie deviendra plus répandue, avec les smartphones modernes capables d’exécuter des modèles de 10 milliards de paramètres et les lunettes intelligentes exécutant des modèles de moins d’1 milliard de paramètres
Resolutions and action items
Les organisations doivent mettre en place des systèmes pour détecter et empêcher le partage d’informations confidentielles avec des applications d’IA tierces Les entreprises doivent découvrir et scanner tous les actifs d’IA pour traiter les applications d’IA fantômes et les vulnérabilités Les décideurs politiques se sont engagés à fournir une infrastructure adéquate d’énergie, d’électricité, d’eau et de terrain pour soutenir le développement de l’IA Besoin de développer des solutions adaptées pour différents secteurs comme l’éducation et les petites et moyennes entreprises en utilisant des modèles spécifiques au domaine Mettre en place des garde-fous autour des modèles et applications d’IA vulnérables Développer des solutions énergétiques hybrides et des capacités hors réseau pour l’infrastructure d’IA distribuée
Unresolved issues
Comment définir et implémenter mathématiquement des cadres de confiance pour les systèmes d’IA étant donné leur nature complexe, non-réflexive, non-symétrique et non-transitive Mécanismes spécifiques pour la transition des modèles actuels de centres de données centralisés vers une infrastructure d’IA hybride distribuée Stratégies détaillées pour gérer la transition des systèmes de refroidissement par air vers les systèmes de refroidissement liquide lorsque les exigences de calcul dépassent 25-100 kilowatts par rack Calendriers de mise en œuvre concrets et allocation des ressources pour l’exigence projetée de 63 gigawatts d’énergie Approches de standardisation pour les modèles d’IA souverains dans différents cas d’usage gouvernementaux et d’entreprise Cadres réglementaires spécifiques pour la curation des modèles d’IA pour différents publics (similaire aux systèmes de classification des films mentionnés pour l’éducation) Spécifications techniques pour s’assurer que l’expérience utilisateur d’IA reste invariante à la qualité de la connectivité réseau
Suggested compromises
Distribuer les exigences de calcul entre les appareils, le cloud de périphérie et les centres de données plutôt que de tout concentrer dans des emplacements centralisés Utiliser des serveurs refroidis par air pour les déploiements de cloud de périphérie (modèles de 100-300 milliards de paramètres) tout en réservant le refroidissement liquide pour les opérations de centres de données plus importantes Mettre en place des solutions énergétiques hybrides combinant des sources d’énergie renouvelables et stables plutôt que de s’appuyer purement sur l’énergie renouvelable Équilibrer entre l’utilisation de modèles souverains pour les applications sensibles tout en exploitant les modèles globaux pour les cas d’usage généraux Appliquer les principes du besoin de savoir aux modèles d’IA tout en maintenant la fonctionnalité pour les utilisateurs autorisés Se concentrer sur la protection des utilisateurs comme préoccupation principale tout en mettant également en place des mesures de protection des données et des modèles
Follow-up Questions
Comment pouvons-nous construire des cadres mathématiques pour définir et mesurer la confiance dans les systèmes d’IA, étant donné que la confiance n’est ni réflexive, ni symétrique, ni transitive, et qu’elle dépend du contexte et du temps ?
Ceci est critique pour établir des standards de sécurité et de sûreté dans les systèmes d’IA, en particulier pour les infrastructures critiques et les systèmes publics où les mécanismes de confiance sont fondamentaux pour la résilience nationale.
Speaker: Prof. V. Kamakoti
Comment pouvons-nous implémenter efficacement les principes de ‘besoin de savoir’ dans les modèles d’IA pour empêcher l’accès non autorisé aux données sensibles tout en maintenant la fonctionnalité du modèle ?
Ceci aborde le défi de cybersécurité de s’assurer que les modèles d’IA n’exposent pas d’informations sensibles aux utilisateurs qui ne devraient pas y avoir accès, ce qui est crucial pour les modèles d’IA souverains.
Speaker: Prof. V. Kamakoti
Quelles nouvelles architectures sont nécessaires pour la détection dynamique de logiciels malveillants lorsque les signatures peuvent changer dynamiquement, allant au-delà de l’inspection traditionnelle des paquets en profondeur ?
Ceci est essentiel pour la cybersécurité car les méthodes de détection traditionnelles basées sur les signatures deviennent inadéquates face aux menaces évolutives alimentées par l’IA.
Speaker: Prof. V. Kamakoti
Comment les organisations peuvent-elles efficacement découvrir et gérer les applications d’IA fantômes que les employés utilisent à l’insu du service informatique ?
Il s’agit d’un défi critique de sécurité d’entreprise car l’utilisation non autorisée de l’IA peut conduire à des violations de données et des infractions de conformité.
Speaker: Arun Shetty
Quelles solutions énergétiques hybrides l’Inde peut-elle implémenter pour soutenir l’infrastructure d’IA compte tenu des contraintes de terre, d’eau et d’énergie ?
Ceci est crucial pour le développement de l’infrastructure IA de l’Inde, car le pays fait face à des contraintes physiques qui détermineront comment les centres de données et l’informatique de périphérie peuvent être déployés à grande échelle.
Speaker: Gokul Subramaniam
Comment pouvons-nous optimiser l’équilibre entre le refroidissement par air et le refroidissement liquide dans les centres de données pour atteindre un PUE (Power Usage Efficiency) aussi proche de 1 que possible ?
Ceci est important pour l’efficacité énergétique dans l’infrastructure IA, car le refroidissement représente 40% de la consommation électrique des centres de données et l’optimisation de cet aspect pourrait réduire significativement les besoins énergétiques globaux.
Speaker: Gokul Subramaniam
Quels garde-fous spécifiques et mécanismes de balayage sont nécessaires pour protéger contre les vulnérabilités des modèles d’IA et assurer que les applications d’IA propriétaires sont sécurisées ?
Ceci répond au besoin d’implémentations de sécurité pratiques alors que les organisations développent leurs propres applications IA et doivent se protéger à la fois contre les problèmes de sécurité (hallucination, toxicité) et les menaces de sécurité provenant d’acteurs malveillants.
Speaker: Arun Shetty
Comment pouvons-nous développer des modèles spécifiques à des domaines pour différents secteurs verticaux tout en optimisant pour les contraintes d’inférence en périphérie comme la mémoire, la connectivité, les E/S, la thermique et l’alimentation ?
Ceci est essentiel pour le déploiement pratique de l’IA dans diverses industries, garantissant que les solutions IA sont adaptées à des cas d’usage spécifiques tout en étant suffisamment efficaces pour fonctionner en périphérie.
Speaker: Gokul Subramaniam

Disclaimer: This is not an official session record. DiploAI generates these resources from audiovisual recordings, and they are presented as-is, including potential errors. Due to logistical challenges, such as discrepancies in audio/video or transcripts, names may be misspelled. We strive for accuracy to the best of our ability.