HETEROGENEOUS COMPUTE FOR DEMOCRATIZING ACCESS TO AI

20 Feb 2026 13:00h - 14:00h

HETEROGENEOUS COMPUTE FOR DEMOCRATIZING ACCESS TO AI

Session at a glanceSummary, keypoints, and speakers overview

Summary

Resumen

Esta discusión de panel se centró en la computación heterogénea y los desafíos de infraestructura de IA en India, con expertos de Qualcomm, Cisco, IIT Madras e Intel, junto con un ministro del gobierno. El tema central giró en torno a la distribución del cómputo de IA a través de diferentes capas – desde dispositivos edge hasta centros de datos – para crear sistemas de IA más eficientes y resilientes.


Durga Malladi de Qualcomm enfatizó la importancia de ejecutar inferencia de IA directamente en dispositivos, señalando que los smartphones ahora pueden manejar modelos de 10 mil millones de parámetros mientras que las gafas inteligentes pueden ejecutar modelos de menos de 1 mil millones de parámetros. Abogó por una “IA híbrida” que distribuya sin problemas el cómputo entre dispositivos, edge cloud y centros de datos basándose en la conectividad y los requisitos. La discusión destacó las interfaces de voz en idiomas nativos como un área de aplicación clave, con soporte para 14 idiomas mencionado.


Arun Shetty de Cisco identificó tres impedimentos principales para la adopción de IA: restricciones de infraestructura (energía, cómputo y redes), preocupaciones de seguridad y safety, y brechas de datos. Enfatizó que las empresas y gobiernos poseen los mejores conjuntos de datos pero necesitan soluciones seguras y adecuadas para el propósito. El aspecto de seguridad fue particularmente enfatizado, señalando desafíos como alucinaciones del modelo, inyección de toxicidad y la necesidad de visibilidad integral a través de los sistemas de IA.


El Profesor Kamakoti discutió la importancia crítica de la confianza en los sistemas de IA, explicando que las definiciones matemáticas de confianza son complejas y dependientes del contexto. Enfatizó la necesidad de modelos de IA soberanos y medidas robustas de ciberseguridad, particularmente para infraestructura crítica y sistemas públicos. La eficiencia energética emergió como una preocupación crucial, con discusiones sobre la efectividad del uso de energía (PUE) y la necesidad de soluciones energéticas híbridas. Los panelistas concluyeron que el futuro de la IA en India depende de esfuerzos colaborativos para abordar los desafíos de infraestructura, seguridad y energía mientras se aprovechan las fortalezas del país en desarrollo de aplicaciones y conjuntos de datos diversos.


Puntos Clave

Principales Puntos de Discusión:

Computación Heterogénea e Infraestructura de IA Distribuida: El panel discutió extensamente la necesidad de computación distribuida a través de dispositivos, edge cloud y centros de datos en lugar de concentrar todo el cómputo en ubicaciones únicas. Esto incluye ejecutar inferencia en smartphones (hasta modelos de 10 mil millones de parámetros) y gafas inteligentes para reducir la dependencia de la conectividad de red y los centros de datos.


Restricciones de Infraestructura y Gestión de Recursos: Enfoque significativo en tres cuellos de botella críticos – consumo de energía (con proyecciones de 63 gigavatios necesarios), disponibilidad de cómputo y desafíos de redes. La discusión enfatizó la eficiencia energética, con centros de datos requiriendo 40% de energía para enfriamiento, 40% para computación y 20% para conectividad, destacando la necesidad de mejor eficiencia en el uso de energía (PUE).


Seguridad y Safety en Sistemas de IA: Discusión integral sobre desafíos de seguridad de IA incluyendo vulnerabilidades del modelo, IA adversarial, envenenamiento de datos y la necesidad de detección de “shadow AI” en empresas. El panel distinguió entre problemas de safety (modelos que no funcionan como se pretende) y amenazas de seguridad (actores externos cambiando el comportamiento del modelo).


Calidad de Datos y Modelos de IA Soberanos: Énfasis en la importancia de conjuntos de datos de alta calidad y accesibles para el desarrollo de IA, con enfoque particular en la necesidad de India de modelos de lenguaje grandes soberanos usando datos locales en lugar de depender únicamente de conjuntos de datos públicos usados por modelos globales.


Aplicaciones Prácticas y Ecosistema de IA de India: Discusión del creciente panorama de IA de India con más de 300 startups de IA Generativa, enfoque en el desarrollo de la capa de aplicación y la necesidad de soluciones localizadas incluyendo interfaces de voz en 14 idiomas indios y modelos específicos de dominio para varios verticales.


Propósito General:

La discusión tuvo como objetivo explorar el camino de India hacia la construcción de infraestructura de IA robusta, segura y eficiente a través de enfoques de computación heterogénea, abordando tanto desafíos técnicos como consideraciones de política para escalar la adopción de IA a través de empresas y sistemas públicos.


Tono General:

La discusión mantuvo un tono profesional, colaborativo y optimista a lo largo. Los panelistas demostraron respeto mutuo y construyeron sobre los puntos de cada uno de manera constructiva. El tono fue visionario y orientado a soluciones, con participantes compartiendo perspectivas prácticas de sus respectivos dominios mientras reconocían desafíos compartidos. Los comentarios de cierre del ministro reforzaron la atmósfera positiva y colaborativa al enfatizar la asociación entre formuladores de políticas y tecnólogos para el bienestar social.


Oradores

Oradores de la lista proporcionada:


Kazim Rizvi – Moderador/Anfitrión de la discusión de panel


Prof. V. Kamakoti – Profesor y Director de una institución educativa premium en India, involucrado en las políticas de IA de India, experiencia en ciberseguridad y confianza en sistemas de IA


Arun Shetty – Representante de Cisco, experiencia en redes, conectividad, infraestructura de IA y safety/seguridad de IA


Gokul Subramaniam – Experiencia en edge computing, modelos de despliegue de IA, aplicaciones de IA específicas por vertical y optimización de infraestructura


Durga Malladi – Representante de Qualcomm, experiencia en procesadores, computación heterogénea, inferencia de IA en dispositivos y soluciones de IA híbrida


Sridhar Babu – Honorable Ministro, formulador de políticas enfocado en proporcionar soporte de infraestructura (energía, electricidad, agua, tierra) para el desarrollo de IA


Oradores adicionales:


Sarah – Representante de Intel (mencionada solo brevemente al final para la presentación de obsequios)


Keypoints

Speakers

Full session reportComprehensive analysis and detailed insights

Esta discusión de panel sobre computación heterogénea e infraestructura de IA en India reunió a expertos líderes de la industria, academia y gobierno para abordar desafíos críticos y oportunidades en el desarrollo de IA del país. Moderado por Kazim Rizvi, el panel contó con Durga Malladi de Qualcomm, Arun Shetty de Cisco, el Profesor V. Kamakoti del IIT Madras, Gokul Subramaniam de Intel, y el Ministro Sridhar Babu, creando una convergencia de experiencia técnica y perspectivas de política.


El Cambio Hacia la Infraestructura de IA Distribuida

Durga Malladi de Qualcomm abrió con una visión convincente para la computación distribuida que desafía el pensamiento convencional de infraestructura de IA. Su principio central—que la experiencia del usuario de IA debe permanecer consistente independientemente de la conectividad de red—estableció el marco para reimaginar el despliegue de IA. Esto requiere ejecutar inferencia directamente en dispositivos en lugar de depender únicamente del procesamiento centralizado en la nube.


Malladi demostró la viabilidad de este enfoque con logros técnicos impresionantes: los smartphones modernos pueden manejar hasta 10 mil millones de parámetros en modelos multimodales, mientras que las gafas inteligentes pueden ejecutar eficientemente modelos de menos de 1 mil millones de parámetros con 24 horas de duración de batería. Estas capacidades representan un salto significativo en el poder de computación en el borde, permitiendo que aplicaciones de IA sofisticadas funcionen independientemente de la conectividad de red.


El concepto de “IA híbrida” emergió como el enfoque estratégico de Qualcomm, distribuyendo la computación a través de dispositivos, infraestructura de nube en el borde, y centros de datos tradicionales basándose en requisitos específicos de carga de trabajo. Esta optimización a través del continuo de computación se aleja de forzar todo el procesamiento de IA a través de cuellos de botella centralizados.


Las interfaces de voz ejemplificaron las aplicaciones prácticas de este enfoque distribuido. Malladi enfatizó la voz como “la interfaz de usuario más natural,” particularmente importante para la interacción en idioma nativo. Soportar 14 idiomas requiere procesadores heterogéneos capaces de manejar contextos lingüísticos y culturales diversos, beneficiándose del procesamiento localizado que entiende entornos específicos del usuario.


Limitaciones de Infraestructura y Desafíos Energéticos

Arun Shetty de Cisco identificó tres impedimentos críticos para la adopción de IA en India: limitaciones de infraestructura que abarcan energía, computación y redes; preocupaciones de seguridad y protección; y brechas significativas de datos. El desafío energético emergió como particularmente agudo, con proyecciones de que la infraestructura de IA requerirá un escalamiento energético sustancial en los próximos años.


Gokul Subramaniam de Intel destacó tres limitaciones físicas que India no puede eludir: tierra, agua y energía. Su análisis reveló que en los centros de datos, el 40% de la energía va al enfriamiento, 40% a la computación, y 20% a la conectividad. Este desglose enfatiza la importancia de lograr ratios óptimos de Eficiencia de Uso de Energía, donde la máxima energía va a la computación real en lugar de infraestructura de soporte.


El desafío del enfriamiento se vuelve complejo a medida que escalan los requisitos de computación, con diferentes soluciones de enfriamiento necesarias para densidades de energía variables. Para India, con sus diversas condiciones climáticas, esto requiere soluciones específicas por región que consideren factores ambientales locales.


Subramaniam enfatizó la oportunidad de salto que esto presenta para India, notando que la computación en el borde puede alcanzar áreas sin infraestructura de conectividad tradicional, potencialmente democratizando el acceso a capacidades de IA a través del diverso paisaje geográfico y económico del país.


Seguridad y Protección: Entendiendo la Distinción

Arun Shetty hizo una distinción crucial entre preocupaciones de protección y seguridad en sistemas de IA. Los problemas de protección involucran modelos que no funcionan como se pretende—incluyendo alucinación, toxicidad y comportamiento impredecible. Las preocupaciones de seguridad involucran actores externos que deliberadamente cambian el comportamiento del modelo a través de ataques adversarios o envenenamiento de datos.


Esta distinción tiene implicaciones profundas para las estrategias de mitigación de riesgos. La protección requiere controles internos y validación de modelos, mientras que la seguridad demanda detección de amenazas externas y mecanismos defensivos. La naturaleza no determinística de los modelos de IA complica ambos desafíos, ya que no se pueden garantizar relaciones consistentes de entrada-salida.


El Profesor Kamakoti proporcionó un marco matemático para entender la confianza en sistemas de IA, haciendo referencia al programa de televisión “Yes Prime Minister” para ilustrar que la confianza no es reflexiva, simétrica, ni transitiva. La confianza depende del contexto y es temporal, variando basándose en circunstancias y cambiando con el tiempo. Esta complejidad requiere nuevos enfoques para la seguridad de IA que consideren la naturaleza matizada y contextual de la confianza.


Shetty mencionó brevemente el desafío de la “IA en la sombra” en empresas, donde las organizaciones carecen de visibilidad sobre las aplicaciones de IA que usan sus empleados, creando vulnerabilidades de seguridad potenciales y riesgos de cumplimiento.


Soberanía y Calidad de Datos

La discusión reveló oportunidades significativas para que India aproveche sus conjuntos de datos únicos mientras aborda desafíos de calidad y accesibilidad. Shetty observó que mientras la mayoría de los modelos de IA globales entrenan con datos disponibles públicamente, las empresas y gobiernos poseen conjuntos de datos superiores que podrían permitir aplicaciones de IA más efectivas.


Kazim Rizvi notó que India tiene aproximadamente 300 startups de IA Generativa construyendo sobre modelos de lenguaje grandes mientras simultáneamente desarrolla modelos soberanos. Esta estrategia dual aprovecha los avances globales de IA mientras construye capacidades indígenas, equilibrando la velocidad de innovación con la autonomía estratégica.


El Profesor Kamakoti sugirió incorporar principios de “necesidad de saber” en modelos de IA, similar a sistemas de autorización de seguridad, permitiendo respuestas apropiadas basadas en niveles de autorización del usuario mientras mantiene funcionalidad para usuarios autorizados.


Aplicaciones Prácticas y Oportunidades Estratégicas

Gokul Subramaniam destacó aplicaciones específicas de IA en educación, incluyendo servicios de traducción y transcripción en tiempo real que podrían transformar experiencias de aprendizaje. Estos modelos específicos de dominio optimizados para contenido educativo podrían proporcionar aprendizaje personalizado y entrega de contenido adaptativo, funcionando efectivamente incluso en áreas con conectividad limitada.


El sector educativo representa un área particularmente prometedora para el despliegue de IA distribuida, potencialmente democratizando el acceso a recursos educativos de alta calidad a través de las diversas regiones geográficas de India.


Las pequeñas y medianas empresas también representan oportunidades significativas para el despliegue de IA en el borde, haciendo capacidades avanzadas de IA accesibles a organizaciones que previamente no podían permitirse soluciones sofisticadas basadas en la nube.


Apoyo de Política y Marco Colaborativo

La participación del Ministro Sridhar Babu destacó el apoyo crítico de política para el desarrollo de infraestructura de IA de India. Su compromiso de proporcionar infraestructura adecuada de energía, electricidad, agua y tierra representa respaldo gubernamental esencial para iniciativas de IA del sector privado.


El ministro enfatizó “bienestar para todos, felicidad para todos” como el objetivo último de la implementación de IA, proporcionando una base ética importante que asegura que el desarrollo de IA sirva objetivos sociales más amplios en lugar de objetivos puramente técnicos o comerciales.


Perspectiva Futura

Los panelistas delinearon una visión para el futuro de IA de India que equilibra objetivos técnicos ambiciosos con desafíos prácticos de implementación. El enfoque de IA híbrida representa un camino pragmático hacia adelante, permitiendo el despliegue incremental de capacidades de IA a través del continuo de computación sin requerir inversiones iniciales masivas en infraestructura centralizada.


El desarrollo de modelos de IA soberanos representa tanto un desafío técnico como una oportunidad estratégica, requiriendo inversión sostenida en infraestructura de datos, capacidades de desarrollo de modelos, y capital humano para competir globalmente mientras sirve necesidades específicamente indias.


Las mejoras en eficiencia energética ofrecen oportunidades significativas para reducir el impacto ambiental mientras controlan los costos operacionales. La combinación de capacidades de computación en el borde con despliegue estratégico de centros de datos podría optimizar el desarrollo de infraestructura de IA de India dentro de las limitaciones de recursos existentes.


Conclusión

Esta discusión de panel iluminó los desafíos complejos que enfrenta el desarrollo de infraestructura de IA de India mientras destacaba oportunidades significativas para innovación y liderazgo. El cambio hacia computación heterogénea y distribuida representa una reimaginación fundamental del despliegue de IA que podría servir necesidades diversas de usuarios mientras respeta limitaciones de infraestructura y requisitos de seguridad.


La posición única de India—combinando talento técnico, conjuntos de datos diversos, un ecosistema vibrante de startups, y un entorno de política de apoyo—posiciona al país para liderar en este nuevo paradigma. El espíritu colaborativo evidente en esta discusión, donde expertos técnicos, formuladores de políticas, y líderes de la industria trabajan hacia objetivos comunes, proporciona un marco convincente para navegar los desafíos complejos por delante mientras maximiza el potencial transformador de la IA para todos los ciudadanos.


La visión articulada por los panelistas de sistemas de IA que sirvan a todos los ciudadanos, respeten requisitos de soberanía y seguridad, y operen eficientemente dentro de las limitaciones de India ofrece una hoja de ruta para el futuro de IA del país que equilibra innovación con realidades prácticas de implementación.


Session transcriptComplete transcript of the session
Durga Malladi

with them. 14 languages. Voice is the most natural user interface to devices around you. So the idea is not to actually keep typing and texting, but it’s about the usage of voice, but in native languages, which actually work very nicely. And that means that you have to make sure that the use cases are built on top of it. So that’s what our focus is from a processor standpoint. One final note, and given that I have maybe just one minute, another aspect of heterogeneous computers, disaggregation of compute within the network itself. What I mean by that is, at some point in time, you might have extremely good connectivity to the network. And at some other point in time, you might have zero connectivity to the network.

And the question to ask is, do you want your AI user experience to be invariant to the quality of the communications that you have at that point in time? Or do you want it to depend on it? Obviously, you want it to be invariant. That means you must have the ability to run inference directly on devices. Not that you want to do it all the time, but when you can, why not? today we can run up to a 10 billion parameter model multimodal model state of the art on a smartphone and a sub 1 billion parameter model in your glasses without necessarily charging a device the whole day it’s once every 24 hours so we’ve come a long way in that which means use the data centers use the edge cloud as and when necessary they have a role to play at the same time make sure that we also build for devices where the inference actually occurs and users directly perceive that’s where the data originates so it’s important to think about it that way

Kazim Rizvi

yeah there’s there’s also very strong environmental aspect to this and which often gets unnoticed and undiscussed but that element is also very important in terms of efficiently managing the energy requirements because energy as we also know is finite and so I think you one thing which I was struck to me which is spoke what was inferences and the other is that it’s not just about the energy but it’s also about the energy and the A lot of what’s happening in India is also around inferencing models, right? So, I mean, in terms of the Gen AI story, which we have, we have almost 300 Gen AI startups, which are building on top of the large language models.

And India is definitely leading the way in terms of application layer. There’s no doubt about that. Now, of course, with Sarvam and others, we are also building sovereign large language models, right? So, we are sort of, as Minister Vaishnav has spoken about, every, you know, piece of the puzzles. We are there in terms of fitting that puzzle together. I’d like to come to Mr. Arun Shetty, sir, is with Cisco. And, you know, we just want to take it further from where Durga sir had left in terms of talking about enterprise adoption at scale. And, you know, of course, with Cisco, what are the challenge of bottlenecks, which you see in terms of computer availability, connectivity, which Cisco is trying to do, which you see in generally.

And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about.

And I think that’s a really important thing to talk about. And I think that’s a really important thing to talk about. And

Arun Shetty

Yeah, so as you know, we connect and protect the… This should be working, right? Yeah, yeah, yeah. As you know, we connect and protect even in the AI era, right? We started in the internet, we came into the cloud, and we are in this era. First of all, thank you very much for having me, and it’s indeed a pleasure to be representing this esteemed panel. So I think what I’ll do is I’ll summarize based on what others have spoken, actually, and I think those are real problems. The first one is clearly the three impediments for AI adoption is one is clearly infrastructure constraints, and we all spoke about it, and they all spoke about it.

The first one is the power. power is a challenge will be a challenge i think usc is expecting it will be 63 gigawatts of power in couple of years what they require okay and then the compute is a problem we did recognize that compute is becoming a problem and then uh kamakoti sir did tell that cisco is in networking what are you doing in networking and networking will be a problem actually and then we need to see how we need to address and clearly it has to be a fit for purpose solutions because you not only do huge data centers and i think what we see is in couple of years you will see there is more inferencing happening at the edge and that’s what we need that’s what the how the world will move and that’s why solutions have to be fit for purpose for sure the second bigger challenge what we have is the security and the safety aspect so that is something what we need to pay lot of attention because as the adage says what if you can’t see you can’t trust right you can’t trust something what you can’t see so you need to have the visibility across the stack and also you need to see whether the models what we are using are the right models for us or is there anything malicious into the models itself actually vulnerabilities in that model so the security aspect becomes where security and safety aspect becomes very very important because the models hallucinate you can inject toxicity into the model so those are the challenges what we need to address as far as what we use so i think it is very very important to build our models and if you look at the models all the models were built using the public data which was the text voice and video data so but however the enterprises the government has the best data sets so why can’t we use those data sets so the third impediment what we have today is the data set so the third impediment what we have today is the data set so the third impediment is the data gap and data gap is essentially i need to have high quality accessible and manageable data and we can build gpts using that what we can call it as a machine gpt what we can build using that use that for inferencing use that for training use that for inferencing and we get a lot of quality use of ai without data the which is the fuel for the ai today you can’t really move forward on the ai and i think these are the typical three problems and the ways we are looking at addressing this is clearly one is i will not be able to build a huge data center for a specific use case so take a use case and then see how fast i can give that infrastructure a comprehensive secure ai factory or a secure infrastructure whether it is in the data center or in the edge actually so that people can focus on building the use cases or the applications on top of it and the second thing comes on the safety and the security aspect of it and how we can do the defense mechanism and the third one is the data so these are the three problems what cisco is trying to address along with the ecosystem partners of course because this is not a problem what you can solve alone actually yeah thank you

Kazim Rizvi

yeah i think i don’t know if my mic okay it’s okay yeah and i’ll i’ll sort of take from the security point which you have spoken and i’ll come back to dr kamakoti i think we have on the clock it shows seven but on my watch it shows 15 yeah so i’ll go by my watch uh yeah so dr kamakoti would like to focus on critical infra and public systems here and as you know that as with the advent of ai we’re going to use it across these sectors as well so how important do you see heterogeneous compute in terms of contributing to national resilience to safeguard and to sort of you know ensure that our critical infrastructure public systems are secure as well

Prof. V. Kamakoti

So today, the type of things that we need to do for each one of these actions, the type of inferencing, type of response time we need, as Shetty mentioned, it’s going to be different. I hope all of you have seen Yes Prime Minister, and always they say, need to know, right? You need to know, right? And now what happens is if I am going to make a model that has understood the entire data, then this that the model, and it is used to be someone that someone should they need to know that data? That’s a very important question. So that’s where the entire aspect of cybersecurity comes in. And that’s why we are all saying that we have need to have sovereign models.

As he rightly pointed out, we can have adversarial AI, we can go poison the whole thing and then make it teach make it tell the things that, you know, should not be told, or need not be told. Okay. This is something that we need to very much look at from a security point where i do an inferencing and my training data set goes for a toss number one so we need to have something for for education at least as a director of one of the premium students in the country what my worry is that for education like how we have since our board for uh you know movies what we should make models for which certain details alone should be fed into it see is a bacha right whatever you teach what it will tell you back probably do a little more uh generative on that so this is number one number two is again coming back to cisco itself right you do deep packet inspection and basically you do it with some signatures today the the whole story is changing dynamically the malware can change its signature so that’s going to be the biggest challenge now and what sort of inferencing they are going to do they have to bring some more different architecture and that will be a heterogeneous architecture now and so so So, ultimately, you know, as you see, you know, what you see, the trust component, I always repeat this, I’ll finish with this with my one minute.

So, trust is, you know, friends, you know, if you want to define A is equivalent to B, that’s the definition, right? If you want to define A, you have to come with B, which is equivalent to A. So, equivalence in discrete mathematics, equivalence relation should satisfy three properties, reflexive, symmetric, transitive. A is trust is not reflexive, I don’t trust myself sometimes. Trust is not symmetric, I trust Sarah, Sarah may not trust me. Trust is not transitive, I trust Gokul, Gokul trust you, I may not trust you. Trust is in addition, trust is context dependent, I trust. I trust you on something, I don’t trust you on something else. It is temporal, morning I trust you, evening I don’t trust you.

So, right? So, the main thing is, we have to build that mathematics. defined trusted and if you go to you know some of these search engine and define trust you get 1 million hits for that so so that is going to be the most important part so specifically on heterogeneous we will have certain different types of security issues something which a can sound something which is originating because of a and that’s where all of us edge connectivity server all the three people have to work together and and we will teach and he’ll put policy so

Kazim Rizvi

but both of you are equally playing an important role in terms of policy dr. Kamothi you’re also you know very influential and important figure in India’s AI policies of course lots to learn from you Goku very quickly would like to come to you and you know just sort of taking away in terms of the practical deployment models and what are the sort of examples you’ve seen which demonstrate that we are moving towards heterogeneous compute right and what needs to be done to also get get to that

Gokul Subramaniam

So I started off with workload and I’ll go back to the same thing. So one of the things that we’re looking at and it’s critical is to see what vertical really needs what kind of domain specific models. And then try to apply that as much as possible as edge inferencing and contain the walls that are there that prevents AI to work efficiently. Primarily it’s like memory, you know, the connectivity, the IO, the thermal and then the power. So from an edge inferencing standpoint, there are quite a few things that are being done, be it an education segment where you want more translation, data being available, transcription. So that the knowledge is being imparted in a way that you have with the right data with the lowest power that’s meaningful for the student.

And more importantly, when we talk security, it’s not only about protecting data. the models we keep talking data and models it’s protecting the user that’s even more fundamental and how you can ensure that that happens second thing is applying it to other verticals be it small and medium business i think there is a great opportunity there where edge inferencing and putting compute with the right kind of power that can translate the businesses into actually using ai more effectively the last aspect that i want to also touch upon is in terms of just power you know as we go from one gig to nine to ten gig in the next five years in the country we have to realize that india is challenged by three physical things that we cannot run away from land water and power and these are very important aspects that it will drive how we set up our infrastructure and you know almost you know in a hundred percent of your power energy that comes into a data center forty percent goes into cooling forty percent into your computer and twenty percent on connectivity and there is this famous metric that you use, the PUE, the power usage efficiency.

It has to be as close to one as possible. All the power that you give goes to the most important thing, which is the computer, not to the cooling and things. And there are a lot of technologies that are being played with with respect to how much you can air cool on a rack, per rack, and that was okay up to about 25 kilowatt, and as you start to get to 100, you have to use liquid cooling, and then how we can set that infrastructure up. And for a country like India, it’s absolutely important to look at what hybrid energy solutions we can go with, because just pure renewable may not be able to address it. You’ll have to have something that is stable and be able to do something off -grid so that there is that dependency for you to get the data from the data centers and push as much as possible to edge, because edge is all about reach.

How can I take it to places across the country where there is no access to connectivity? It’s about how can I leapfrog? How can I leapfrog with verticals that have not used technology as much? We’ve always done a leapfrogging in India, and this is a great moment for us, and total cost of ownership. Those are the big areas.

Kazim Rizvi

Thank you, Gokul. And I think as we are approaching the end of the panel, I’d sort of like to go to Durga and Dr. Shetty also in terms of closing remarks and the way forward. So to both of you, I’ll pose this question in terms of the next two to four years, because I think the AI age, we don’t think too far ahead. We can’t do five -year planning or 10 -year planning. I think two -year planning is sufficient. So what enterprise outcomes are you both looking at? Maybe we can start with Durga in terms of defining India’s access to compute, access to infrastructure, capacity, and also sort of building in scale, cost efficiency and energy efficiency.

Durga Malladi

So I’ll keep it brief. I think what I’m looking forward to with all the conversations here and in other parts of the world as well, where the problems are somewhat similar, is the ability to distribute compute across the entire network. So think of a combination of inference that runs in devices to the largest… extent that’s possible. Edge cloud, on -prem servers, where a lot of the localized processing can be done. And these can be done in air -cooled carts, by the way. The point that was made earlier is absolutely relevant. You don’t necessarily need liquid cooling all the time. You can do air -cooled carts and then just use air -cooled servers and running up to 100 to 300 billion parameter models, which are getting pretty sophisticated.

That’s the edge cloud. And as you go deeper from there onwards, then you have the data centers. It then mitigates the overall requirements of what you need in a data center. And instead of, therefore, concentrating the entire compute in one single location and then building it for just that alone, a holistic approach of devices, edge cloud, plus data center is probably what we are looking forward to. From Qualcomm, we call it as hybrid AI. It’s not just a marketing slogan, but it is something that we truly believe in. Thank you.

Arun Shetty

Since the infrastructure part has been addressed here, so let me talk. A little bit more on safety and security aspects. So I think one of the things what we need to understand about the modern… these models are very intricate and very complex. And it’s also non -deterministic because if you give an input, not necessarily the output will be the same like a standard application, correct? So that’s why it is non -deterministic. So what one should be doing, right? There are two aspects of safety and security. I’ll just touch upon why it is important to know that actually. Safety is all about, we want the models to work in a certain way but it is not working in that certain way or the way we want them to work.

That is the first part of it. That’s where the toxicity part, hallucination, all those challenges come actually. The second part of it is the security part wherein a bad actor from outside can change the behavior of the model. So we need to be careful about both the things actually. So what one should be doing? Say for example, I think Kamakoti sir also told about users to have, that’s it. users also to be secure, right? So it is essential that the organizations or the country has to build that actually. So which means if I’m accessing a chat GPT and sending some confidential info, the system should stop me. So that is the when I’m accessing a third party application, the system should be smart enough to stop me saying that you can’t be sharing that information that’s not allowed for you to share that.

So that’s something which is already happening in organizations today. The second part of it is the first party application, I’m building an application, and I’m using a model. So now the organization should be able to scan what all my AI assets are. Because one of the biggest challenges for enterprise is the shadow AI applications, they don’t know what people are doing actually. So I need to clearly know what all my assets are. That is number one, I detect all my assets or discover all my assets. And next is I should scan. and also ensure that these models and the applications what I’m using are not vulnerable. If it is vulnerable, then I need to put guardrails around it or I need to fix those problems.

And similarly, there are organizations who are already telling that there are a lot of risks. So you need to nist Mitre and OWASP are telling that there are a lot of risks associated with that and we need to ensure that we need to stop that. So that is something what Cisco is focus, our focus to see how we can use AI to defend the, to defend against all these malice and also the vulnerabilities what we see. Thank you so much.

Kazim Rizvi

I think with this, we’ll probably close the panel, but I’d like to invite Honorable Minister once again for his very quick closing remarks that you have sort of. Thank you. us highly motivated to sort of build on this. You’ve heard us in the last one hour. What are your thoughts? We’d love to hear from you in terms of your closing address.

Sridhar Babu

Thank you, Rizvi. And in fact, it’s a great pleasure to be here with the eminent Padmasree Awadi, Professor Kamakoti and Gokul and Durga Prasad and Mr. Vichetti sharing their truly professional experience and how as a policymaker, how we should view the things especially in terms of power, electricity, water and the land. How we should be well equipped to provide all these things where all the eminent panelists over here or the eminent people of the days would be thinking of putting. My primary challenge they have posed before is try to provide all these things. We are here to provide the rest remaining. And in fact, you know, thanks once again for a very apt introduction. very apt dialogue over here.

Ultimately, we have to all, me as a policymaker, and you all technocrats and innovators have to think the basic agenda for this AI impact term is welfare for all, happiness for all. Thank you for inviting me. Thank you so much.

Kazim Rizvi

With this, we will have to close the panel. I’d like to thank all our panelists and also invite colleagues, Sarah from Intel to hand over the gifts. But we’ll just have a group photo. Thank you.

Speakers Analysis
Detailed breakdown of each speaker’s arguments and positions
D
Durga Malladi
4 arguments197 words per minute538 words163 seconds
Argument 1
Las interfaces de voz en idiomas nativos requieren procesadores heterogéneos para manejar diversos casos de uso
EXPLANATION
Durga Malladi argumenta que la voz es la interfaz de usuario más natural para los dispositivos, pero debe funcionar en idiomas nativos en lugar de solo escribir y enviar mensajes de texto. Esto requiere procesadores de computación heterogénea que puedan manejar la complejidad de múltiples idiomas y construir casos de uso apropiados sobre esta base.
EVIDENCE
Mencionó el soporte para 14 idiomas y enfatizó que los casos de uso deben construirse sobre interfaces de voz en idiomas nativos
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
Argument 2
La experiencia de usuario de IA debe ser invariante a la calidad de conectividad de red, requiriendo capacidades de inferencia en el dispositivo
EXPLANATION
Malladi sostiene que los usuarios deben tener experiencias de IA consistentes independientemente de si tienen excelente conectividad de red o conectividad nula. Esto requiere la capacidad de ejecutar inferencia de IA directamente en los dispositivos, no como método principal sino como respaldo cuando las condiciones de red son deficientes.
EVIDENCE
Explicó el escenario de calidad variable de conectividad de red y la necesidad de experiencia de usuario consistente
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
Argument 3
Los smartphones modernos pueden ejecutar modelos multimodales de 10 mil millones de parámetros, las gafas pueden ejecutar modelos de menos de 1 mil millones de parámetros
EXPLANATION
Malladi demuestra las capacidades actuales de los dispositivos de borde para ejecutar modelos de IA sofisticados. Muestra que el procesamiento significativo de IA ahora puede ocurrir directamente en dispositivos de consumo sin requerir carga constante, representando un progreso importante en las capacidades de IA en el dispositivo.
EVIDENCE
Especificaciones técnicas específicas: modelos multimodales de 10 mil millones de parámetros en smartphones, modelos de menos de 1 mil millones de parámetros en gafas, con 24 horas de duración de batería
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
Argument 4
El enfoque de IA híbrida que combina dispositivos, nube de borde y centros de datos es la solución óptima
EXPLANATION
Malladi aboga por un enfoque de computación distribuida que aprovecha dispositivos, nube de borde y centros de datos según sea necesario en lugar de concentrar toda la computación en una ubicación. Este enfoque híbrido, que Qualcomm llama ‘IA híbrida’, mitiga los requisitos generales de centros de datos y proporciona un despliegue de IA más flexible y eficiente.
EVIDENCE
Mencionó el concepto de ‘IA híbrida’ de Qualcomm y explicó cómo este enfoque reduce los requisitos de concentración en centros de datos
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
AGREED WITH
Arun Shetty, Gokul Subramaniam
DISAGREED WITH
Arun Shetty
A
Arun Shetty
8 arguments179 words per minute1219 words407 seconds
Argument 1
El consumo de energía alcanzará 63 gigavatios en los próximos años, presentando importantes desafíos de infraestructura
EXPLANATION
Shetty identifica la energía como uno de los tres principales impedimentos para la adopción de IA, citando proyecciones de que los requerimientos de energía alcanzarán 63 gigavatios en los próximos años. Esto representa un desafío significativo de infraestructura que debe abordarse para el despliegue generalizado de IA.
EVIDENCE
Citó las expectativas de USC de un requerimiento de energía de 63 gigavatios en un par de años
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
AGREED WITH
Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
DISAGREED WITH
Gokul Subramaniam
Argument 2
La inferencia en el borde se volverá más prevalente, requiriendo soluciones específicas para cada propósito en lugar de enormes centros de datos centralizados
EXPLANATION
Shetty argumenta que el futuro de la IA verá más inferencia ocurriendo en el borde en lugar de en instalaciones centralizadas masivas. Este cambio requiere desarrollar soluciones específicas adaptadas a casos de uso particulares en lugar de construir enormes centros de datos para cada aplicación.
EVIDENCE
Mencionó que en un par de años, más inferencia ocurrirá en el borde y enfatizó la necesidad de soluciones específicas para cada propósito
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
AGREED WITH
Durga Malladi, Gokul Subramaniam
DISAGREED WITH
Durga Malladi
Argument 3
La seguridad y protección son desafíos importantes ya que los modelos de IA son no determinísticos y pueden alucinar o ser inyectados con toxicidad
EXPLANATION
Shetty enfatiza que los modelos de IA son intrincados, complejos y no determinísticos, lo que significa que no siempre producen la misma salida para la misma entrada. Esto crea tanto problemas de seguridad (modelos que no funcionan como se pretende, alucinaciones, toxicidad) como vulnerabilidades de seguridad donde actores maliciosos pueden cambiar el comportamiento del modelo.
EVIDENCE
Explicó la naturaleza no determinística de los modelos de IA y distinguió entre problemas de seguridad (alucinación, toxicidad) y amenazas de seguridad de actores externos maliciosos
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
AGREED WITH
Prof. V. Kamakoti, Gokul Subramaniam
DISAGREED WITH
Gokul Subramaniam
Argument 4
La visibilidad a través de toda la pila es esencial para la confianza, y los modelos mismos pueden contener vulnerabilidades
EXPLANATION
Shetty argumenta que las organizaciones necesitan visibilidad completa a través de su pila tecnológica de IA para establecer confianza. Enfatiza que los modelos de IA mismos pueden contener elementos maliciosos o vulnerabilidades, haciendo crucial verificar la integridad de los modelos que se están usando.
EVIDENCE
Hizo referencia al adagio ‘no puedes confiar en algo que no puedes ver’ y mencionó la necesidad de verificar elementos maliciosos en los modelos
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
Argument 5
Los conjuntos de datos de alta calidad, accesibles y manejables son esenciales para una implementación efectiva de IA
EXPLANATION
Shetty identifica la brecha de datos como el tercer impedimento principal para la adopción de IA, enfatizando que las organizaciones necesitan datos de alta calidad, accesibles y manejables para construir sistemas de IA efectivos. Sin datos apropiados como combustible para la IA, las organizaciones no pueden avanzar efectivamente con la implementación de IA.
EVIDENCE
Describió los datos como ‘el combustible para la IA’ y enfatizó la necesidad de conjuntos de datos de alta calidad, accesibles y manejables
MAJOR DISCUSSION POINT
Calidad de Datos y Modelos de IA Soberana
AGREED WITH
Prof. V. Kamakoti, Kazim Rizvi
Argument 6
Las empresas y gobiernos tienen los mejores conjuntos de datos que deberían utilizarse en lugar de depender únicamente de datos públicos
EXPLANATION
Shetty señala que aunque la mayoría de los modelos de IA se construyen utilizando datos públicos de texto, voz y video, las empresas y gobiernos poseen conjuntos de datos superiores que deberían aprovecharse. Sugiere construir GPTs especializados utilizando estos conjuntos de datos privados de alta calidad para entrenamiento e inferencia.
EVIDENCE
Observó que los modelos actuales utilizan datos públicos mientras que las empresas y gobiernos tienen los mejores conjuntos de datos, sugiriendo construir ‘GPTs de máquina’ con datos privados
MAJOR DISCUSSION POINT
Calidad de Datos y Modelos de IA Soberana
Argument 7
Las organizaciones necesitan protección tanto del mal uso interno (compartir información confidencial con IA de terceros) como de amenazas externas
EXPLANATION
Shetty describe un enfoque de seguridad de dos vertientes: prevenir que los empleados compartan información confidencial con servicios de IA de terceros como ChatGPT, y asegurar las aplicaciones de IA propias que las organizaciones construyen por sí mismas. Los sistemas deben ser lo suficientemente inteligentes para impedir que los usuarios compartan información inapropiada.
EVIDENCE
Dio un ejemplo específico de sistemas que impiden a los usuarios compartir información confidencial con ChatGPT
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
Argument 8
Las aplicaciones de IA en la sombra representan riesgos ya que las empresas no saben qué herramientas de IA están usando los empleados
EXPLANATION
Shetty destaca la IA en la sombra como un desafío importante donde las organizaciones desconocen qué aplicaciones de IA están utilizando sus empleados. Enfatiza la necesidad de que las organizaciones descubran, escaneen y aseguren todos sus activos de IA, incluyendo la identificación de vulnerabilidades e implementación de salvaguardas apropiadas.
EVIDENCE
Mencionó que las organizaciones necesitan descubrir activos de IA, escanear vulnerabilidades, y referenció las guías de NIST, Mitre y OWASP sobre riesgos de IA
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
G
Gokul Subramaniam
6 arguments186 words per minute572 words183 seconds
Argument 1
Los modelos específicos de dominio deben aplicarse en el borde para diferentes verticales como educación y pequeñas y medianas empresas
EXPLANATION
Subramaniam aboga por aplicar modelos de IA específicos de dominio en el borde para varios verticales industriales, destacando particularmente las oportunidades en educación (para traducción y transcripción) y pequeñas y medianas empresas. Este enfoque permite un despliegue de IA más eficiente mientras contiene las limitaciones técnicas que impiden que la IA funcione eficientemente.
EVIDENCE
Mencionó aplicaciones específicas en educación para traducción y transcripción, y oportunidades para que las pequeñas y medianas empresas usen IA de manera más efectiva
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
AGREED WITH
Durga Malladi, Arun Shetty
Argument 2
India enfrenta limitaciones físicas de tierra, agua y energía que determinarán las decisiones de configuración de infraestructura
EXPLANATION
Subramaniam identifica tres limitaciones físicas fundamentales que India no puede evitar: tierra, agua y energía. Estas limitaciones son factores críticos que determinarán cómo se establece y despliega la infraestructura de IA en todo el país, requiriendo consideración cuidadosa en la planificación e implementación.
EVIDENCE
Mencionó específicamente tierra, agua y energía como tres limitaciones físicas de las que India no puede escapar
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
AGREED WITH
Arun Shetty, Kazim Rizvi, Sridhar Babu
Argument 3
Los centros de datos requieren 40% de energía para refrigeración, 40% para cómputo, 20% para conectividad – se necesita una relación PUE óptima
EXPLANATION
Subramaniam desglosa el consumo de energía de los centros de datos, mostrando que la refrigeración y la computación consumen cada una 40% de la energía total, con la conectividad tomando 20%. Enfatiza la importancia de lograr una relación de Eficiencia de Uso de Energía (PUE) lo más cercana posible a 1.0, significando que la máxima energía va a la computación en lugar de refrigeración y otros gastos generales.
EVIDENCE
Proporcionó un desglose específico: 40% refrigeración, 40% cómputo, 20% conectividad, y explicó la métrica PUE
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
Argument 4
Los racks refrigerados por aire funcionan hasta 25 kilovatios, se necesita refrigeración líquida más allá de 100 kilovatios
EXPLANATION
Subramaniam explica las limitaciones técnicas de diferentes enfoques de refrigeración para centros de datos. La refrigeración por aire es suficiente para racks de hasta aproximadamente 25 kilovatios, pero a medida que la densidad de energía aumenta a 100 kilovatios y más, los sistemas de refrigeración líquida se vuelven necesarios para manejar el calor generado.
EVIDENCE
Proporcionó umbrales técnicos específicos: límite de 25 kilovatios para refrigeración por aire, requisito de 100 kilovatios para refrigeración líquida
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
Argument 5
Las soluciones energéticas híbridas y las capacidades fuera de la red son esenciales para las necesidades de infraestructura de India
EXPLANATION
Subramaniam argumenta que India no puede depender únicamente de energía renovable para sus necesidades de infraestructura de IA y debe desarrollar soluciones energéticas híbridas que proporcionen estabilidad. Las capacidades fuera de la red son particularmente importantes para reducir la dependencia de sistemas de energía centralizados y permitir el despliegue de IA en áreas con conectividad limitada.
EVIDENCE
Mencionó que la energía puramente renovable puede no ser suficiente y enfatizó la necesidad de soluciones estables fuera de la red
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
DISAGREED WITH
Arun Shetty
Argument 6
Proteger a los usuarios es más fundamental que solo proteger datos y modelos
EXPLANATION
Subramaniam enfatiza que mientras las discusiones a menudo se enfocan en proteger datos y modelos de IA, la preocupación más fundamental debería ser proteger a los usuarios mismos. Esto representa un cambio en el pensamiento de seguridad desde la protección de activos técnicos hacia enfoques de seguridad centrados en el ser humano.
EVIDENCE
Declaró explícitamente que proteger a los usuarios es ‘aún más fundamental’ que proteger datos y modelos
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
AGREED WITH
Arun Shetty, Prof. V. Kamakoti
DISAGREED WITH
Arun Shetty
P
Prof. V. Kamakoti
5 arguments170 words per minute611 words215 seconds
Argument 1
Diferentes tipos de inferencia y tiempos de respuesta requieren arquitecturas heterogéneas para aplicaciones de ciberseguridad
EXPLANATION
Kamakoti argumenta que las aplicaciones de ciberseguridad requieren diferentes tipos de inferencia de IA con requisitos variables de tiempo de respuesta, lo que hace necesarias arquitecturas de computación heterogéneas. Menciona específicamente cómo la inspección profunda de paquetes, tradicionalmente realizada con firmas, debe evolucionar para manejar malware que cambia dinámicamente y puede alterar sus firmas.
EVIDENCE
Hizo referencia a las capacidades de inspección profunda de paquetes de Cisco y el desafío del malware que cambia las firmas dinámicamente
MAJOR DISCUSSION POINT
Computación Heterogénea e Infraestructura de IA Distribuida
Argument 2
La confianza no es reflexiva, simétrica o transitiva, y depende del contexto y es temporal
EXPLANATION
Kamakoti proporciona un análisis matemático de la confianza, explicando que a diferencia de las relaciones de equivalencia matemática, la confianza no sigue propiedades lógicas estándar. La confianza no es reflexiva (las personas no siempre confían en sí mismas), no es simétrica (si A confía en B, B puede no confiar en A), no es transitiva (si A confía en B y B confía en C, A puede no confiar en C), y varía según el contexto y el tiempo.
EVIDENCE
Proporcionó ejemplos matemáticos: ‘A veces no confío en mí mismo’, ‘Confío en Sarah, Sarah puede no confiar en mí’, ‘Confío en Gokul, Gokul confía en ti, puede que no confíe en ti’, y explicó las dependencias contextuales y temporales
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
Argument 3
La IA adversarial puede envenenar modelos y hacer que revelen información de manera inapropiada
EXPLANATION
Kamakoti advierte sobre ataques de IA adversarial que pueden envenenar modelos de IA y hacer que revelen información que no debería ser divulgada. Esto representa una amenaza de seguridad significativa donde actores maliciosos pueden manipular sistemas de IA para que se comporten de manera inapropiada o filtren información sensible.
EVIDENCE
Mencionó que la IA adversarial puede ‘envenenar todo’ y hacer que los modelos ‘digan cosas que no deberían decirse’
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
AGREED WITH
Arun Shetty, Gokul Subramaniam
Argument 4
Los principios de necesidad de conocer deberían aplicarse a los modelos de IA para prevenir el acceso no autorizado a datos sensibles
EXPLANATION
Kamakoti hace referencia al principio de ‘necesidad de conocer’ de los protocolos de seguridad, cuestionando si los modelos de IA que comprenden conjuntos de datos completos deberían ser accesibles a usuarios que no tienen autorización para toda esa información. Esto plantea preguntas importantes sobre el control de acceso a datos en sistemas de IA.
EVIDENCE
Hizo referencia a ‘Yes Prime Minister’ y el principio de ‘necesidad de conocer’, cuestionando si alguien debería acceder a un modelo entrenado con datos para los que no tiene autorización
MAJOR DISCUSSION POINT
Seguridad y Protección en Sistemas de IA
AGREED WITH
Arun Shetty, Kazim Rizvi
Argument 5
Los modelos de IA educativa deberían ser curados como las clasificaciones de películas para asegurar contenido apropiado para diferentes audiencias
EXPLANATION
Kamakoti sugiere que los modelos de IA utilizados en educación deberían ser curados y filtrados de manera similar a como las películas son clasificadas para diferentes audiencias. Enfatiza la necesidad de controlar qué información se alimenta en los modelos de IA educativa para asegurar contenido apropiado para la edad y contextualmente adecuado.
EVIDENCE
Hizo una analogía con las juntas de clasificación de películas y enfatizó la necesidad de controlar qué detalles se alimentan en los modelos de IA educativa
MAJOR DISCUSSION POINT
Calidad de Datos y Modelos de IA Soberanos
K
Kazim Rizvi
2 arguments183 words per minute839 words275 seconds
Argument 1
La gestión energética es crucial ya que los recursos energéticos son finitos, con fuertes implicaciones ambientales
EXPLANATION
Rizvi enfatiza los aspectos ambientales del despliegue de infraestructura de IA, señalando que los recursos energéticos son finitos y que la gestión energética eficiente es crucial. Destaca que esta dimensión ambiental a menudo pasa desapercibida y no se discute a pesar de su importancia.
EVIDENCE
Mencionó que la energía es finita y destacó el aspecto ambiental que ‘a menudo pasa desapercibido y no se discute’
MAJOR DISCUSSION POINT
Limitaciones de Infraestructura y Eficiencia Energética
AGREED WITH
Arun Shetty, Gokul Subramaniam, Sridhar Babu
Argument 2
India está construyendo modelos de lenguaje grandes soberanos mientras lidera en aplicaciones de IA con más de 300 startups de IA generativa
EXPLANATION
Rizvi destaca el enfoque dual de India para el desarrollo de IA: liderando en aplicaciones de IA con más de 300 startups de IA generativa construyendo sobre modelos de lenguaje grandes, mientras también desarrolla capacidades soberanas a través de empresas como Sarvam. Esto representa la estrategia integral de India a lo largo de la cadena de valor de IA.
EVIDENCE
Citó el número específico de más de 300 startups de IA generativa y mencionó a Sarvam como ejemplo del desarrollo soberano de LLM
MAJOR DISCUSSION POINT
Calidad de Datos y Modelos de IA Soberanos
AGREED WITH
Arun Shetty, Prof. V. Kamakoti
S
Sridhar Babu
2 arguments141 words per minute166 words70 seconds
Argument 1
Los formuladores de políticas deben garantizar la provisión adecuada de energía, electricidad, agua y terrenos para la infraestructura de IA
EXPLANATION
Minister Babu reconoce los desafíos de infraestructura planteados por los expertos técnicos y se compromete a proporcionar los recursos fundamentales necesarios. Reconoce que los formuladores de políticas tienen un papel crucial en garantizar la provisión adecuada de los requisitos básicos de infraestructura que permiten el desarrollo e implementación de IA.
EVIDENCE
Respondió directamente a las preocupaciones de los panelistas sobre las limitaciones de infraestructura y se comprometió a proporcionar energía, electricidad, agua y terrenos
MAJOR DISCUSSION POINT
Política y Resiliencia Nacional
AGREED WITH
Arun Shetty, Gokul Subramaniam, Kazim Rizvi
Argument 2
El objetivo final de la implementación de IA debe ser el bienestar y la felicidad para todos los ciudadanos
EXPLANATION
Minister Babu enfatiza que independientemente de las complejidades técnicas y los desafíos de infraestructura, el objetivo fundamental del desarrollo de IA debe ser garantizar el bienestar y la felicidad para todas las personas. Esto representa un enfoque centrado en el ser humano para la política e implementación de IA.
EVIDENCE
Declaró explícitamente ‘bienestar para todos, felicidad para todos’ como la agenda básica para el impacto de la IA
MAJOR DISCUSSION POINT
Política y Resiliencia Nacional
Agreements
Agreement Points
La infraestructura de IA distribuida es superior a los centros de datos centralizados
Speakers: Durga Malladi, Arun Shetty, Gokul Subramaniam
El enfoque híbrido de IA que combina dispositivos, nube de borde y centros de datos es la solución óptima La inferencia de borde se volverá más prevalente, requiriendo soluciones específicas en lugar de enormes centros de datos centralizados Los modelos específicos de dominio deben aplicarse en el borde para diferentes verticales como educación y pequeñas y medianas empresas
Los tres expertos técnicos coinciden en que el futuro de la IA radica en arquitecturas de computación distribuida en lugar de centros de datos centralizados masivos, con la inferencia de borde volviéndose cada vez más importante para varios casos de uso
Las limitaciones de energía y potencia son desafíos críticos para la infraestructura de IA
Speakers: Arun Shetty, Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
El consumo de energía alcanzará 63 gigavatios en los próximos años, presentando importantes desafíos de infraestructura India enfrenta limitaciones físicas de tierra, agua y energía que impulsarán las decisiones de configuración de infraestructura La gestión energética es crucial ya que los recursos energéticos son finitos, con fuertes implicaciones ambientales Los formuladores de políticas deben asegurar la provisión adecuada de energía, electricidad, agua y tierra para la infraestructura de IA
Existe acuerdo unánime en que las limitaciones de energía y poder representan desafíos fundamentales que deben abordarse a través de la planificación de políticas e infraestructura
La seguridad de la IA requiere enfoques integrales y multicapa
Speakers: Arun Shetty, Prof. V. Kamakoti, Gokul Subramaniam
La seguridad y protección son desafíos importantes ya que los modelos de IA son no determinísticos y pueden alucinar o ser inyectados con toxicidad La IA adversarial puede envenenar modelos y hacer que revelen información inapropiadamente Proteger a los usuarios es más fundamental que solo proteger datos y modelos
Todos los ponentes coinciden en que la seguridad de la IA es compleja, requiriendo protección contra múltiples vectores de amenaza incluyendo envenenamiento de modelos, ataques adversariales y protección de usuarios más allá de la seguridad de datos
Los datos y modelos soberanos de alta calidad son esenciales para el despliegue efectivo de la IA
Speakers: Arun Shetty, Prof. V. Kamakoti, Kazim Rizvi
Conjuntos de datos de alta calidad, accesibles y manejables son esenciales para la implementación efectiva de IA Los principios de necesidad de conocer deben aplicarse a los modelos de IA para prevenir acceso no autorizado a datos sensibles India está construyendo modelos de lenguaje grandes soberanos mientras lidera en aplicaciones de IA con más de 300 startups de IA generativa
Existe consenso en que la calidad y soberanía de datos son cruciales, con acuerdo sobre la necesidad de acceso controlado a información sensible y desarrollo de capacidades de IA autóctonas
Similar Viewpoints
Ambos oradores enfatizan las capacidades actuales y el potencial futuro de los dispositivos edge para ejecutar modelos de IA sofisticados, demostrando la viabilidad técnica de la IA distribuida
Speakers: Durga Malladi, Gokul Subramaniam
Los teléfonos inteligentes modernos pueden ejecutar modelos multimodales de 10 mil millones de parámetros, las gafas pueden ejecutar modelos de menos de 1 mil millones de parámetros Los modelos específicos de dominio deben aplicarse en el borde para diferentes verticales como educación y pequeñas y medianas empresas
Ambos oradores abordan la confianza y seguridad desde una perspectiva de sistemas, enfatizando la complejidad de establecer confianza en los sistemas de IA y la necesidad de visibilidad y comprensión integrales
Speakers: Arun Shetty, Prof. V. Kamakoti
La visibilidad a través de toda la pila es esencial para la confianza, y los modelos mismos pueden contener vulnerabilidades La confianza no es reflexiva, simétrica o transitiva, y depende del contexto y es temporal
Ambos oradores proporcionan detalles técnicos específicos sobre los desafíos de consumo de energía en la infraestructura de IA, demostrando un profundo entendimiento de los requisitos de eficiencia energética
Speakers: Gokul Subramaniam, Arun Shetty
Los centros de datos requieren 40% de energía para enfriamiento, 40% para cómputo, 20% para conectividad – se necesita una relación PUE óptima El consumo de energía alcanzará 63 gigavatios en los próximos años, presentando importantes desafíos de infraestructura
Unexpected Consensus
Protección del usuario como preocupación principal de seguridad
Speakers: Gokul Subramaniam, Arun Shetty, Prof. V. Kamakoti
Proteger a los usuarios es más fundamental que solo proteger datos y modelos Las organizaciones necesitan protección tanto del mal uso interno (compartir información confidencial con IA de terceros) como de amenazas externas Los modelos de IA educativos deben ser curados como las clasificaciones de películas para asegurar contenido apropiado para diferentes audiencias
Mientras las discusiones técnicas a menudo se enfocan en la seguridad de datos y modelos, hubo consenso inesperado en que la protección del usuario debe ser la preocupación principal, representando un enfoque centrado en el ser humano para la seguridad de IA que va más allá de las salvaguardas técnicas tradicionales
Enfoque matemático para entender la confianza en los sistemas de IA
Speakers: Prof. V. Kamakoti, Arun Shetty
La confianza no es reflexiva, simétrica o transitiva, y depende del contexto y es temporal La visibilidad a través de toda la pila es esencial para la confianza, y los modelos mismos pueden contener vulnerabilidades
La convergencia en un enfoque matemático y sistemático para definir e implementar la confianza en sistemas de IA fue inesperada, mostrando alineación entre perspectivas académicas e industriales sobre la complejidad fundamental de la confianza
Necesidad de soluciones energéticas híbridas
Speakers: Gokul Subramaniam, Kazim Rizvi, Sridhar Babu
Las soluciones de energía híbrida y capacidades fuera de la red son esenciales para las necesidades de infraestructura de India La gestión energética es crucial ya que los recursos energéticos son finitos, con fuertes implicaciones ambientales Los formuladores de políticas deben asegurar la provisión adecuada de energía, electricidad, agua y tierra para la infraestructura de IA
El consenso de que la energía renovable pura es insuficiente y que las soluciones híbridas son necesarias representa un enfoque pragmático inesperado hacia la sostenibilidad ambiental en la infraestructura de IA
Overall Assessment

El panel demostró un consenso notable entre las perspectivas técnicas, políticas y empresariales sobre los desafíos clave y las soluciones para el despliegue de infraestructura de IA. Las principales áreas de acuerdo incluyen la superioridad de las arquitecturas de IA distribuidas, la naturaleza crítica de las limitaciones de energía y potencia, la complejidad de los requisitos de seguridad de IA, y la importancia de la soberanía de datos.

Alto nivel de consenso con fuerte alineación entre expertos de la industria, académicos y formuladores de políticas. Esto sugiere una comprensión madura de los desafíos de infraestructura de IA e indica potencial para respuestas coordinadas de política y técnicas. El acuerdo abarca tanto detalles de implementación técnica como enfoques estratégicos más amplios, sugiriendo que la estrategia de desarrollo de IA de India tiene amplio apoyo de las partes interesadas.

Differences
Different Viewpoints
Enfoque de Infraestructura de IA Centralizada vs. Distribuida
Speakers: Durga Malladi, Arun Shetty
El enfoque híbrido de IA que combina dispositivos, nube de borde y centros de datos es la solución óptima La inferencia de borde se volverá más prevalente, requiriendo soluciones específicas para cada propósito en lugar de enormes centros de datos centralizados
Mientras ambos oradores están de acuerdo en alejarse de enfoques puramente centralizados, Malladi aboga por un sistema híbrido integral que aún incluye centros de datos como parte de la solución, mientras que Shetty enfatiza moverse hacia soluciones enfocadas en el borde y alejarse completamente de construir enormes centros de datos
Enfoque Principal de Seguridad: Activos Técnicos vs. Protección Humana
Speakers: Arun Shetty, Gokul Subramaniam
La seguridad y protección son desafíos importantes ya que los modelos de IA son no determinísticos y pueden alucinar o ser inyectados con toxicidad Proteger a los usuarios es más fundamental que solo proteger datos y modelos
Shetty se enfoca extensivamente en aspectos técnicos de seguridad como vulnerabilidades de modelos, visibilidad a través de pilas, y protección de datos y modelos, mientras que Subramaniam argumenta que proteger a los usuarios mismos debería ser la preocupación más fundamental en lugar de solo la protección de activos técnicos
Estrategia de Infraestructura Energética: Soluciones Híbridas vs. Optimización de Refrigeración
Speakers: Gokul Subramaniam, Arun Shetty
Las soluciones de energía híbrida y capacidades fuera de la red son esenciales para las necesidades de infraestructura de India El consumo de energía alcanzará 63 gigavatios en los próximos años, presentando importantes desafíos de infraestructura
Subramaniam enfatiza la necesidad de soluciones de energía híbrida y capacidades fuera de la red como requisitos fundamentales, mientras que Shetty se enfoca más en la escala de los desafíos energéticos y soluciones específicas para cada propósito sin abogar específicamente por enfoques de energía híbrida
Overall Assessment

Los oradores muestran desacuerdo moderado en enfoques de implementación mientras comparten objetivos comunes en torno a IA distribuida, seguridad y eficiencia de infraestructura

El nivel de desacuerdo es moderado pero significativo, particularmente en torno a enfoques filosóficos de seguridad y el equilibrio óptimo entre infraestructura centralizada y distribuida. Estos desacuerdos tienen implicaciones importantes ya que reflejan diferentes prioridades: optimización técnica vs. diseño centrado en el ser humano, rigor teórico vs. implementación práctica, y soluciones híbridas integrales vs. enfoques enfocados en el borde. Los desacuerdos sugieren que aunque hay consenso sobre los desafíos que enfrenta el despliegue de infraestructura de IA, hay diferencias significativas en cómo abordar estos desafíos que podrían impactar las decisiones de política e implementación.

Partial Agreements
Todos los oradores coinciden en que la computación edge y la IA distribuida son importantes para el futuro, pero discrepan sobre el equilibrio óptimo entre recursos edge, cloud y de centros de datos. Malladi quiere un enfoque híbrido que incluya los tres, Shetty enfatiza soluciones específicas para cada propósito sobre grandes centros de datos, y Subramaniam se enfoca en aplicaciones edge específicas por dominio
Speakers: Durga Malladi, Arun Shetty, Gokul Subramaniam
La experiencia del usuario de IA debería ser invariante a la calidad de conectividad de red, requiriendo capacidades de inferencia en el dispositivo La inferencia de borde se volverá más prevalente, requiriendo soluciones específicas para cada propósito en lugar de enormes centros de datos centralizados Los modelos específicos de dominio deberían aplicarse en el borde para diferentes verticales como educación y pequeñas y medianas empresas
Ambos oradores coinciden en que la seguridad de la IA es una preocupación crítica y que los modelos pueden verse comprometidos, pero abordan la solución de manera diferente. Shetty se enfoca en la visibilidad organizacional, el descubrimiento de activos y las salvaguardas técnicas, mientras que Kamakoti enfatiza la complejidad matemática de la confianza y la necesidad de control de acceso basado en principios de autorización de seguridad
Speakers: Arun Shetty, Prof. V. Kamakoti
La seguridad y protección son desafíos importantes ya que los modelos de IA son no determinísticos y pueden alucinar o ser inyectados con toxicidad La IA adversarial puede envenenar modelos y hacerlos revelar información inapropiadamente
Ambos oradores coinciden en la importancia de desarrollar capacidades de IA soberana y utilizar conjuntos de datos de alta calidad, pero enfatizan aspectos diferentes. Shetty se enfoca en que las empresas y gobiernos tienen mejores conjuntos de datos que las fuentes públicas, mientras que Rizvi destaca el enfoque integral de India a través de aplicaciones y desarrollo de modelos soberanos
Speakers: Arun Shetty, Kazim Rizvi
Los conjuntos de datos de alta calidad, accesibles y manejables son esenciales para una implementación efectiva de IA India está construyendo modelos de lenguaje grandes soberanos mientras lidera en aplicaciones de IA con más de 300 startups de IA generativa
Takeaways
Key takeaways
El enfoque de IA híbrida que combina inferencia en dispositivo, nube de borde y centros de datos es esencial para el despliegue óptimo de IA, en lugar de depender únicamente de centros de datos centralizados India enfrenta limitaciones críticas de infraestructura en energía (se proyectan 63 gigavatios necesarios), tierra y agua que darán forma fundamental a las decisiones de infraestructura de IA La seguridad y protección son preocupaciones primordiales ya que los modelos de IA son no determinísticos, vulnerables a ataques adversarios, y pueden alucinar o ser envenenados con contenido malicioso Las interfaces de voz en idiomas nativos (se mencionaron 14 idiomas) representan la interfaz de usuario más natural, requiriendo procesadores heterogéneos para manejar diversos casos de uso La eficiencia energética es crucial con los centros de datos consumiendo 40% de energía para refrigeración, 40% para cómputo y 20% para conectividad – requiriendo optimización hacia una relación PUE de 1 India está liderando en aplicaciones de IA con más de 300 startups de IA generativa mientras también desarrolla modelos de lenguaje grandes soberanos para la resistencia nacional La confianza en los sistemas de IA es compleja – no reflexiva, simétrica o transitiva, y es tanto dependiente del contexto como temporal, requiriendo nuevos marcos matemáticos Los conjuntos de datos empresariales y gubernamentales de alta calidad deben aprovecharse en lugar de depender únicamente de datos públicos para entrenar modelos de IA La inferencia de borde se volverá más prevalente, con teléfonos inteligentes modernos capaces de ejecutar modelos de 10 mil millones de parámetros y gafas inteligentes ejecutando modelos de menos de 1 mil millones de parámetros
Resolutions and action items
Las organizaciones deben implementar sistemas para detectar y prevenir el intercambio de información confidencial con aplicaciones de IA de terceros Las empresas necesitan descubrir y escanear todos los activos de IA para abordar aplicaciones de IA en la sombra y vulnerabilidades Los formuladores de políticas se comprometieron a proporcionar infraestructura adecuada de energía, electricidad, agua y tierra para apoyar el desarrollo de IA Necesidad de desarrollar soluciones apropiadas para diferentes verticales como educación y pequeñas y medianas empresas usando modelos específicos de dominio Implementar barreras de protección alrededor de modelos y aplicaciones de IA vulnerables Desarrollar soluciones de energía híbrida y capacidades fuera de la red para infraestructura de IA distribuida
Unresolved issues
Cómo definir e implementar matemáticamente marcos de confianza para sistemas de IA dada su naturaleza compleja, no reflexiva, no simétrica y no transitiva Mecanismos específicos para la transición de los modelos actuales de centros de datos centralizados a infraestructura de IA híbrida distribuida Estrategias detalladas para gestionar la transición de sistemas de refrigeración por aire a refrigeración líquida cuando los requisitos de cómputo excedan 25-100 kilovatios por rack Cronogramas de implementación concretos y asignación de recursos para el requisito proyectado de 63 gigavatios de energía Enfoques de estandarización para modelos de IA soberanos en diferentes casos de uso gubernamentales y empresariales Marcos regulatorios específicos para curar modelos de IA para diferentes audiencias (similar a los sistemas de clasificación de películas mencionados para educación) Especificaciones técnicas para asegurar que la experiencia del usuario de IA permanezca invariante a la calidad de conectividad de red
Suggested compromises
Distribuir los requisitos de cómputo entre dispositivos, nube de borde y centros de datos en lugar de concentrar todo en ubicaciones centralizadas Usar servidores refrigerados por aire para despliegues de nube de borde (modelos de 100-300 mil millones de parámetros) mientras se reserva la refrigeración líquida para operaciones más grandes de centros de datos Implementar soluciones de energía híbrida combinando fuentes de energía renovable y estable en lugar de depender puramente de energía renovable Equilibrar entre usar modelos soberanos para aplicaciones sensibles mientras se aprovechan modelos globales para casos de uso generales Aplicar principios de necesidad de saber a los modelos de IA mientras se mantiene la funcionalidad para usuarios autorizados Enfocarse en proteger a los usuarios como la preocupación principal mientras también se implementan medidas de protección de datos y modelos
Follow-up Questions
¿Cómo podemos construir marcos matemáticos para definir y medir la confianza en los sistemas de IA, dado que la confianza no es reflexiva, simétrica o transitiva, y depende del contexto y es temporal?
Esto es crítico para establecer estándares de seguridad y protección en sistemas de IA, especialmente para infraestructura crítica y sistemas públicos donde los mecanismos de confianza son fundamentales para la resistencia nacional.
Speaker: Prof. V. Kamakoti
¿Cómo podemos implementar efectivamente los principios de ‘necesidad de saber’ en los modelos de IA para prevenir el acceso no autorizado a datos sensibles mientras mantenemos la funcionalidad del modelo?
Esto aborda el desafío de ciberseguridad de asegurar que los modelos de IA no expongan información sensible a usuarios que no deberían tener acceso a ella, lo cual es crucial para modelos de IA soberanos.
Speaker: Prof. V. Kamakoti
¿Qué nuevas arquitecturas se necesitan para la detección dinámica de malware cuando las firmas pueden cambiar dinámicamente, yendo más allá de la inspección profunda de paquetes tradicional?
Esto es esencial para la ciberseguridad ya que los métodos tradicionales de detección basados en firmas se vuelven inadecuados contra las amenazas evolutivas impulsadas por IA.
Speaker: Prof. V. Kamakoti
¿Cómo pueden las organizaciones descubrir y gestionar efectivamente las aplicaciones de IA en la sombra que los empleados están usando sin conocimiento del departamento de TI?
Este es un desafío crítico de seguridad empresarial ya que el uso no autorizado de IA puede llevar a violaciones de datos y infracciones de cumplimiento.
Speaker: Arun Shetty
¿Qué soluciones energéticas híbridas puede implementar India para apoyar la infraestructura de IA dadas las limitaciones de tierra, agua y energía?
Esto es crucial para el desarrollo de la infraestructura de IA de India, ya que el país enfrenta limitaciones físicas que determinarán cómo se pueden desplegar a escala los centros de datos y la computación en el borde.
Speaker: Gokul Subramaniam
¿Cómo podemos optimizar el equilibrio entre el enfriamiento por aire y el enfriamiento líquido en los centros de datos para lograr un PUE (Eficiencia de Uso de Energía) lo más cercano posible a 1?
Esto es importante para la eficiencia energética en la infraestructura de IA, ya que la refrigeración representa el 40% del consumo de energía de los centros de datos y optimizar esto podría reducir significativamente los requisitos energéticos generales.
Speaker: Gokul Subramaniam
¿Qué barreras de protección específicas y mecanismos de escaneo se necesitan para proteger contra las vulnerabilidades de los modelos de IA y asegurar que las aplicaciones de IA propias sean seguras?
Esto aborda la necesidad de implementaciones de seguridad prácticas ya que las organizaciones construyen sus propias aplicaciones de IA y necesitan protegerse tanto contra problemas de seguridad (alucinación, toxicidad) como contra amenazas de seguridad de actores maliciosos.
Speaker: Arun Shetty
¿Cómo podemos desarrollar modelos específicos de dominio para diferentes verticales mientras optimizamos para las limitaciones de inferencia en el borde como memoria, conectividad, E/S, térmica y energía?
Esto es esencial para el despliegue práctico de IA en diversas industrias, asegurando que las soluciones de IA estén adaptadas a casos de uso específicos mientras sean lo suficientemente eficientes para ejecutarse en el borde.
Speaker: Gokul Subramaniam

Disclaimer: This is not an official session record. DiploAI generates these resources from audiovisual recordings, and they are presented as-is, including potential errors. Due to logistical challenges, such as discrepancies in audio/video or transcripts, names may be misspelled. We strive for accuracy to the best of our ability.