Jensen Huang, CEO von Nvidia, wies in einem Gespräch auf dem Nvidia AI Summit in Indien auf Indiens Fortschritte auf seinem Weg zur KI hin. In Indien gibt es mittlerweile mehr als 2.000 Nvidia Inception AI-Unternehmen und mehr als 100.000 in KI geschulte Entwickler.
Im Vergleich dazu gibt es weltweit 650.000 Entwickler, die in KI-Technologien von Nvidia ausgebildet wurden, und Indiens strategischer Einstieg in die KI ist ein gutes Beispiel für das, was Huang „souveräne KI“ nennt, bei der Länder beschließen, ihre eigene KI-Infrastruktur zu schaffen, um die Kontrolle über ihre eigene zu behalten Daten.
Nvidia sagte, dass Indien zu einem wichtigen KI-Produzenten für praktisch jede Branche wird – angetrieben von Tausenden von Start-ups, die die mehrsprachige, multikulturelle Bevölkerung des Landes bedienen und skalieren
für weltweite Benutzer verfügbar.
Das Land gehört zu den sechs weltweit führenden Volkswirtschaften bei der Einführung generativer KI und verzeichnete ein schnelles Wachstum seines Startup- und Investoren-Ökosystems, das von unter 500 im Jahr 2016 auf über 100.000 Start-ups in diesem Jahr anstieg.
Mehr als 2.000 der KI-Startups Indiens nehmen an Nvidia Inception teil, einem kostenlosen Programm für Startups, das Innovation und Wachstum durch technische Schulungen und Tools, Markteinführungsunterstützung und Möglichkeiten zur Kontaktaufnahme mit Risikokapitalgebern über die Inception VC Alliance beschleunigen soll.
Auf dem NVIDIA AI Summit, der bis zum 25. Oktober in Mumbai stattfindet, tauschen rund 50 in Indien ansässige Startups KI-Innovationen aus, die in Bereichen wie Kundenservice, Sportmedien, Gesundheitswesen und Robotik Wirkung erzielen.
Konversations-KI für Kunden der Indian Railway
Das in Bengaluru ansässige Startup CoRover.ai hat bereits über eine Milliarde Nutzer seiner LLM-basierten Konversations-KI-Plattform, die text-, audio- und videobasierte Agenten umfasst.
„Die Unterstützung von NVIDIA Inception hilft uns, unsere Arbeit zur Automatisierung von Konversations-KI-Anwendungsfällen mit domänenspezifischen großen Sprachmodellen voranzutreiben“, sagte Ankush Sabharwal, CEO von CoRover, in einer Erklärung. „Die KI-Technologie von NVIDIA ermöglicht es uns, virtuelle Assistenten der Enterprise-Klasse bereitzustellen, die 1,3 Milliarden Benutzer in über 100 Sprachen unterstützen.“
Die KI-Plattform von CoRover unterstützt Chatbots und Kundendienstanwendungen für große Kunden aus dem privaten und öffentlichen Sektor, wie zum Beispiel die Indian Railway Catering and Tourism Corporation, den offiziellen Anbieter von Online-Tickets, Trinkwasser und Lebensmitteln für Indiens Bahnhöfe und Züge.
Der multimodale Chatbot des IRCTC mit dem Namen AskDISHA, nach dem Sanskrit-Wort für Richtung, bearbeitet täglich mehr als 150.000 Benutzeranfragen und hat bisher über 10 Milliarden Interaktionen für mehr als 175 Millionen Passagiere ermöglicht. Es unterstützt Kunden bei Aufgaben wie der Buchung oder Stornierung von Bahntickets, dem Wechsel des Einstiegsbahnhofs, der Beantragung von Rückerstattungen und der Überprüfung des Status ihrer Buchung in Sprachen wie Englisch, Hindi, Gujarati und Hinglish – einer Mischung aus Hindi und Englisch.
Der Einsatz von AskDISHA hat zu einer 70-prozentigen Verbesserung der Kundenzufriedenheitsrate von IRCTC und einer 70-prozentigen Reduzierung der Anfragen über andere Kanäle wie soziale Medien, Telefonanrufe und E-Mails geführt.
Die modularen KI-Tools von CoRover wurden mit Nvidia NeMo entwickelt, einem durchgängigen, cloudnativen Framework und einer Suite von Microservices für die Entwicklung generativer KI. Sie laufen auf Nvidia-GPUs in der Cloud und ermöglichen es CoRover, die Rechenressourcen bei Spitzenauslastung automatisch zu skalieren – beispielsweise bei der Freigabe von Bahntickets.
Nvidia wies außerdem darauf hin, dass das in Mumbai gegründete Unternehmen VideoVerse mithilfe von Nvidia-Technologie eine Familie von KI-Modellen aufgebaut hat, um die Erstellung von KI-gestützten Inhalten in der Sportmedienbranche zu unterstützen. Dies ermöglicht globalen Kunden wie der indischen Premier League für Cricket, der Vietnam Basketball Association und dem Mountain West Conference für den amerikanischen College-Football, um Spielhighlights bis zu 15-mal schneller zu generieren und die Zuschauerzahlen zu steigern. Es verwendet Magnifi mit einer technologieähnlichen Bildanalyse, um Spieler und Schlüsselmomente für Kurzvideos zu erkennen.
Nvidia hob außerdem das in Mumbai ansässige Startup Fluid AI hervor, das generative KI-Chatbots, Sprachanruf-Bots und eine Reihe von Anwendungsprogrammierschnittstellen zur Steigerung der Unternehmenseffizienz anbietet. Mit seinen KI-Tools können Mitarbeiter Aufgaben wie das Erstellen von Foliendecks in weniger als 15 Sekunden erledigen.
Karya mit Sitz in Bengaluru ist eine Smartphone-basierte digitale Arbeitsplattform, die es Mitgliedern einkommensschwacher und marginalisierter Gemeinschaften in ganz Indien ermöglicht, zusätzliches Einkommen zu erzielen, indem sie sprachbasierte Aufgaben erledigen, die die Entwicklung mehrsprachiger KI-Modelle unterstützen. Fast 100.000 Karya-Arbeiter nehmen Sprachproben auf, transkribieren Audio oder überprüfen die Richtigkeit von KI-generierten Sätzen in ihrer Muttersprache und verdienen für ihre Arbeit fast das Zwanzigfache des indischen Mindestlohns. Karya zahlt außerdem jedes Mal Lizenzgebühren an alle Mitwirkenden, wenn seine Datensätze an KI-Entwickler verkauft werden.
Karya beschäftigt über 30.000 Teilnehmerinnen mit niedrigem Einkommen in sechs Sprachgruppen in Indien, um bei der Erstellung des Datensatzes zu helfen, der die Entwicklung verschiedener KI-Anwendungen in der Landwirtschaft, im Gesundheitswesen und im Bankwesen unterstützen wird.
Betreuung von über einer Milliarde Muttersprachlern mit LLMs
Namaste, Vanakkam, Sat Sri Akaal – das sind nur drei Begrüßungsformen in Indien, einem Land mit 22 verfassungsmäßig anerkannten Sprachen und über 1.500 weiteren, die laut Volkszählung des Landes erfasst sind. Etwa 10 % der Einwohner sprechen Englisch, die im Internet am häufigsten verwendete Sprache.
Während Indien, das bevölkerungsreichste Land der Welt, seine Digitalisierungsbemühungen rasant vorantreibt, entwickeln seine Regierung und lokale Startups mehrsprachige KI-Modelle, die es mehr Indern ermöglichen, mit Technologie in ihrer Muttersprache zu interagieren. Es handelt sich um eine Fallstudie zur souveränen KI – der Entwicklung einer inländischen KI-Infrastruktur, die auf lokalen Datensätzen aufbaut und die spezifischen Dialekte, Kulturen und Praktiken einer Region widerspiegelt.
Diese Projekte im öffentlichen und privaten Sektor entwickeln Sprachmodelle für indische Sprachen und Englisch, die KI-Agenten für den Kundenservice von Unternehmen unterstützen, Inhalte schnell übersetzen können, um den Zugang zu Informationen zu erweitern, und es Regierungsdiensten ermöglichen, eine vielfältige Bevölkerung von über 1,4 Milliarden Menschen leichter zu erreichen .
Um Initiativen wie diese zu unterstützen, hat Nvidia ein kleines Sprachmodell für Hindi veröffentlicht, Indiens am weitesten verbreitete Sprache mit über einer halben Milliarde Sprechern. Das Modell mit dem Namen Nemotron-4-Mini-Hindi-4B ist jetzt als Nvidia NIM-Microservice verfügbar und kann für eine optimierte Leistung problemlos auf jedem GPU-beschleunigten Nvidia-System bereitgestellt werden.
Tech Mahindra, ein indisches IT-Dienstleistungs- und Beratungsunternehmen, ist das erste Unternehmen, das den Nemotron Hindi NIM-Mikroservice nutzt, um ein KI-Modell namens Indus 2.0 zu entwickeln, das sich auf Hindi und Dutzende seiner Dialekte konzentriert.
Indus 2.0 nutzt die hochwertigen Feinabstimmungsdaten von Tech Mahindra, um die Modellgenauigkeit weiter zu steigern und Möglichkeiten für Kunden im Bankwesen, im Bildungswesen, im Gesundheitswesen und in anderen Branchen zu eröffnen, lokalisierte Dienste bereitzustellen.
Das Nemotron-Hindi-Modell verfügt über 4 Milliarden Parameter und ist von Nemotron-4 15B abgeleitet, einem von Nvidia entwickelten mehrsprachigen Sprachmodell mit 15 Milliarden Parametern. Das Modell wurde beschnitten, destilliert und mit einer Kombination aus realen Hindi-Daten, synthetischen Hindi-Daten und einer gleichen Menge englischer Daten unter Verwendung von Nvidia NeMo, einem durchgängigen, cloudnativen Framework und einer Suite von Microservices für die Entwicklung generativer Lösungen, trainiert KI.
Der Datensatz wurde mit Nvidia NeMo Curator erstellt, der die Genauigkeit generativer KI-Modelle verbessert, indem hochwertige multimodale Daten im großen Maßstab für Training und Anpassung verarbeitet werden. NeMo Curator nutzt Nvidia RAPIDS-Bibliotheken, um Datenverarbeitungspipelines auf GPU-Systemen mit mehreren Knoten zu beschleunigen und so die Verarbeitungszeit und die Gesamtbetriebskosten zu senken.
Es bietet außerdem vorgefertigte Pipelines und Bausteine für die Generierung synthetischer Daten, Datenfilterung, Klassifizierung und Deduplizierung zur Verarbeitung hochwertiger Daten.
Nach der Feinabstimmung mit NeMo führt das endgültige Modell mehrere Genauigkeitsbenchmarks für KI-Modelle mit bis zu 8 Milliarden Parametern an. Als NIM-Microservice verpackt, kann es problemlos zur Unterstützung von Anwendungsfällen in Branchen wie Bildung, Einzelhandel und Gesundheitswesen genutzt werden.
Es ist als Teil der Nvidia AI Enterprise-Softwareplattform verfügbar, die Unternehmen Zugang zu zusätzlichen Ressourcen, einschließlich technischem Support und Sicherheit auf Unternehmensniveau, bietet, um die KI-Entwicklung für Produktionsumgebungen zu optimieren. Eine Reihe indischer Unternehmen nutzen die Dienste.
Indiens KI-Fabriken können die Wirtschaft verändern
Indiens führende Cloud-Infrastrukturanbieter und Serverhersteller erhöhen die beschleunigte Rechenzentrumskapazität in sogenannten KI-Fabriken von Nvidia. Bis zum Jahresende werden sie die Nvidia-GPU aufgerüstet haben
Der Einsatz im Land hat sich im Vergleich zu vor 18 Monaten fast verzehnfacht.
Zehntausende Nvidia Hopper-GPUs werden hinzugefügt, um KI-Fabriken – große Rechenzentren zur Produktion von KI – zu bauen, die Indiens große Unternehmen, Start-ups und Forschungszentren dabei unterstützen, KI-Workloads in der Cloud und vor Ort auszuführen. Insgesamt werden dadurch fast 180 Exaflops an Rechenleistung bereitgestellt, um Innovationen im Gesundheitswesen, bei Finanzdienstleistungen und bei der Erstellung digitaler Inhalte voranzutreiben.
Dieser heute auf dem Nvidia AI Summit angekündigte Ausbau beschleunigter Computertechnologie wird vom Rechenzentrumsanbieter Yotta Data Services, dem globalen digitalen Ökosystem-Enabler Tata Communications, dem Cloud-Service-Anbieter E2E Networks und dem Erstausrüster Netweb geleitet.
Ihre Systeme werden es Entwicklern ermöglichen, inländische Rechenzentrumsressourcen zu nutzen, die leistungsstark genug sind, um eine neue Welle großer Sprachmodelle, komplexer wissenschaftlicher Visualisierungen und industrieller digitaler Zwillinge voranzutreiben, die Indien an die Spitze der KI-beschleunigten Innovation bringen könnten.
Yotta Data Services bietet indischen Unternehmen, Regierungsbehörden und Forschern über seine Shakti Cloud-Plattform Zugang zu verwalteten Cloud-Diensten, um die Einführung generativer KI und die KI-Ausbildung zu fördern.
Angetrieben durch Tausende von Nvidia Hopper-GPUs werden diese Rechenressourcen durch Nvidia AI Enterprise ergänzt, eine durchgängige, cloudnative Softwareplattform, die Data-Science-Pipelines beschleunigt und die Entwicklung und Bereitstellung von Copiloten in Produktionsqualität und anderen generativen KI-Anwendungen optimiert .
Mit Nvidia AI Enterprise können Yotta-Kunden auf Nvidia NIM, eine Sammlung von Microservices für optimierte KI-Inferenz, und Nvidia NIM Agent Blueprints, eine Reihe anpassbarer Referenzarchitekturen für generative KI-Anwendungen, zugreifen. Dies wird es ihnen ermöglichen, schnell optimierte, hochmoderne KI für Anwendungen wie die Generierung von Biomolekülen, die Erstellung virtueller Avatare und die Sprachgenerierung einzuführen.
„In der Zukunft der KI geht es um Geschwindigkeit, Flexibilität und Skalierbarkeit. Deshalb ist die Shakti Cloud-Plattform von Yotta darauf ausgelegt, die üblichen Hindernisse zu beseitigen, mit denen Unternehmen aller Branchen bei der Einführung von KI konfrontiert sind“, sagte Sunil Gupta, CEO von Yotta, in einer Erklärung. „Shakti Cloud vereint leistungsstarke GPUs, optimierten Speicher und eine Serviceschicht, die die KI-Entwicklung vom Modelltraining bis zur Bereitstellung vereinfacht, sodass Unternehmen ihre KI-Bemühungen schnell skalieren, Abläufe rationalisieren und die Grenzen dessen, was KI leisten kann, erweitern können.“