
Der Gründer von Ola, Bhavish Aggarwal, investiert 230 Millionen US-Dollar in ein KI-Startup, das er gegründet hat, während das Land versucht, sich in einem von US-amerikanischen und chinesischen Unternehmen dominierten Bereich zu etablieren.
Aggarwal finanziert die Investition in Krutrim - das LLMs für indische Sprachen entwickelt hat - größtenteils über sein Family Office, wie eine mit der Angelegenheit vertraute Quelle TechCrunch mitteilte. In einem Beitrag auf X sagte Aggarwal am Dienstag, dass Krutrim bis zum nächsten Jahr eine Investition von 1,15 Milliarden US-Dollar anstrebt. Den Rest des Kapitals wird er laut der Quelle von externen Investoren einwerben.
Die Finanzierungserklärung fällt mit dem Einhörner-Startup Krutrim zusammen, das seine KI-Modelle Open Source gemacht hat und Pläne bekannt gegeben hat, in Partnerschaft mit Nvidia den nach eigenen Angaben größten Supercomputer Indiens zu bauen.
Das Labor hat Krutrim-2 veröffentlicht, ein 12-Milliarden-Parameter-Sprachmodell, das eine starke Leistung bei der Verarbeitung indischer Sprachen gezeigt hat. In Stimmungsanalysen, die Krutrim am Dienstag teilte, erreichte es einen Wert von 0,95 im Vergleich zu 0,70 bei konkurrierenden Modellen und erzielte eine Erfolgsquote von 80% bei der Codegenerierung.
Das Labor hat mehrere spezialisierte Modelle Open Source gemacht, darunter Systeme zur Verarbeitung von Bildern, Sprachübersetzung und Textsuche, die alle für indische Sprachen optimiert sind.
„Wir sind noch weit von globalen Benchmarks entfernt, haben aber in einem Jahr gute Fortschritte gemacht“, schrieb Aggarwal, dessen andere Unternehmungen von SoftBank unterstützt wurden, auf X. „Durch die Open Source unserer Modelle hoffen wir, dass die gesamte indische KI-Community zusammenarbeitet, um ein erstklassiges indisches KI-Ökosystem zu schaffen.“
Die Initiative fällt zusammen, als Indien versucht, sich in einem von US-amerikanischen und chinesischen Unternehmen dominierten KI-Landschaft zu etablieren. Die kürzlich erfolgte Veröffentlichung des „Reasoning“-Modells R1 von DeepSeek, das mit einem angeblich bescheidenen Budget entwickelt wurde, hat die Tech-Branche erschüttert.
Indien lobte letzte Woche den Fortschritt von DeepSeek und sagte, dass das Land das große Sprachmodell des chinesischen KI-Labors auf Inlandsservern hosten wird. Krutrim‘s Cloud-Arm begann letzte Woche, DeepSeek auf indischen Servern anzubieten.
Krutrim hat auch ein eigenes Bewertungsframework, BharatBench, entwickelt, um die Kompetenz von KI-Modellen in indischen Sprachen zu bewerten, wodurch eine Lücke in den bestehenden Benchmarks geschlossen wird, die hauptsächlich auf Englisch und Chinesisch fokussieren.
Der technische Ansatz des Labors umfasst die Verwendung eines 128.000-Token-Kontextfensters, was es seinen Systemen ermöglicht, längere Texte und komplexere Gespräche zu verarbeiten. Die von dem Startup veröffentlichten Leistungsmetriken zeigten, dass Krutrim-2 hohe Punktzahlen bei der Grammatikkorrektur (0,98) und bei Mehrfachgesprächen (0,91) erreichte.
Die Investition folgt auf die Einführung von Krutrim-1 im Januar, einem 7-Milliarden-Parameter-System, das als erstes großes Sprachmodell Indiens diente. Die Bereitstellung des Supercomputers mit Nvidia ist für März geplant, wobei eine Erweiterung im Laufe des Jahres vorgesehen ist.