Huawei har præsenteret Flex:ai, et nyt softwareværktøj, der skal optimere brugen af AI-chips i store beregningsklynger.
Samtidig danner systemet grundlag for udviklingen af Huaweis egen analoge AI-chip, som ifølge selskabet kan blive op til 1000 gange hurtigere end Nvidias nuværende løsninger.
Lanceringen fandt sted fredag den 21. november og markerer et strategisk skifte for den kinesiske virksomhed, der nu satser på softwareeffektivitet frem for udelukkende at udvikle ny hardware.
Flex:ai skal sikre, at eksisterende GPU’er og NPU’er udnyttes langt bedre. Systemet kan ifølge Huawei løfte udnyttelsesgraden med omkring 30 procent ved at opdele chipsene i virtuelle enheder og fordele beregningerne dér, hvor der er ledig kapacitet. I centrum står planlægningsværktøjet Hi Scheduler, som overvåger hele systemet og automatisk flytter regneopgaver rundt i realtid.
Løsningen er bygget oven på det åbne Kubernetes-system, men Huawei har udvidet det, så både selskabets egne Ascend NPU’er, specialdesignede processorer til kunstig intelligens, og almindelige GPU’er (grafikprocessorer, der også bruges til AI-træning) kan arbejde sammen i ét samlet miljø.
Flex:ai minder på flere måder om Run:ai; en platform, som Nvidia opkøbte i 2024, men Huawei går en anden vej ved at gøre softwaren open source. Det kan få stor betydning i Kina, hvor virksomheder efter de seneste amerikanske eksportrestriktioner er nødt til at få mest muligt ud af den hardware, de allerede råder over.
Den fulde kildekode til Flex:ai er dog endnu ikke offentliggjort, og Huawei har heller ikke fremlagt dokumentation eller testresultater. Ifølge selskabet har forskere fra Shanghai Jiao Tong, Xi’an Jiaotong og Xiamen University bidraget til udviklingen af systemet.