Die wichtigste Zahl in Baidus ERNIE-5.1-Ankündigung ist nicht die Modellgröße. Es ist die Kostenbehauptung. Baidu sagt, ERNIE 5.1 übernehme die Vortrainingsbasis von ERNIE 5.0, reduziere die Gesamtparameter auf etwa ein Drittel und die aktiven Parameter auf etwa die Hälfte – und erreiche dabei führende Grundlagenleistung in seiner Größenklasse bei nur rund 6 % der Vortrainingskosten vergleichbarer Modelle [7].
Genau deshalb ist ERNIE 5.1 mehr als ein weiteres Modell-Update. Die Veröffentlichung erzählt eine ökonomische Geschichte: Leistungsfähige KI muss nicht zwingend immer über einen noch größeren, komplett neu trainierten Modelllauf entstehen. Baidu setzt stattdessen auf Wiederverwendung, Verschlankung und gezieltes Nachtraining.
Der eigentliche Punkt: Kosten-Leistung statt reiner Größe
Viele Debatten über große KI-Modelle drehen sich um Parameterzahlen, Rechenzentren und immer größere Trainingsläufe. Baidus Botschaft bei ERNIE 5.1 ist anders gelagert: Entscheidend sei, wie viel Leistung nach einer deutlichen Kompression erhalten bleibt [7].
Der ERNIE-Blog schreibt außerdem, ERNIE 5.1 belege in China Platz 1 auf Arena Search und verbessere Agenten-, Schlussfolgerungs- und Kreativfähigkeiten durch eine entkoppelte, vollständig asynchrone Reinforcement-Learning-Infrastruktur sowie skaliertes agentisches Nachtraining [12].
Für den globalen KI-Wettbewerb ist das strategisch interessant. Wenn ein Anbieter hohe Modellqualität mit deutlich weniger Vortrainingsaufwand erreichen kann, verschiebt sich der Fokus: weg von schierer Modellmasse, hin zu Trainingsdesign, Wiederverwertung vorhandener Grundlagen und effizientem Nachtraining.
Was die 6-Prozent-Zahl wirklich aussagt
Die Zahl sollte eng gelesen werden. Baidu spricht von Vortrainingskosten im Vergleich zu vergleichbaren Modellen . Daraus folgt nicht automatisch eine Aussage über die gesamten Entwicklungskosten, die späteren Betriebskosten, Inferenzpreise, Hardwareeffizienz oder den Aufwand für Nachtraining.




