KI-Modelle komprimieren und Ressourcen sparen
Viele KI-Modelle haben hohe Trainings- und Betriebskosten und damit sowohl wirtschaftliche als auch ökologische Folgen. Qi Wu von ontolux stellt einige Methoden der Modellkomprimierung vor, die helfen, den CO₂-Fußabdruck, der durch die Verwendung neuronaler Netze entsteht, zu verringern.
Es wurden bereits eine Vielzahl an Techniken der Modellkomprimierung und -beschleunigung entwickelt, damit hochmoderne Deep Learning-Modelle in energie- und ressourcensparenden Geräten eingesetzt werde können, ohne dass die Modellleistung signifikant sinkt.
Qi Wu ist Machine Learning Engineer bei ontolux und stellt verschiedene Lösungsoptionen zur Ressourceneinsparung vor.
Veröffentlichung am 17.01.2022
Das könnte sie auch interessieren