KI-Modelle komprimieren und Ressourcen sparen

Viele KI-Modelle haben hohe Trainings- und Betriebskosten und damit sowohl wirtschaftliche als auch ökologische Folgen. Qi Wu von ontolux stellt einige Methoden der Modellkomprimierung vor, die helfen, den CO₂-Fußabdruck, der durch die Verwendung neuronaler Netze entsteht, zu verringern. 

Es wurden bereits eine Vielzahl an Techniken der Modellkomprimierung und -beschleunigung entwickelt, damit hochmoderne Deep Learning-Modelle in energie- und ressourcensparenden Geräten eingesetzt werde können, ohne dass die Modellleistung signifikant sinkt.

Qi Wu ist Machine Learning Engineer bei ontolux und stellt verschiedene Lösungsoptionen zur Ressourceneinsparung vor.

 

Mehr zur Modellkomrimierung

 

Veröffentlichung am 17.01.2022