ontolux bei der Buzzwords 2022

ontolux bei der Buzzwords 2022

Die Buzzwords Berlin konzentriert sich auf Themen wie Open-Source-Softwareprojekte, Suche, Speicherung, Streaming und Verarbeitung von großen Datenmengen. Qi Wu von der KI-Agentur ontolux stellt in ihrem Vortrag Methoden zur Ressourceneinsparung von KI-Modellen mittels Knowledge Destillation vor.

Vom 12. bis 14. Juni 2022 findet die Buzzwords wieder live in Berlin statt.
Die Konferenz versteht sich als eine Art Plattform für Entwickler, Ingenieure, IT-Architekten, Analysten und Datenwissenschaftler, die sich mit Information Retrieval, der Durchsuchbarkeit großer Datenmengen, NoSQL und Big Data Processing beschäftigen. In vier parallelen Slots werden mehr als 60 Vorträge in Englisch gehalten.  

Qi Wu – Machine Learning Engineer bei ontolux eröffnet am 13.06.2022 um 11:00 Uhr den Tag im Maschinenhaus der Kulturbrauerei mit ihrem Vortrag “Compress giant language models to effective and resource-saving models using knowledge distillation”.

Inhalt des Vortrags:

Über die letzten Jahre hat sich die Forschung im Bereich Natural Language Processing (NLP) zunehmend Sprachmodellen zugewandt. Trotz ihrer kurzen Geschichte werden sie erfolgreich eingesetzt und liefern erstaunliche Ergebnisse bei ganz verschiedenen textbezogenen Aufgaben wie zum Beispiel Übersetzungen, Question Answering, Information Extraction und intelligenter Suche.

Trotz all ihrer erstaunlichen Fähigkeiten vergessen wir jedoch gern, dass Sprachmodelle nicht nur daten- sondern auch energiehungrig sind. Hochmoderne Sprachmodelle wie BERT, RoBERTa und XLNet verarbeiten innerhalb der Trainingsphase Millionen von Parametern, was nur mithilfe von Dutzenden hochentwickelter Chips möglich wird. Das dadurch erzeugte CO2 ist dabei um ein Vielfaches höher als der durchschnittliche Verbrauch eines Autos über seine gesamte, durchschnittliche Lebensdauer hinweg. Solch einen hohen Energieverbrauch zu verantworten, fällt in Zeiten des Klimawandels nicht leicht. 

Damit Unternehmen von der Leistung aktueller Modelle profitieren, ohne ihre Rechenkosten zu stark zu strapazieren, gilt es die verwendeten Modelle auf ein Minimum zu reduzieren. Die Leistungsfähigkeit soll darunter natürlich nicht leiden. Ein mögliches Mittel dafür ist die sogenannte Knowledge Destillation, eine gängige Methode unter verschiedenen Komprimierungsmethoden für Sprachmodelle. Im Vortrag zeigen Qi Wu verschiedene Optionen, wie Modelle komprimiert und beschleunigt werden können. Unser Fokus liegt insbesondere darauf, wie Sie Sprachmodelle mithilfe von gezielter Knowledge Destillation so komprimieren können, dass sie ressourcensparend eingesetzt werden können, ohne dass die Modellleistung signifikant sinkt.

Programm der Buzzwords 2022

Mehr zum Thema Methoden zur Ressourceneinsparung von KI-Modellen

Teilen auf

Veröffentlichung am 17.05.2022

Das könnte Sie interessieren
Logo_AI4SCM_News

AI4SCM untersucht Supply Chain Risiken

Das neue Forschungsprojekt AI4SCM von Neofonie hat zum Ziel, Methoden für die Beobachtung und Erkennung von Supply-Chain Risiken zu entwickeln.

Portrait von Marvin Krüger bei Neofonie GmbH

Arbeiten mit chronischer Erkrankung

Menschen mit chronischen Krankheiten können leistungsfähig im Job sein, es braucht individuelle Lösungen. Wir sprachen zum Thema mit Marvin Krüger.

Schwarzes Mikrofon

Neofonie im Digital Insurance Podcast

Digital Insurance Podcast: Wie Versicherer die interne Informationsflut bewältigen und von einer ausgefeilte Intranetsuche profitieren.

ChatGPT im Realitätscheck

ChatGPT ist ein Meilenstein in der KI-Entwicklung. Doch wie können Unternehmen die Technologie einsetzen? ontolux geht der Frage nach.

Testkonzepte im Software Testing einfach erklärt

Software Testing unterstützt Firmen, qualitativ hochwertige Software auf den Markt zu bringen. Was ein Testkonzept braucht, verrät Khayrat Glende von Neofonie.

Zurück ins Büro

Die Büros von Neofonie waren zur Hochzeit der Pandemie dünn besetzt. Jetzt kehrt wieder mehr Leben ein. Wir haben Suyin Diaz zur Situation „Zurück ins Büro“ befragt.

AI-Tools auf dem Prüfstand

Immer neue AI-Tools werden auf dem Markt geschwemmt. Doch was leisten diese Tools und vor allem wie korrekt arbeiten sie? Mehr Informationen in der aktuellen Ausgabe von „KI & Forschung“.

Customer Experience – nur Kundenerfahrung zählt

Customer Experience – Schlüssel zur Kundenbindung. Wie dies gelingt, zeigen wir im Whitepaper ”Wie Versicherer von Nutzerzentrierung profitieren”.

Header_KI_Forschung_ontolux_christopher-burns-Kj2SaNHG-hg-unsplash_10_22

Autonomes Fahren auf dem Rückzug?

Ist die angekündigte Schließung von Argo AI der Tod des autonomen Fahrens? Dieses und andere Themen beleuchtet Dr. Till Plumbaum in der aktuellen Ausgabe von „KI & Forschung“.

Dastan_sexuelle_Vielfalt_Neo

Vielfalt als Stärke bei Neofonie

Vielfalt in Unternehmen ist eine Stärke. Ein Aspekt ist die sexuelle Orientierung. Wir haben Dastan Kasmamytov zu seinem ganz persönlichen Weg interviewt.

ontolux_Glossar_Header_girl-with-red-hat-OG9NZVNCnFo-unsplash_blue

Was ist Natural Language Processing

Natural Language Processing (NLP) bezeichnet die maschinelle Verwertung natürlichsprachiger Texte. ontolux stellt das Thema im KI-Blog näher vor.

KI & Forschung 09-2022

Wo steht Deutschland in Sachen Künstlicher Intelligenz made in Germany? Dr. Till Plumbaum gibt Einblicke in der aktuellen „KI & Forschung“ Ausgabe.

Unser Newsletter „Neo Report“ vermittelt konkretes Praxiswissen, Trends und Know-how für Ihr digitales Business – quartalsweise und kompakt. Jetzt anmelden.