Wenn über künstliche Intelligenz gesprochen wird, kommen schnell auch ethische Überlegungen ins Spiel. In unserer aktuellen „KI Journal Club“- Reihe stellt Dr. Till Plumbaum die neuesten Entwicklungen zu den Themen Ethik und Bias vor.

Wie können KI-Modelle so optimiert werden, dass sie Bias und toxische Sprache als Ausgabe aus dem Modell reduzieren? Während Google das Thema Bias in der AI scheinbar nicht prioritär behandelt, hat OpenAI, die Firma die unter anderem für GPT-3 verantwortlich ist, gerade ein neues Language Model vorgestellt, InstructGPT. Mittels menschlicher Annotatoren soll das Thema Bias Berücksichtigung finden und in das Modell einfließen.

Des weiteren stellt Dr. Till Plumbaum im aktuellen „KI Journal Club“ Beitrag Neuigkeiten zu KI-gestützten Programmiersystemen und dem AI-gestützten Pokemon Generator vor.

Unsere KI-Agentur ontolux stellt in der monatlichen Serie wissenschaftliche Beiträge und Presseberichte aus den Bereichen Text Mining, Machine Learning, KI, Natural Language Processing vor und beleuchtet die aktuelle Situation der maschinellen Verarbeitung von Sprache und Text.

Mehr zu KI Journal Club

 

Veröffentlichung am 28.02.2022

Bildquelle: christopher-burns-unsplash