Christian Krauter
GPT-Was? – Wie KI.m Generative pre-trained transformer Modelle nutzt.
Der Chatbot ChatGPT ist gerade in aller Munde und hat in weniger als einer Woche 1 Millionen Nutzer gewonnen. Aus diesem Grund möchten wir einen Blick hinter die Kulissen werfen und Euch das Modell hinter diesem Chatbot vorstellen, denn auch KI.m nutz diesen und dessen verblüffende Fähigkeiten.
ChatGPT wurde nämlich auf das Deep-Learning-Modell GPT3 (GPT 3.5) abgestimmt. GPT3 steht für Generative Pretrained Transformer 3 und ist ein Sprachmodell, welches mit einer riesigen Menge an Daten aus dem Internet trainiert wurde. Dabei nutzt dieses Sprachmodell Textdaten, um eine Grundlage für Wortvorhersagen zu schaffen, denn im Grunde lernt GPT3 lediglich, die Wahrscheinlichkeit einer Folge von Wörtern vorherzusagen. Dadurch ist das Modell in der Lage menschenähnliche, Texte zu verfassen, zusammenzufassen, zu vereinfachen oder zu übersetzten. Entwickelt wurde das Sprachmodell von der ehemaligen Non-Profit-Organisation OpenAI.
KI.m nutz eben jenes Sprachmodell, um Aussagen zu generieren.
Dazu werden dem Modell in einem Prompt verschiedene Parameter mitgegeben, welche dazu führen, dass dieses eine auf die Situation und den Kontext passende Aussage generiert. Diese Parameter sind unter anderem Informationen über die Aussagen des Users, Informationen über den Chatflow (den geplanten Ablauf der Konversation), sowie situationsspezifische Informationen zum Thema Führung. Insbesondere die situationsspezifischen Informationen über Führung, welche aus einem eigens entwickeltem Leadership-Modell entstammen sind essenziell, denn diese Stellen bis zu einem gewissen Grad sicher, dass das Sprachmodell keine Falschinformationen generiert.
Damit ist GPT3 ein Tool unter vielen, dass von KI.m verwendet wird, um ein Mentoring-Erlebnis zu bieten das begeistert.
Im Folgenden möchten wir Euch einen kleinen Insight in KI.m und damit auch in das Sprachmodell GPT3 geben. Wir zeigen Euch Ausschnitte aus einem Mentoring mit dem KI.m Prototyp 2.0.

KI.m bittet den User, seine aktuelle Führungssituation ausführlich zu beschreiben und frägt anschließend detaillierter nach, um genügend Informationen für den weiteren Verlauf des Mentorings zu bekommen.

KI.m frägt den User nach dessen Ziel für die Mentoring Session.

KI.m stellt dem User drei Reflexionsfragen, welche diesem dabei helfen, neue Perspektiven zu entwickeln und seine aktuelle Situation aus einem anderen Blickwinkel zu betrachten.

KI.m fässt alle Informationen, die sie aus dem bisherigen Mentoring aufgenommen hat, zusammen.

KI.m bietet dem User einen Impuls in Form einer Handlungsempfehlung.
Auch wenn GPT3 ein mächtiges Sprachmodell ist, unterliegt es dennoch Limitationen. So neigt GPT3 bei längeren Texten beispielsweise dazu, sich zu wiederholen oder kann in deutscher Sprache teilweise grammatikalische bzw. rechtschreibliche Fehler produzieren und ausspielen. Außerdem kann GPT3 im deutschen beispielsweise nur schwer zwischen „Du“ und „Sie“ differenzieren und fängt deshalb in unterschiedlichen Aussagen an zu „Duzen“ oder zu „Siezen“. Die am schwersten wiegende Limitation ist jedoch, dass das Sprachmodell auch Falschinformationen oder Biases generieren und ausspielen kann. Mit Blick auf diese Limitationen ist es deshalb unerlässlich, Kontrollinstanzen und Maßnahmen einzurichten, damit die Nutzer von KI.m durch diese Schwächen nicht beeinträchtigt werden. Dazu haben wir verschiedene Klassifizierungsmodelle trainiert und wörterbuchbasierte Klassifizierter implementiert um toxische, unangemessene oder rechtschreiblich falsche Aussagen zu erkennen und zu eliminieren. Des weiteren werden die generierten Texte durch einen Moderationsendpunkt von OpenAI geleitet um zu prüfen, ob diese mit den Inhaltsrichtlinien von OpenAI übereinstimmen. Um zu verhindern, dass Falschinformationen durch KI.m verbreitet werden und eine gute Qualität an Impulsen zu gewährleisten, geben wir dem Sprachmodell GPT3, wie bereits beschrieben passende Informationen zum Thema Führung mit, auf welche sich das Sprachmodell dann beziehen kann.
Jedoch bleibt es wichtig diese Limitationen zu kennen und sich bewusst zu machen, dass die Hinweise und Aussagen welche man erhält von einer KI generiert wurden, die wie bei Menschen, auch Falschinformationen verbreiten und Biases unterliegen kann. Von daher darf kein Hinweis und keine Handlungsempfehlung, welche durch eine Form der Künstlichen Intelligenz generiert wurde, ohne diesen zu hinterfragen, angewendet werden.