LLM Funktionsweise: Warum Ihre Daten und Prompts die KI nicht direkt trainieren, sondern nur instruieren
- dominic7248
- vor 6 Tagen
- 3 Min. Lesezeit
Aktualisiert: vor 5 Tagen
Die Versuchung ist gross: Ein internes Protokoll mit 30 Seiten in ChatGPT hochladen und in 15 Sekunden eine perfekte Zusammenfassung erhalten. Ein Geschäftsbericht, eine Kundenliste, eine Projektplanung, die Effizienzgewinne durch Künstliche Intelligenz sind greifbar. Doch fast jeder Schweizer KMU-Entscheider stellt sich dieselbe kritische Frage: Was passiert hier eigentlich mit meinen vertraulichen Daten? Trainiere ich damit die globale KI und teile mein Firmenwissen mit der ganzen Welt?
Die kurze, klare Antwort lautet: Nein.
Die Verwirrung entsteht durch zwei Begriffe, die oft fälschlicherweise synonym verwendet werden: Training und Instruktion. Wenn Sie diesen Unterschied verstehen, können Sie die Vorteile von Sprachmodellen sicher und souverän nutzen.

LLM Funktionsweise im Überblick: Wie ein LLM sein "Wissen" erlernt
Stellen Sie sich keinen Computer vor, sondern einen Universal-Experten. Dieser Experte hat in einer einmaligen, intensiven Lernphase fast das gesamte öffentlich zugängliche Wissen des Internets, unzählige Bücher und wissenschaftliche Artikel bis zu einem bestimmten Stichtag (z.B. Anfang 2023) gelesen und verinnerlicht.
Dieser Prozess wird als "Pre-Training" (Vortraining) bezeichnet. Es ist ein gigantischer, millionenschwerer Aufwand, der von Unternehmen wie Google, Microsoft oder OpenAI betrieben wird. Das Ergebnis ist ein Basismodell, ein statisches, quasi "eingefrorenes" Gehirn mit Milliarden von neuronalen Verbindungen (Parametern). Dieses Gehirn wird nach Abschluss des Trainings nicht mehr durch Ihre oder andere Nutzereingaben verändert.

Wenn Sie heute ChatGPT nutzen, greifen Sie auf einen Experten zu, dessen Ausbildung bereits abgeschlossen ist.
Der entscheidende Unterschied: Training vs. Instruktion
Sie können diesem ausgebildeten Experten nun spezifische Aufgaben geben. Und genau hier liegt der Schlüssel zum Verständnis.
Der Prompt als Arbeitsauftrag
Eine Eingabe in ein LLM, der sogenannte "Prompt", ist keine Trainingseinheit, sondern eine Instruktion oder ein Arbeitsauftrag. Sie sagen dem Experten nicht, wie er denken soll, sondern was er tun soll:
"Fasse mir das folgende Dokument zusammen."
"Analysiere diese Kundendaten auf wiederkehrende Muster."
"Schreibe eine E-Mail im Stil von Person X, basierend auf diesen Stichpunkten."
Das "Kontextfenster": Das Kurzzeitgedächtnis der KI
Um diesen Auftrag auszuführen, benötigt der Experte die relevanten Unterlagen, also die Daten, die Sie ihm zur Verfügung stellen. Diese Informationen werden ausschliesslich in das sogenannte "Kontextfenster" geladen.
Man kann sich das Kontextfenster wie das Kurzzeitgedächtnis des Modells vorstellen. Es ist der temporäre "Arbeitstisch", auf den Sie für die Dauer einer einzigen Konversation alle nötigen Dokumente und Informationen legen. Der Experte nutzt diese Unterlagen, um Ihren spezifischen Auftrag zu bearbeiten.

Der Experte vergisst wieder
Sobald die Aufgabe erledigt ist oder Sie den Chat schliessen, wird der Arbeitstisch abgeräumt. Das Kurzzeitgedächtnis wird geleert. Das LLM "vergisst" die spezifischen Daten Ihrer Anfrage wieder. Es lernt nichts Dauerhaftes über Ihr Unternehmen, Ihre Kunden oder Ihre Projekte hinzu. Ihre Daten fliessen nicht in das Grundwissen des globalen Modells ein. Sie haben die KI instruiert, nicht trainiert.
Die pragmatische Konsequenz für die Datensicherheit in Ihrem KMU
Wenn das Modell Ihre Daten also nicht für sein Training nutzt, wo liegt dann das Risiko? Die Antwort liegt nicht in der Technologie selbst, sondern in den Nutzungsbedingungen der Anbieter.
Das wahre Risiko: Training zukünftiger Modelle
Genau an diesem Punkt beobachten wir in unseren KI-Schulungen für Schweizer KMU oft das grösste Missverständnis. Ihre Eingabe trainiert zwar nicht das aktuelle Modell, mit dem Sie interagieren. Aber, und das ist die entscheidende Klausel im Kleingedruckten vieler öffentlicher Tools, Sie geben dem Anbieter oft das Recht, Ihre Konversationen zu speichern und für das Training zukünftiger Modelle zu verwenden.
Das bedeutet: Ihre heutige Strategieplanung oder die Analyse Ihrer Kundendaten könnte Teil des allgemeinen Wissens von GPT-5 oder einer zukünftigen Version werden. Um bei unserer Metapher zu bleiben: Der Besitzer des öffentlichen Cafés, in dem Sie Ihren vertraulichen Fall besprechen, nimmt das gesamte Gespräch auf, um damit einen neuen Mitarbeiter auszubilden. Ein für jedes Unternehmen inakzeptables Risiko.
Die Lösung: Ein privater, geschützter Arbeitsraum
Die Lösung besteht darin, die Kontrolle über die "Arbeitsumgebung" zu behalten. Sie müssen sicherstellen, dass der Experte in einem privaten, geschützten "Büro" arbeitet. Dies wird durch Enterprise-Lösungen wie ChatGPT Enterprise/Team oder die Nutzung der Modelle über eine sichere Cloud-Umgebung wie Microsoft Azure erreicht. In diesen geschützten Umgebungen ist vertraglich garantiert, dass Ihre Konversationen vertraulich bleiben und für keinerlei andere Zwecke verwendet werden.
Fazit: Denken Sie in Aufträgen, nicht in Trainingseinheiten

Denken Sie in Aufträgen an einen externen Fachexperten. Sie geben ihm genau die Informationen, die er für den aktuellen Auftrag benötigt, nicht mehr und nicht weniger. Und, was am wichtigsten ist: Sie stellen sicher, dass er in einer sicheren und vertraulichen Umgebung arbeitet.
Mit diesem pragmatischen mentalen Modell können Sie die Leistung von Sprachmodellen souverän und sicher für Ihr Unternehmen erschliessen.