Halluzinationen, Bias, Datenlecks: Die KI-Risiken, die KMU kennen sollten

Du hast gerade deinem Team ChatGPT freigeschaltet. Die ersten Ergebnisse begeistern: E-Mails werden schneller geschrieben, Recherchen dauern die Hälfte der Zeit, Angebote klingen plötzlich professioneller. Alles läuft. Bis jemand eine KI-generierte Produktbeschreibung an einen Kunden schickt, in der ein Preis steht, den es nie gab. Oder bis die Buchhalterin merkt, dass vertrauliche Kundendaten in einem Prompt gelandet sind, der auf einem fremden Server verarbeitet wurde.
Solche Situationen sind kein Worst-Case-Szenario aus einer Fachkonferenz. Sie passieren jeden Tag in kleinen und mittelständischen Unternehmen, die KI-Tools einsetzen, ohne die Risiken zu kennen. Die Werkzeuge sind mächtig. Aber wie bei jedem mächtigen Werkzeug gibt es Stellen, an denen man sich verletzen kann, wenn man nicht weiß, wo die Klingen sind.
Dieser Artikel ist ein nüchterner Überblick. Keine Panikmache, keine Entwarnung. Stattdessen drei konkrete Risikobereiche, die jedes KMU kennen sollte, und pragmatische Gegenmaßnahmen, die ohne großes Budget oder IT-Abteilung umsetzbar sind.
Risiko 1: Halluzinationen. Wenn die KI überzeugend lügt.
Das Wort klingt dramatisch, der Mechanismus ist nüchtern: Sprachmodelle wie ChatGPT, Claude oder Gemini generieren Text, der statistisch plausibel klingt. Sie „wissen“ nichts im menschlichen Sinn. Sie berechnen, welches Wort als Nächstes wahrscheinlich ist. Meistens passt das Ergebnis. Manchmal nicht. Und wenn es nicht passt, merkt man das oft erst auf den zweiten Blick, weil der Text trotzdem flüssig und selbstbewusst klingt.
Ein Beispiel aus dem Alltag: Du bittest die KI, eine Übersicht über Förderprogramme für Digitalisierung in deinem Bundesland zu erstellen. Das Ergebnis liest sich hervorragend. Programmnamen, Förderhöhen, Antragsfristen. Alles klingt plausibel. Aber bei der Prüfung stellst du fest: Zwei der fünf Programme existieren nicht. Die KI hat sie aus Fragmenten echter Programme zusammengesetzt und mit erfundenen Details angereichert. Es sieht aus wie Recherche, ist aber Fiktion.
Warum passiert das? Sprachmodelle haben keinen Zugang zu einer Faktendatenbank. Sie haben Muster in Texten gelernt und reproduzieren diese Muster. Wenn die Trainingsdaten Förderprogramme erwähnen, erzeugt das Modell plausible Förderprogramme. Ob diese aktuell existieren, kann es nicht beurteilen.
Was du konkret tun kannst
- Regel Nummer eins: Niemals KI-Output ungeprüft veröffentlichen oder weiterleiten. Klingt banal, wird aber täglich verletzt. Jede Zahl, jeder Faktencheck, jede Quellenangabe muss von einem Menschen verifiziert werden. Das gilt besonders für Angebote, Verträge und alles, was an Kunden geht.
- Führe eine „Faktencheck-Minute“ ein. Bevor ein KI-generierter Text das Unternehmen verlässt, prüft die verantwortliche Person eine Minute lang: Stimmen die Zahlen? Gibt es die genannten Quellen? Existieren die beschriebenen Produkte oder Programme? Eine Minute reicht oft, um die gröbsten Fehler zu finden.
- Nutze KI für Struktur, nicht für Fakten. Sprachmodelle sind hervorragend darin, Informationen zu strukturieren, Texte zu formulieren und Entwürfe zu erstellen. Sie sind schlecht darin, korrekte Fakten zu liefern, die sie nicht aus dem Kontext kennen. Gib der KI die Fakten, und lass sie daraus einen Text machen. Nicht umgekehrt.
- Bitte die KI explizit um Unsicherheitshinweise. Ein Zusatz im Prompt wie „Wenn du dir bei einer Angabe nicht sicher bist, kennzeichne sie als unbestätigt“ verändert das Antwortverhalten spürbar. Die Halluzinationen verschwinden nicht, aber sie werden sichtbarer.
- Nutze Tools und Modi, die gezielt auf Faktenrecherche ausgelegt sind. Die großen Anbieter haben inzwischen spezielle Funktionen entwickelt, die das Halluzinationsrisiko deutlich reduzieren. ChatGPT, Gemini und Claude bieten sogenannte „Deep Research“-Modi an, in denen das Modell aktiv im Internet recherchiert, mehrere Quellen abgleicht und die Ergebnisse mit Quellenangaben belegt, bevor es antwortet. Das ist ein grundlegend anderer Ansatz als der normale Chat, weil das Modell nicht mehr aus dem Gedächtnis antwortet, sondern aktuelle Informationen zusammenträgt. Daneben gibt es spezialisierte Tools wie Perplexity, die von Grund auf als Rechercheassistenten konzipiert sind. Perplexity kuratiert den Suchkontext gezielt so, dass Halluzinationen minimiert werden, und liefert zu jeder Aussage direkt die Quelle mit. Für Recherchen, bei denen Fakten stimmen müssen, etwa Förderprogramme, rechtliche Rahmenbedingungen oder Marktdaten, sind diese Modi und Tools dem normalen Chatbot-Gespräch deutlich überlegen.
Risiko 2: Bias. Wenn die KI systematisch schief liegt.
Bias bedeutet: Das Modell bevorzugt bestimmte Perspektiven, Formulierungen oder Annahmen gegenüber anderen. Nicht aus Absicht, sondern weil die Trainingsdaten diese Schieflage enthalten. Das Internet, auf dem diese Modelle trainiert wurden, bildet nicht die Welt ab, wie sie ist. Es bildet ab, wer im Internet schreibt. Und das ist eine bestimmte demografische Gruppe, eine bestimmte Sprache, eine bestimmte Perspektive.
Für KMU wird das in mehreren Situationen relevant:
Stellenausschreibungen. Wenn du die KI bittest, eine Stellenausschreibung zu formulieren, kann es passieren, dass sie Formulierungen wählt, die unbeabsichtigt bestimmte Bewerbergruppen eher ansprechen als andere. Zum Beispiel neigen KI-generierte Jobtexte manchmal zu eher maskulin codierten Begriffen wie „durchsetzungsstark“ oder „belastbar“. Das muss kein großes Problem sein, aber es lohnt sich, den Text vor der Veröffentlichung einmal bewusst darauf zu prüfen.
Kundenkommunikation. KI-Modelle tendieren zu einem bestimmten Stil: förmlich, leicht amerikanisch geprägt, mit einer Vorliebe für positive Formulierungen. Wenn dein Unternehmen einen direkten, norddeutschen Ton pflegt oder eine sehr technische Zielgruppe anspricht, kann der KI-Output systematisch an deiner Marke vorbei formulieren.
Markteinschätzungen und Recherchen. Wenn du die KI nach Markttrends oder Branchenanalysen fragst, liefert sie überproportional Perspektiven aus dem US-amerikanischen, englischsprachigen Markt. Für ein KMU in Deutschland kann das irreführend sein: Trends, Regulierungen und Kundenverhalten unterscheiden sich erheblich.
Was du konkret tun kannst
- Gib dem Modell deinen Kontext. Je mehr du über Zielgruppe, Region, Branche und Tonalität im Prompt mitgibst, desto weniger fällt das Modell auf seine Standardmuster zurück. „Formuliere für ein mittelständisches Handwerksunternehmen in Süddeutschland, Zielgruppe: Meister und Gesellen, Ton: direkt und praxisnah“ liefert ein anderes Ergebnis als eine vage Anweisung.
- Prüfe Stellenausschreibungen auf Gendering. Es gibt kostenlose Online-Tools, die Texte auf geschlechtsspezifische Codierung analysieren. Lass KI-generierte Jobtexte durch so ein Tool laufen, bevor du sie veröffentlichst.
- Hinterfrage Marktdaten systematisch. Wenn die KI Markttrends liefert, frage explizit nach: „Beziehen sich diese Daten auf Deutschland oder auf den US-Markt?“ und „Welche Quellen liegen diesen Einschätzungen zugrunde?“ Oft genügt die Rückfrage, um die Antwort zu korrigieren oder ihre Grenzen sichtbar zu machen.
Risiko 3: Datenlecks. Wenn vertrauliche Informationen das Unternehmen verlassen.
Das ist für viele KMU das greifbarste Risiko. Und es ist real. Jedes Mal, wenn jemand in deinem Team einen Text in ChatGPT eingibt, werden diese Daten an einen externen Server übermittelt. Was dort damit passiert, hängt vom Anbieter, vom Tarif und von den Nutzungsbedingungen ab.
In der kostenlosen Version von ChatGPT können eingegebene Daten zur Verbesserung des Modells verwendet werden, sofern man dem nicht explizit widerspricht. Das bedeutet im Klartext: Kundennamen, Kalkulationen, interne Strategien oder Vertragsentwürfe, die jemand in den Chatbot eingibt, könnten potenziell in den Trainingsdaten landen. Die Wahrscheinlichkeit, dass exakt dieser Text wieder auftaucht, ist gering. Aber allein die Tatsache, dass vertrauliche Daten auf einem fremden Server verarbeitet werden, ist ein DSGVO-Problem.
Die Business-Tarife der großen Anbieter (ChatGPT Team/Enterprise, Claude Pro, Google Workspace mit Gemini) versprechen, dass eingegebene Daten nicht zum Training verwendet werden. Das ist ein wichtiger Unterschied. Aber auch hier gilt: Die Daten werden auf externen Servern verarbeitet. Wer besonders sensible Daten hat, etwa im Gesundheitswesen, bei Rechtsanwälten oder in der Finanzbranche, muss hier genauer hinschauen.
Typische Szenarien, die schiefgehen
Stell dir folgende Situation vor: Lisa (fiktiver Name) ist Projektmanagerin in einem kleinen IT-Dienstleister. Sie kopiert eine E-Mail ihres Kunden Schmidt GmbH (fiktiver Name) in ChatGPT, um eine Antwort formulieren zu lassen. In der E-Mail stehen Projektdetails, Budgetzahlen und der Name der Ansprechpartnerin. Lisa macht sich keine Gedanken, sie will nur eine schnelle Antwort.
Was Lisa nicht bedacht hat: Die Budgetzahlen der Schmidt GmbH liegen jetzt auf einem US-Server von OpenAI. Im kostenlosen Tarif könnten sie ins Training fließen. Selbst im Business-Tarif hat sie personenbezogene Daten (Name der Ansprechpartnerin) ohne Rechtsgrundlage an einen Drittanbieter übermittelt. Das ist ein DSGVO-Verstoß, auch wenn wahrscheinlich nie jemand davon erfährt.
Was du konkret tun kannst
- Pseudonymisierung als Standard. Ein einfacher Schritt, der erstaunlich viel bewirkt: Bevor Daten an eine KI gehen, werden Personennamen, Firmennamen und sensible Zahlen durch Platzhalter ersetzt. Aus „Frau Müller von der Schmidt GmbH“ wird „[ANSPRECHPARTNERIN] von [FIRMA]“. Im fertigen Ergebnis setzt man die echten Daten wieder ein. Das dauert Sekunden und schützt zuverlässig. Ausführliche Beispiele dazu findest du in meinem Artikel „KI für den Schreibtisch-Alltag im KMU“.
- Business-Tarife verwenden, nicht die kostenlose Version. Die Investition lohnt sich: kein Training auf deinen Daten, besserer Datenschutz, und in der Regel auch bessere Modelle. Für ein Team von fünf Personen sind das 100 bis 150 Euro im Monat. Gemessen am Risiko eines DSGVO-Verstoßes ist das ein Bruchteil.
- Klare Richtlinien: Was darf rein, was nicht. Definiere für dein Unternehmen, welche Daten in KI-Tools eingegeben werden dürfen und welche nicht. Eine einfache Ampelregel funktioniert gut: Grün (öffentlich verfügbare Informationen, allgemeine Fragen, Texte ohne Personenbezug). Gelb (interne Informationen, pseudonymisiert). Rot (Gesundheitsdaten, Finanzinformationen von Kunden, Verträge, Personaldaten). Rot geht nie in einen Cloud-basierten Chatbot.
- Auftragsverarbeitungsvertrag (AVV) abschließen. Wenn dein Unternehmen personenbezogene Daten an einen KI-Anbieter übermittelt, brauchst du einen AVV. Die großen Anbieter stellen diese bereit, aber du musst sie aktiv abschließen. Das ist kein optionaler Papierkram, sondern DSGVO-Pflicht.
- Für hochsensible Daten: lokale Modelle prüfen. Es gibt inzwischen leistungsfähige Sprachmodelle, die komplett auf deiner eigenen Infrastruktur laufen. Kein Datentransfer, keine Cloud. Die Qualität ist bei vielen Alltagsaufgaben hinreichend. Für besonders sensible Branchen ist das oft die einzig tragbare Lösung.
Die gute Nachricht: Die Risiken sind beherrschbar
Keines der drei Risiken ist ein Argument gegen den Einsatz von KI. Halluzinationen, Bias und Datenlecks sind bekannte, gut verstandene Probleme mit pragmatischen Lösungen. Das Entscheidende ist: Man muss sie kennen, bevor man die Tools einsetzt. Nicht danach.
Ein typisches Muster: Unternehmen, die KI-Tools ohne jede Reflexion einführen, erleben irgendwann einen unangenehmen Vorfall. Falsche Zahlen in einem Angebot. Kundendaten in einem Chat-Verlauf. Eine Stellenausschreibung, die unbeabsichtigt diskriminiert. Und dann wird das Tool pauschal als „unzuverlässig“ abgestempelt und verstaubt.
Unternehmen, die sich eine Stunde Zeit nehmen, um die Risiken zu verstehen und drei bis fünf einfache Regeln aufzustellen, nutzen dieselben Tools ohne Probleme. Der Unterschied ist nicht die Technologie. Der Unterschied ist die Vorbereitung.
Ein Prinzip zieht sich dabei durch alle drei Risikobereiche: Der entscheidende Unterschied liegt darin, ob KI-Ergebnisse intern bleiben oder das Unternehmen nach außen verlassen. Für die eigene Recherche, interne Entwürfe oder persönliche Ideenfindung ist das Risiko überschaubar, solange man die Datenschutz-Grundregeln einhält. Aber alles, was an Kunden geht, also Angebote, E-Mails, Produktbeschreibungen, Berichte, repräsentiert dein Unternehmen. Hier muss die Prüfung strenger sein. Nicht nur wegen möglicher Halluzinationen oder Bias, sondern weil am Ende des Tages Menschen mit Menschen reden wollen. Eine ungeprüfte KI-Ausgabe, die an einen Kunden geht, ist nicht nur ein möglicher Faktenfehler. Sie ist eine Aussage über deine Qualitätsansprüche. Wer eine halluzinierte Zahl in einem Angebot übersieht, sagt dem Kunden damit: Ich habe mir nicht die Zeit genommen, das zu prüfen. Die Schnittstelle zum Kunden ist deshalb der Punkt, an dem KI-Ergebnisse spätestens geprüft werden müssen. Intern kann man, gerade bei starken Modellen, im Einzelfall abwägen, wie viel Kontrolle nötig ist. Extern gibt es diese Abwägung nicht.
Ein pragmatischer Startpunkt
Wenn du morgen anfangen willst, dein Unternehmen sicherer im Umgang mit KI zu machen, dann sind diese drei Schritte ein solider Anfang:
- Eine Stunde Team-Briefing: Erkläre deinem Team, was Halluzinationen sind, warum Pseudonymisierung wichtig ist, und welche Daten nicht in den Chatbot gehören.
- Die Ampelregel einführen: Grün, Gelb, Rot. Auf einem Zettel neben dem Bildschirm oder als Checkliste im Team-Wiki. Einfacher geht es nicht.
- Business-Tarif aktivieren: Wenn dein Team regelmäßig mit KI arbeitet, ist der kostenlose Tarif keine Option. Die Investition in einen Business-Plan ist der einfachste Datenschutz-Hebel, den du hast.
Genau bei solchen Schritten kann ein KI-Coaching helfen: gemeinsam die Risiken identifizieren, die für dein Unternehmen relevant sind, pragmatische Regeln festlegen und dein Team befähigen, KI-Tools sicher und produktiv einzusetzen. Kein Fachchinesisch, keine Panik, sondern ein klarer Plan, der am nächsten Tag funktioniert.
Alle in diesem Artikel verwendeten Namen von Personen und Unternehmen sind frei erfunden. Ähnlichkeiten mit real existierenden Personen oder Unternehmen sind rein zufällig und nicht beabsichtigt. Die Beispiele dienen ausschließlich der Veranschaulichung.
Passend zum Thema
Hol dir den kostenlosen KI-Starter-Guide: 10 konkrete Wege, wie du KI ab morgen produktiv einsetzt.
Hat dich dieser Artikel auf eine Idee gebracht? Beschreib mir, was du vorhast.