Wenn der Praktikant den Unternehmenskauf anbahnt
- Gernot Innthaler
- 30. März
- 6 Min. Lesezeit
Warum der Einsatz von KI zuerst eine Führungsfrage ist
Dienstag, 9:12 Uhr. Der Geschäftsführer eines Partnerunternehmens ruft an. Er bedankt sich für das „konkrete Interesse“ an einem Unternehmenskauf und fragt, wie weit die Überlegungen bereits gediehen sind.
Sie wissen von nichts.
Wenige Minuten später liegt das E-Mail vor. Absender: Lukas-Elias Berger, ein Praktikant im Business Development. Im Anhang: interne Zahlen, Organigramme und Margenannahmen, dazu eine Strategiepräsentation. Der Begleittext ist knapp. Er habe „proaktiv einen nächsten Schritt eingeleitet“.
Hier geht es um eine Organisation, die ihre Hausaufgaben übersehen hat. Schließlich konnte der vielleicht übermotivierte Praktikant nur deshalb so handeln, weil sein Dienstgeber ihm weder eindeutige Vorgaben, noch Grenzen gesetzt hat. Offensichtlich war nicht sauber geklärt, was sein Ziel war. Offensichtlich hat er keine klaren Regeln für Werkzeuge und Zuständigkeiten gehabt, dafür Zugriff auf Daten und Informationen, die nicht für ihn bestimmt waren. Und offensichtlich hat ihn niemand geschult, Tragweite, Risiken und Verantwortung richtig einzuordnen.
Die Geschichte ist erfunden, die Problematik jedoch höchst real. Denn genau auf dieselbe Weise beginnt heute in vielen Unternehmen das Thema KI-Nutzung. So, wie durch den Praktikanten höchst sensible Geschäftsdaten in falsche Hände gelangen, könnten auch Mitarbeiter:innen agieren. Im Umgang mit einer KI. Wohlmeinend, unbedarft – letztlich aber fahrlässig, geschäftsschädigend oder illegal.
Wie fit ist Ihr Unternehmen hinsichtlich KI-Nutzung?
KI-Einsatz braucht Richtung
Viele Unternehmen sehen längst, dass KI nützlich für sie sein kann. Denn Texte entstehen schneller, Recherchen sind rascher erledigt oder Dokumente lassen sich binnen Minuten auswerten, strukturieren und verdichten. Das Potenzial ist da.
Mehrheit der KMU ohne Regeln
Nur etwas mehr als jedes vierte KMU, das generative KI nutzt, hat Nutzungsregeln. Konkret sind es nur 28,6% der Unternehmen mit bis zu 249 Beschäftigten. Das ergibt eine Untersuchung der OECD [1] von 2025 in über 5.000 KMU in Österreich, Kanada, Deutschland, Irland, Japan, Korea und dem Vereinigten Königreich.
So kommt es zu dem, was in vielen Häusern schon Alltag ist: Mitarbeiter:innen probieren Werkzeuge aus, nutzen sie für ihre Aufgaben und schaffen Fakten, bevor die Organisation entschieden hat, welche Werkzeuge sie überhaupt braucht, einsetzen möchte und wie das regulatorisch, wertstiftend und sicher geschehen soll.
Genau so entsteht die Lücke zwischen Anspruch und Realität. Weil engagierte Menschen aus eigenem Antrieb handeln, nur ohne gemeinsamen Rahmen.
Wenn Sie das ernst nehmen oder sich Ihr Unternehmen unter den 3 von 4 findet, sollten Sie diese vier Fragen klären.
Wozu soll KI im Unternehmen überhaupt dienen?
Wo entsteht echte Wertschöpfung?
Welche Daten dürfen hinein und wer trägt das Risiko?
Welche Regeln sichern Verantwortung und Handlungsfähigkeit?
Nachstehend erörtern wir jede der vier Fragen.
1. Wozu soll KI im Unternehmen überhaupt dienen?
Isolierte Betrachtung von KI ist wie isolierte Betrachtung Verkaufs-, Produkt- oder Personalentscheidungen. Verknüpfen Sie diese mit Ihren Unternehmenszielen!
Fragen Sie nicht: Wo können wir KI einsetzen?
Fragen Sie besser: Welches Problem wollen wir lösen?
Unter KI-Einsatz lassen sich z.B. administrative Abläufe beschleunigen, Daten besser auswerten, die Qualität im Service verbessern oder neue digitale Leistungen entwickeln. Das sind sinnvolle Ziele. Entscheidend ist aber, dass diese Ziele bekannt, abgestimmt und im Alltag anschlussfähig sind. Sonst entsteht genau jene Situation aus dem Eingangsbeispiel: Jemand hält Initiative für Fortschritt, obwohl er oder sie gravierend an den Zielen des Unternehmens vorbeihandelt.
Wer Entscheidungen mit Tragweite trifft, braucht Orientierung. Für M&A gilt das offenkundig. Für den Einsatz von KI gilt es genauso.
2. Wo entsteht echte Wertschöpfung?
Nicht jeder Prozess eignet sich für KI-Einsatz. Beginnen Sie daher bei den Anwendungsfällen anstelle von Werkzeugen.
Gut eignen sich dafür vor allem Aufgaben mit klarer Wiederholung, großen Datenmengen oder dokumentbasierten Abläufen. Auch Prognosen, Mustererkennung, Wissensmanagement und Teile der Kundenkommunikation können sinnvoll sein.
Wichtig ist dabei eine einfache Leitfrage: Zahlt der Einsatz auf ein Ziel ein, das Ihr Unternehmen tatsächlich verfolgt? Die Praxis beginnt oft in den Bereichen Marketing, Vertrieb und Administration. Das zeigen Daten aus Schweden [2, S. 7]. Sie zeigen aber auch, dass KI-Einsatz dort strategisch interessanter wird, wo er IT, Forschung und Entwicklung, Wissensarbeit und qualitätskritische Kommunikation unterstützt. Wenn Sie bei administrativen Schnellgewinnen stehen bleiben, lassen Sie daher oft einen größeren Hebel liegen.
Große Unternehmen weiter als kleine
Dass sich der Einsatz mit wachsender Reife verbreitert, passt auch zum europäischen Gesamtbild: Große Unternehmen nutzen KI deutlich häufiger als kleine und mittlere, unter anderem weil sie die Einführung komplexerer Anwendungen organisatorisch und wirtschaftlich leichter stemmen können. [3, S. 14]
Wenn Sie somit Anwendungsfälle nicht sauber auswählen, verteilen Sie Werkzeuge ins Blaue. Das schafft Beschäftigung, aber noch keinen Nutzen.
3. Welche Daten dürfen hinein und wer trägt das Risiko?
Sobald Sie KI ernsthaft einsetzen, rückt die Datenfrage ins Zentrum. Diese simple Regel kennt jeder Software-Entwickler: Schlechte Daten führen zu schlechten Ergebnissen – oder eben garbage in, garbage out. Das gilt auch für den Einsatz von KI, die diese schlechten Eingaben noch verstärkt. Darüber hinaus schaffen ungeschützte Daten neue Risiken.
Deshalb sollten Sie früh klären, welche Informationen Sie für KI-Anwendungen nutzbar machen (dürfen). Legen Sie fest, wer Zugriff hat, welche Daten das Haus nicht verlassen dürfen und unter welchen Bedingungen externe Dienste überhaupt in Frage kommen. Hier geht es nicht nur um technische Fragen. Es geht auch um Daten- und Informationssicherheit, Zugriffskontrollen und die Fähigkeit, sensible Inhalte tatsächlich zu schützen. Hierzu hat der Europäische Datenschutzausschuss 2024 eigene Leitlinien zu Datenschutzaspekten bei der Verarbeitung personenbezogener Daten im Kontext von KI-Modellen veröffentlicht. [5]
Viele Unternehmensrisiken entstehen ohne böse Absicht und weil niemand klar gesagt hat, was erlaubt ist und was nicht. Am Ende entscheiden dann statt der Unternehmensführung der Zufall und wirtschaftliche Interessen anderer.
4. Welche Regeln sichern Verantwortung und Handlungsfähigkeit?
Wenn Sie KI-Nutzung in Ihrem Unternehmen zulassen, brauchen Sie klare Leitlinien. Sonst entscheidet jede:r für sich.
Dazu gehören Zuständigkeiten, Freigaben, Regeln für den Einsatz von Werkzeugen und Schulungen für Mitarbeiter:innen. Essenziell ist, dass diese Schulungen mehr als nur Funktionen erklären. Vermitteln Sie auch, wo Risiken liegen, welche Daten tabu sind und wie verantwortungsvoller Einsatz konkret aussieht. Schließlich verlangt der EU AI Act von Anbietern und Betreibern von KI-Systemen, für ausreichende KI-Kompetenz bei den beteiligten Personen zu sorgen. [4]
Ein unterschätzter Punkt: Digitale Souveränität
Digitale Souveränität heißt, dass Sie Ihre technologischen Entscheidungen nicht blind an Anbieter auslagern. Sie bedeutet, dass Sie Abhängigkeiten verstehen, Alternativen kennen und Kontrolle über Daten, Prozesse und kritische Fähigkeiten behalten. Wenn Sie das vernachlässigen, riskieren Sie Lock-in, Kontrollverlust und Entscheidungen, die sich später kaum mehr korrigieren lassen.
Bewusste Governance ist daher kein Hemmschuh. Sie schafft erst die Grundlage dafür, dass Sie KI wirksam und sicher nutzen können. Dass dafür strukturierte Modelle existieren, zeigt auch das NIST AI Risk Management Framework. Es soll Organisationen helfen, KI-Risiken systematisch zu steuern und Vertrauenswürdigkeit in Entwicklung, Einsatz und Bewertung von KI zu berücksichtigen. [6]
Fünf Fragen für eine erste Standortbestimmung
Prüfen Sie Ihr Unternehmen anhand fünf einfacher Fragen, die Sie mit ja oder nein beantworten.
Haben Sie eine klare Linie für den Einsatz von KI und kennen Ihre Mitarbeiter:innen diese?
Haben Sie konkrete Anwendungsfälle identifiziert und priorisiert?
Gibt es verbindliche Regeln für den Umgang mit KI-Werkzeugen?
Haben Sie Daten- und Informationssicherheit im KI-Kontext sauber geklärt?
Haben Sie Ihre Mitarbeiter:innen zum verantwortungsvollen Einsatz geschult?
Wie viele Nein zählen Sie? Wenn Sie zwei oder mehr dieser Fragen mit nein beantworten, haben Sie ein offenes Risiko in Ihrem Unternehmen. Dann lohnt es sich, genauer hinzusehen und das Thema strukturiert anzugehen.
Der KI-Readiness-Check
Sie wissen, dass etwas zu tun ist, doch vor einer größeren Initiative möchten Sie zu Ihrem Gefühl Fakten und einen sachlichen Blick auf den Ist-Zustand erhalten?
Mit dem KI-Readiness-Check prüfen wir in nur 45 Minuten gemeinsam, wie gut Ihr Unternehmen auf den sinnvollen, sicheren und strategisch sauberen Einsatz von KI vorbereitet ist. Wir schauen auf Strategie, Daten, Kompetenzen und Governance. Als Ergebnis erhalten Sie eine kompakte, individuell erstellte Kurzauswertung mit klaren Handlungsempfehlungen, die Ihnen zeigt, welche Schritte als Nächstes sinnvoll sind.
Buchen Sie jetzt den KI-Readiness-Check für Ihr Unternehmen:
Quellen
OECD (2025): Generative AI and the SME Workforce. https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/11/generative-ai-and-the-sme-workforce_83bafdfb/2d08b99d-en.pdf
Statistics Sweden / SCB (2025): AI use in enterprises 2025. https://www.scb.se/contentassets/13819b76125e4a43b496ffc3b22d36ec/fd9901_2025a01_br_nvftbr2501eng.pdf
Eurostat (2026): The use of artificial intelligence technologies in the European Union – Key results – 2026 edition. https://ec.europa.eu/eurostat/documents/7870049/23260410/KS-01-26-009-EN-N.pdf/37d063cb-28cf-3b4e-91f3-c3784c970842?t=1774528533658&version=1.1
European Commission (2026): AI Literacy – Questions & Answers. Shaping Europe’s digital future. https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
European Data Protection Board (2024): Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models. https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en
NIST (2023): AI Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. https://www.nist.gov/itl/ai-risk-management-framework

Kommentare