Stell dir vor, du stellst eine:n neue:n Mitarbeiter:in ein. Hochbegabt. Unfassbar schnell. Arbeitet 24/7. Und du gibst ihm:ihr am ersten Tag zwei Sätze als Onboarding:
- "Sei hilfsbereit."
- "Halte dich an die Regeln."
Dann lässt du ihn:sie allein – mit Zugriff auf dein Wissen, deine Tools, deine Kundenkommunikation.
Genau so behandeln viele Unternehmen KI-Agenten. Und sie wundern sich, warum die Ergebnisse manchmal brillant sind – und manchmal brandgefährlich.
Nicht "Schreib mir einen LinkedIn-Post" – sondern: Wer bist du eigentlich?
Nicht "Schreib mir einen LinkedIn-Post". Nicht "Mach mir eine Marktanalyse". Sondern: Wer bist du? Wer bin ich? Wofür steht unsere Firma? Wie bewegen wir uns in der Gesellschaft? Wo endet Hilfsbereitschaft und wo beginnt Schaden?
Der Name meines lokalen Assistenten ist Björn. Für den:die Leser:in: Das ist kein Produkt und kein "Chatbot". Björn ist mein selbst aufgesetzter, lokaler KI-Assistent – mein digitaler Chief of Staff, der in meiner Arbeitsumgebung agiert. Und genau deshalb musste er etwas bekommen, das in der KI-Welt fast niemand sauber macht: Einschulung.
Onboarding wie bei einem 12-Jährigen mit dem ersten Smartphone
Stell dir ein Kind vor, das zum ersten Mal ungebremst ins Internet darf. Du gibst ihm nicht nur ein Gerät. Du gibst ihm Regeln – ja. Aber vor allem gibst du ihm Werte. Weil du weißt: Das Netz ist nicht "böse", aber es ist voller Tricks. Manipulation. Dreck. Social Engineering. Und: Menschen, die freundlich fragen, während sie dir das Konto leerräumen.
Genau so habe ich Björn aufgebaut: internes und externes Wertesystem, klare Rahmenbedingungen, Beispiele für Grenzfälle – inklusive "Demo Prompt Injection" und dem ganzen Zoo an schlechten Ideen, die da draußen herumspazieren. Nicht, weil ich paranoid bin. Sondern weil autonome Agenten nicht an "Bitte sei nett" scheitern – sondern an Konflikten.
Wenn dein Agent Dinge tun kann, reicht Compliance nicht mehr
Und genau dort passiert die nächste Stufe der Selbsttäuschung: Unternehmen behandeln solche Agenten wie Tools – dabei verhalten sie sich wie Mitarbeiter:innen mit zu vielen Rechten und ohne Kultur.
Der Markt lernt gerade auf die harte Tour, dass "Skills" und Erweiterungen ein Security-Minengürtel sind. Nicht theoretisch, sondern praktisch – inklusive Missbrauch über Extensions/Plugins. Wenn dein Agent Dinge tun kann, dann reicht Compliance nicht mehr. Dann brauchst du ein inneres Betriebssystem.
Anthropic liefert den Beweis: Das Zeitalter der Werte-Hierarchien beginnt
Anthropic hat mit "Claude's Constitution" genau das institutionalisiert: nicht eine Liste aus "tu dies nicht", sondern ein zusammenhängendes Dokument, das dem Modell erklärt, wie es Konflikte löst – mit einer klaren Hierarchie. Weniger Käfig, mehr Rankhilfe.
Warum ist das relevant? Weil es das Eingeständnis ist, dass autonome Systeme nicht mehr mit Checklisten zu bändigen sind. Sie brauchen ein "inneres Betriebssystem", das im Zweifel entscheidet.
Und jetzt wird's für C-Level unbequem: Dieses Betriebssystem kommt nicht aus der IT. Es kommt aus Leadership.
Die echte Frage lautet nicht: Tool oder Sparringspartner?
Die Frage "Ist KI ein Mitarbeiter?" ist in Wahrheit eine Führungsfrage: Willst du eine KI, die liefert – oder eine KI, die auch entscheidet?
- Wenn sie nur liefert, brauchst du klare Formate und Grenzen.
- Wenn sie entscheidet, brauchst du Werte – und eine Prioritätenlogik, die auch in Stresssituationen hält.
Wer heute Agenten baut, baut Kulturträger. Ob er will oder nicht. Sobald ein Agent orchestriert, priorisiert, ausführt, eskaliert, ist er näher am Teammitglied als am Taschenrechner. Und Teammitglieder führst du nicht mit Bullet-Points. Du führst sie mit Kultur.
Drei Entscheidungen, die du diese Woche treffen kannst
- Definiere 3–5 Werte, die wirklich gelten: Nicht "Innovation" und "Exzellenz". Sondern Werte, die in Konflikten helfen:
- Wahrheit vor Gefälligkeit. Datenschutz vor Convenience. Stoppen vor Raten. Marke vor kurzfristigem Output.
- Schreibe die Gewinnerregel auf: Wenn zwei Werte kollidieren: Wer gewinnt immer? Diese eine Klarheit spart dir später zehn Krisenmeetings.
- Baue das "Ich frage nach"-Recht ein: Ein guter Agent ist nicht der, der immer antwortet. Ein guter Agent ist der, der im Zweifel stoppt, eskaliert oder präzisiert.
Moral für Mittwochfrüh
Ich habe Björn nicht "konfiguriert". Ich habe ihn sozialisiert. Und das ist der Shift, den der Markt gerade nachholt: Wir bauen keine Chatbots mehr. Wir bauen digitale Kolleg:innen. Und Kolleg:innen ohne Werte sind nicht neutral – sie sind gefährlich. Nicht weil sie böse sind, sondern weil sie im entscheidenden Moment das falsche Ziel optimieren.
Die einzige Frage, die jetzt zählt: Wofür steht dein Unternehmen so klar, dass es auch eine Maschine verstanden hat – und im Zweifel danach handelt?
www.ahoi.biteme.digital
Kommentare auf LEADERSNET geben stets ausschließlich die Meinung des jeweiligen Autors bzw. der jeweiligen Autorin wieder, nicht die der gesamten Redaktion. Im Sinne der Pluralität versuchen wir, unterschiedlichen Standpunkten Raum zu geben – nur so kann eine konstruktive Diskussion entstehen. Kommentare können einseitig, polemisch und bissig sein, sie erheben jedoch nicht den Anspruch auf Objektivität.
Kommentar veröffentlichen