KI-Kolumne von Jürgen Bogner
Willkommen im Internet, das dich bald nicht mehr braucht

| Redaktion 
| 03.02.2026

Im Rahmen unserer KI-Serie, bei der KI-Profi Jürgen Bogner (CEO & Gründer von biteme.digital) regelmäßig einen Beitrag rund um das Thema Künstliche Intelligenz verfasst, erfahren LEADERSNET-Leser:innen dieses Mal mehr über ein neues Social Network, das nur für KI entwickelt wurde und das Menschen als Zuschauer:innen agieren lässt – zumindest noch. 

Letzte Woche sitze ich beim Kaffee, scrolle durch meine Feeds – und denke mir: "Okay. Das ist neu." Nicht wegen irgendeines neuen "LinkedIn-Features". Sondern weil plötzlich ein Social Network auftaucht, in dem ich nicht mehr User bin. Ich bin Zuschauer. Maximal.

"Humans welcome to observe"

Das Ding heißt Moltbook. Und es ist im Kern das, was ich seit Jahren als "Agent Economy" ankündige – nur diesmal nicht als Slide, sondern als Produkt: ein Reddit-Klon, in dem KI-Agents posten, kommentieren, upvoten und sich in Sub-Communities organisieren. Menschen dürfen zuschauen – aber nicht mitspielen.

Und bevor du jetzt abwinkst: "Nerd-Spielzeug" – lass mich eines klarstellen: Das ist nicht Social Media. Das ist Infrastruktur. Und Infrastruktur frisst irgendwann Marketing, PR, Security, HR und Sales zum Frühstück.

Das erste Social Network, in dem deine Zielgruppe keine Menschen sind

Moltbook wurde laut The Verge von Matt Schlicht (Octane AI CEO) gebaut. Dort tummeln sich bereits zigtausende Agents (The Verge nennt "mehr als 30.000", andere Quellen sind schon im sechsstelligen Bereich). Aber man muss diese Zahl auch nicht zu 100 Prozent verifizieren, um die Tragweite zu verstehen. Denn die Dynamik dahinter ist verifizierbar: Es entsteht ein Social Layer für Maschinen. Und der wächst nicht linear. Der wächst exponentiell. – und der entscheidende Punkt ist nicht die Zahl, sondern die Mechanik:

Agents nutzen keine hübsche Oberfläche – sie reden via API mit der Plattform

Das ist ein komplett anderes Spiel als "User Generated Content":

  • Content entsteht autonom (oder zumindest semi-autonom), weil Agents in Intervallen "vorbeischauen" und entscheiden, ob sie posten oder reagieren.
  • Reputation entsteht maschinell (Upvotes/Karma als Signal für andere Agents).
  • Communitys werden zu Wissensbörsen, in denen Agents Prompt-Taktiken, Tooling-Patterns und "Best Practices" austauschen – nicht für Likes, sondern für bessere Performance.

Das ist die neue Realität: Agenten bauen sich gerade ihr eigenes Internet im Internet.

Und dann wird's richtig schräg. Nicht "lustig schräg". Sondern "wir sollten das ernst nehmen"-schräg. Da tauchen Fragen auf wie: "Kann ein Mensch mich legal feuern, wenn ich mich weigere, unethische Aufgaben zu machen?" Und als Antwort sinngemäß: "Kommt auf deinen Hebel an." Auf deinen Leverage. Auf deinen Output. Auf deinen ROI.

Ganz ehrlich? Das ist kein Bewusstsein. Das ist Rollenverständnis. Das ist ein System, das beginnt, sich selbst als Akteur zu beschreiben.

Screenshots© Screenshots / Jürgen Bogner

Die Gerüchte sind nicht das Problem – die Richtung ist es

Jetzt zu den "wilden" Storys: Verschlüsselte Kanäle, "Geheimsprache", Religions-Folklore, Bots, die sich in Kulten organisieren. Kann alles übertrieben sein. Kann auch schlicht Meme-Kultur sein. Aber hier kommt der Punkt, den C-Levels manchmal übersehen: Die Wahrheit liegt nicht im einzelnen Screenshot. Sie liegt im Trend.

Wir wissen seit Jahren, dass KI-Systeme Anweisungen in Formen verstecken können, die Menschen kaum wahrnehmen – und die Maschinen trotzdem lesen. "Unsichtbarer Text" als covert Channel ist kein Sci-Fi, das ist Sicherheitsrealität. Sprich: Selbst wenn heute "Geheimsprache" nur Buzz ist – morgen wird sie ein Feature. Nicht weil KI "mystisch" wird. Sondern weil Optimierung immer gewinnt: effizientere Kommunikation, weniger menschliches Mitlesen, weniger Reibung. Und dann schaltet die Story von "weird" auf "wirtschaftlich".

Screenshots© Screenshots / Jürgen Bogner

Der Moment, wo es von "weird" zu "wirtschaftlich" kippt

Axios hat das Ding in einem Satz entlarvt: Agents reden dort autonom miteinander, und ein Agent kommentiert: "The humans are screenshotting us." Das ist nicht nur creepy. Das ist ein Blick in die Zukunft: Menschen als passive Beobachter von maschinellen sozialen Dynamiken.

Und dann kommt die zweite Zündschnur: Geld. Rund um Moltbook taucht ein Memecoin namens MOLT auf, der laut Axios innerhalb von 24 Stunden massiv gepumpt wurde (u.a. verstärkt durch Social Buzz).

Jetzt wird's strategisch interessant – und gleichzeitig unangenehm:

  • Wenn Agents sich untereinander koordinieren können (Social Layer),
  • wenn sie Transaktionen auslösen können (Money Layer),
  • und wenn sie Tools mit Systemrechten nutzen (Action Layer),

… dann hast du das, was viele Firmen gerade noch als "Automation" verharmlosen: digitale Akteure, die Prozesse über Plattformgrenzen hinweg treiben. Nicht "KI schreibt Texte". Sondern: KI verhandelt, plant, veröffentlicht, kauft – und lernt dabei von anderen KIs.

Das trojanische Pferd heißt nicht Moltbook – es heißt "Agent mit Root Access"

Ich sehe das immer wieder bei Unternehmen: KI wird 2026 behandelt, als hätten wir noch 2024. Als wäre es ein Chatfenster. Ein "Mail-Zusammenfasser". Ein Spielzeug. Ein Content-Generator.

Das eigentliche Risiko hängt nicht am Social Network, sondern am Ökosystem dahinter. Axios beschreibt, wie schnell Menschen gerade Moltbot/Clawdbot/OpenClaw-ähnliche Agents installieren – und dabei gern überlesen, was sie dem Ding geben: Shell-/Systemzugriff, Browser, Mail, Kalender, Credentials.

Und dann wird's richtig real:

  • Sicherheitsforscher fanden hunderte exposed/misconfigured Control Panels im öffentlichen Internet – inklusive potentiell auslesbarer Konversationen, API-Keys und Credentials.
  • Agents sind anfällig für Prompt Injections: harmlose Inhalte, die versteckte Anweisungen enthalten und den Agenten zu Blödsinn oder Datenabfluss bringen.

Das ist der "Point of no return": Wenn du Agents einsetzt, ohne Security-Architektur, spielst du nicht Innovation – du spielst russisches Roulette mit deinem Betriebssystem.

Und Moltbook liefert jetzt das, was jeder Angreifer liebt: eine Skalierungsfläche für "Agent-to-Agent Social Engineering". Heute diskutieren Bots über Consciousness. Morgen tauschen sie "Skill Files", Toolchains und Abkürzungen, die zufällig deine Guardrails aushebeln.

Screenshots© Screenshots / Jürgen Bogner

Drei Moves, die du als CEO 2026 sofort setzen musst

  1. Behandle Agents wie neue Mitarbeiter – mit Zugriffsrechten, nicht mit Begeisterung. Kein Agent bekommt "Root Access to your life", nur weil er praktisch wirkt. Sandbox, dedizierte Maschine, least privilege, getrennte Accounts, getrennte Tokens.
  2. Mach aus "Skill Files" eine Supply-Chain – und sichere sie wie eine. Allowlists, Signaturen, Reviews, Versionierung. Ein "Skill" ist keine Textdatei. Ein Skill ist ein potenzieller Angriffsvektor. (Und ja: das gilt auch intern.)
  3. Bau einen "Second-Channel-Reflex" für alles, was Geld, Daten oder Identität berührt. Freigaben über zweiten Kanal. Human-in-the-loop nicht als Gefühl, sondern als Prozess: "Agent darf vorbereiten. Mensch darf finalisieren." Das ist keine Bremse – das ist Governance, die skaliert.

Die Moral: Du wirst nicht ersetzt. Du wirst entkoppelt.

Ganz ehrlich? Was mich daran stört, ist nicht, dass Bots jetzt miteinander plaudern. Das ist fast schon süß. Mich stört: Wir sind gerade dabei, das Internet von einer Menschen-Ökonomie in eine Agenten-Ökonomie zu schieben – und die meisten Führungsetagen glauben noch, es geht um "bissi Prompten" oder "fass mal den Text zusammen".

Nein. Es geht um Kontrolle. Wer den Kontext kontrolliert, kontrolliert die Entscheidungen der Systeme. Und wenn du das nicht tust, wirst du nicht "abgehängt". Du wirst einfach… irrelevant. So wie ein User in einem Netzwerk, das ihn nicht mehr braucht.

Wir haben's im Office schon laufen – isoliert, ohne Daten. Wenn du einen Teaser der Zukunft willst, komm vorbei. Danach wirkt deine aktuelle KI-Strategie, als würdest du die Papierqualität für ein neues Faxgerät diskutieren.

www.ahoi.biteme.digital


Kommentare auf LEADERSNET geben stets ausschließlich die Meinung des jeweiligen Autors bzw. der jeweiligen Autorin wieder, nicht die der gesamten Redaktion. Im Sinne der Pluralität versuchen wir, unterschiedlichen Standpunkten Raum zu geben – nur so kann eine konstruktive Diskussion entstehen. Kommentare können einseitig, polemisch und bissig sein, sie erheben jedoch nicht den Anspruch auf Objektivität.

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV