Zwischen Effizienz und Fairness
Wie KI die Moderation und Transfervergabe verändert

| Redaktion 
| 22.02.2026

Zwei neue Dossiers des Austrian Lab for AI Trust analysieren Chancen und Risiken algorithmischer Systeme – und zeigen, warum Transparenz und menschliche Kontrolle zentral bleiben.

Das Austrian Lab for AI Trust (ALAIT), ein vom Bundesministerium für Innovation, Mobilität und Infrastruktur initiiertes Forschungsprojekt, hat zwei neue KI-Trust-Dossiers veröffentlicht. Sie befassen sich mit dem Einsatz Künstlicher Intelligenz bei der Erkennung von Hassrede im Netz sowie bei der Vergabe staatlicher Transferleistungen. Ziel sei es, den öffentlichen Diskurs über Vertrauen in KI zu fördern, so die Forscher:innen.

Vertrauen durch Transparenz

Innovationsminister Peter Hanke betont die gesellschaftliche Tragweite der Technologie: "Künstliche Intelligenz verändert unsere Wirtschaft und Gesellschaft tiefgreifend." Mit dem zunehmenden Einsatz träfen Hoffnungen und Ängste aufeinander. Fortschritt entstehe dann, wenn Anwendungen nachvollziehbar und vertrauenswürdig seien. Information, Aufklärung und Beratung seien daher essenziell. Das Projekt ALAIT unterstütze dabei, Risiken bewusst zu reflektieren und neue Chancen zu nutzen.

KI gegen Hass im Netz

Ein Dossier widmet sich der KI-gestützten Erkennung von Hassrede (Hate Speech) in sozialen Medien. Plattformen setzen entsprechende Systeme zunehmend ein, auch um europäische Vorgaben wie den Digital Services Act zu erfüllen.

Als Chancen werden eine effizientere Moderation großer Inhaltsmengen, die Entlastung von Content-Moderator:innen sowie ein potenziell sichereres Online-Umfeld genannt. KI könne helfen, problematische Beiträge rascher zu identifizieren und gesetzliche Anforderungen umzusetzen.

Gleichzeitig verweisen die Autor:innen auf Grenzen der Technologie: Algorithmen hätten Schwierigkeiten mit Kontext, Ironie oder kulturell geprägten Ausdrucksformen. Fehlklassifikationen könnten die Meinungsfreiheit beeinträchtigen oder marginalisierte Gruppen benachteiligen. Zudem bestehe bei intransparenten Systemen die Gefahr mangelnder Nachvollziehbarkeit. Für den Praxiseinsatz sei daher menschliche Aufsicht ebenso erforderlich wie kulturelle Sensibilität.

Prognosemodelle bei staatlichen Leistungen

Das zweite Dossier analysiert den Einsatz von Predictive Analytics bei der Vergabe staatlicher Transferleistungen wie Familienbeihilfe, Sozialhilfe oder Wohnbeihilfe. KI-Systeme erkennen dabei Muster in umfangreichen Datensätzen, um Entscheidungsprozesse zu unterstützen.

Hier sehen die Forscher:innen Potenziale in beschleunigten Verfahren, geringeren Kosten und höherer Transparenz. Gerade in komplexen Vergabeprozessen könnten datenbasierte Prognosen helfen, Risiken frühzeitig zu identifizieren.

Zugleich sei die Qualität der verwendeten Daten entscheidend. Verzerrte oder unvollständige Datengrundlagen könnten systematische Fehlentscheidungen begünstigen. Zudem bestehe das Risiko, dass menschliche Entscheidungsträger:innen algorithmischen Empfehlungen übermäßig vertrauten. Laut Dossier sei daher eine sorgfältige Auswahl der berücksichtigten Merkmale sowie Transparenz bereits im Systemdesign unabdingbar, um faire und nachvollziehbare Entscheidungen zu gewährleisten.

Zielgruppen der Publikationen

Bei dem Forschungsprojekt erfolgt die Förderabwicklung über die Österreichische Forschungsförderungsgesellschaft (FFG). Die Publikationen analysieren sowohl Potenziale als auch Risiken der jeweiligen Anwendungen und richten sich an Entscheidungsträger:innen, Wissenschafter:innen sowie eine interessierte Öffentlichkeit.

Die neuen KI-Trust-Dossiers sind online abrufbar.

www.bmimi.gv.at

www.apa.at

www.winnovation.at

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV