• Neu
Schüller | Daten sind Macht | E-Book | www.sack.de
E-Book

E-Book, Deutsch, 352 Seiten

Schüller Daten sind Macht

Kompetentes Entscheiden im Zeitalter von KI
1. Auflage 2025
ISBN: 978-3-593-46091-8
Verlag: Campus Verlag GmbH
Format: EPUB
Kopierschutz: 6 - ePub Watermark

Kompetentes Entscheiden im Zeitalter von KI

E-Book, Deutsch, 352 Seiten

ISBN: 978-3-593-46091-8
Verlag: Campus Verlag GmbH
Format: EPUB
Kopierschutz: 6 - ePub Watermark



Es geht um viel mehr als bloße technische Skills. Es geht um die souveräne Nutzung von Daten und KI für informierte, optimierte und kontextgerechte Entscheidungen. • Wie funktioniert dateninformiertes Entscheiden in konkreten Arbeits- und Führungssituationen? • Wie kann ich mich selbst, meine Organisation, meine Abteilung fit machen für die zukünftige Arbeitswelt? • Was gilt es bei einer Datenstrategie zu beachten, was bei Innovationen aus Daten oder beim Führen eines Teams von Data & AI Nerds? Die Datenkompetenzexpertin Katharina Schüller stellt in ihrem Buch ein umfassendes Tool- und Skill-Set für Führungskräfte vor. Gleichzeitig zeigt sie, welches Mindset man braucht, um die Macht der Daten im Einklang mit menschlichen Werten einzusetzen.

Katharina Schüller leitet seit 20 Jahren das Beratungsunternehmen STAT-UP mit Fokus auf Datenstrategien, Data Science und KI, ist akkreditierte Statistikerin (AEUStat) und Vorstandsmitglied der Deutschen Statistischen Gesellschaft. Sie erhielt zahlreiche Auszeichnungen und ist gefragte Vortragsrednerin. 2022 veröffentlichte sie als Ko-Autorin bei Campus »Grüne fahren SUV und Joggen macht unsterblich. Risiken und Nebenwirkungen der Ustatistik«.
Schüller Daten sind Macht jetzt bestellen!

Autoren/Hrsg.


Weitere Infos & Material


2 Das Ziel: Entscheiden und Führen in der Arbeitswelt der Zukunft


Einführung

In einer Arbeitswelt, in der Vorschriften oft an der Realität vorbeigehen, wird Regelbruch manchmal zur Voraussetzung für Handlungsfähigkeit. Funktionale Devianz – das bewusste Umgehen formaler Vorgaben – zeigt sich besonders dort, wo digitale Systeme mehr verwalten als verstehen. Am Beispiel des Zolls erkunden wir, was es bedeutet, die Arbeitswirklichkeit ernst zu nehmen, informelle Praktiken einzubinden – und die Menschen mitgestalten zu lassen, statt sie zu ersetzen.

Dann weiten wir den Blick. Was verbindet einen Zollbediensteten, ein lernendes System und die Frage nach Autonomie im digitalen Wandel? Es sind die großen Versprechen der KI: mehr Teilhabe, mehr Bildungsgerechtigkeit, neue Formen von Assistenz. Dazu kommt die Kehrseite: algorithmische Diskriminierung, Intransparenz, Kontrollverlust. Skandale aus Verwaltung, Finanzwelt und Sozialpolitik führen Ihnen vor Augen, wie technische Systeme ohne ethisches Fundament zur Gefahr für Demokratie und Würde werden können.

Gemeinsam untersuchen wir, warum es heute nicht mehr reicht, Technologien zu verstehen – sondern auch Machtverhältnisse, Narrative und blinde Flecken. Welche Rolle spielen emotionale Intelligenz, Data Literacy und digitale Führung? Wie gelingt es, Denk- und Lernräume zu schaffen, in denen KI nicht zur Verunsicherung, sondern zur Befähigung beiträgt? Am Ende wird klar: Wer über KI spricht, spricht über Gesellschaft. Und wer sie gestalten will, braucht mehr als Algorithmen – er braucht Haltung.

Warum funktionale Devianz ein Risiko ist – und wie man sie vermeidet


Am späten Vormittag des 23. Januar 2024 klettere ich vor dem Ankunftsterminal eines großen deutschen Flughafens aus einem Kleinbus. Vom Fahrersitz steigt Carl1, er greift prüfend an seine Dienstwaffe, nickt kurz zu seiner Kollegin und gibt uns ein Zeichen loszugehen. Wir werden Personen kontrollieren, die sich im öffentlichen Bereich bewegen. Menschen, die in den Urlaub fliegen oder gerade von einer Dienstreise angekommen sind. Es ist kalt, und die schwere Schutzweste drückt an meinem Hals. Eigentlich müsste ich sie nicht tragen, aber ich will erleben, wie es sich anfühlt, im Dienst zu sein.

Carl deutet, ohne zu zögern, auf einen jungen Mann, der vor einem der Ausgänge steht und ins Leere starrt; um ihn herum ist Gepäck einer teuren Marke aufgereiht. Wir schlendern hinüber, und ich beobachte, an eine Säule zwischen zwei Autos gelehnt, wie die Kontrollbediensteten sich den Inhalt der Koffer zeigen lassen. Später auf der Runde werden wir noch drei weitere Passagiere ansprechen. Einer ist ein Mitarbeiter einer Fluggesellschaft, zwei weitere sind Treffer. Für mich sahen sie aus wie alle anderen.

Was ich jetzt gerne tun würde: Beobachtungen in mein Smartphone sprechen, sie dabei gleich in kurze Texte transkribieren lassen, den Chat in Echtzeit mit der Cloud synchronisieren und daraus automatisiert einen neuen Tagebucheintrag meiner Hospitation erstellen lassen. Dank KI in meiner Nachrichten-App wäre das ganz einfach möglich, genauso wie das Suchen nach Mustern in unseren Aufzeichnungen. Aber ich bin vorsichtig – selbst wenn ich die Technologie für sicher halte, will ich das Vertrauen meiner Gesprächspartner nicht auf die Probe stellen. So schreibe ich meine Notizen von Hand, genauso wie meine Forschungspartnerin Sanne Kruse-Becher, eine Kriminologin. Aus unseren detaillierten Beobachtungen werden wir in den kommenden Monaten zahlreiche Hypothesen darüber entwickeln, was erfahrene Beamte, seit Jahrzehnten im Einsatz, unter Risiko verstehen – und wie sie es bewerten.2

Eine Trefferquote von 50 Prozent – ist das viel oder wenig? Ich hätte mit Sicherheit viel schlechter abgeschnitten. Aber was könnte ein Gesichtserkennungs-Algorithmus leisten, der in Sekundenbruchteilen Echtzeit-Kameraaufnahmen von Passagieren mit einem riesigen Datenpool abgleicht? Kann KI deutschen Sicherheitsbehörden dabei helfen, in Zukunft bessere Entscheidungen zu treffen – knappes Personal strategischer einzusetzen, neue Taktiken der organisierten Kriminalität früher zu erkennen, jeden Tag effizientere Kontrollen durchzuführen? Mit dieser Frage waren wir wenige Wochen zuvor zu einem Risikoworkshop in eine der ältesten deutschen Universitätsstädte gereist. Gesichtserkennung ohne Anlass wird in Deutschland nicht zulässig sein, dafür sorgt die europäische KI-Verordnung. Zu groß wäre der Eingriff in die Grundrechte. Aber es gibt detaillierte Daten ohne Personenbezug von erfolgreichen Kontrollen, die zentral gesammelt werden und die bisher noch niemand systematisch untersucht hat. Was lässt sich wohl darin finden?

Gute Daten, schlechte Daten?


8. Januar 2024. Ein paar Wochen vor meinem ersten Kontrollgang sitze ich mit Kruse-Becher und etwa 30 erfahrenen Kontrollbeamten im schlecht geheizten Seminarraum eines ehemaligen Parteigebäudes. Heute stellen wir die ersten Ergebnisse unserer Datenanalyse vor. Aus den Kontrollstatistiken mehrerer Jahre wollten wir Vorschläge ableiten, wie eine KI-Anwendung die Einsatzkräfte bei ihrer täglichen Arbeit unterstützen kann. Besonders schlau sind wir bisher aus den Daten nicht geworden, obwohl schon viele Stunden Aufwand hineingeflossen sind. Und zwar von absoluten Datenprofis: einem Team aus mehreren Statistikern, Data Engineers und Machine-Learning-Experten. Mehrere Millionen Datensätze haben sie in akribischer Detailarbeit aus verschiedenen Datenquellen zusammengeführt und bereinigt. Sie haben Flugpläne aus dem Internet analysiert, Routen abgeglichen, IATA-Codes – die einzigartigen Kennungen der International Air Transport Association für alle Flughäfen weltweit – überprüft. Bis hierhin ist das noch völlig normal: Grob überschlagen, fließen 80 Prozent der Arbeit in Datenprojekten meist in die Aufbereitung, also alle Tätigkeiten, die nötig sind, um Fehler zu korrigieren, Lücken zu schließen und die Daten in einen Zustand zu bringen, in dem man sie auswerten kann. Doch immer noch scheint vieles unplausibel. Kann man diesen Daten glauben?

Unsere Zuhörer wirken betreten, aber nicht besonders überrascht. Erst verhalten tuschelnd, dann immer lauter, beginnt eine lebhafte Diskussion unter den Risikoexperten. Es geht um die zentrale Frage: Was lässt sich aus diesen Daten überhaupt ableiten? Die Praktiker, viele mit jahrzehntelanger Kontrollpraxis, äußern sich zurückhaltend. Die Qualität der Daten sei unzureichend, heißt es, die Aufzeichnungen zu ungenau, zu viele Einflussfaktoren, zu wenig Kontext. Man könne daraus keine verlässlichen Aussagen über Risiken ableiten. Ich widerspreche. Das ist schließlich mein tägliches Brot. Statistiker sind es gewohnt, mit unvollständigen, fehlerhaften Daten zu arbeiten. Wir können Lücken füllen, Inkonsistenzen auflösen, Modelle robust gegen Ausreißer machen. Warum also nicht versuchen, mit genau diesen Daten eine Risikoanalyse zu entwickeln, die tatsächlich Orientierung bietet – gerade dort, wo Erfahrungswissen an seine Grenzen stößt?

Was in der Statistik als Modellierungsfrage beginnt, wird im Alltag der Kontrollpraxis schnell zur Akzeptanzfrage. Schon die Erhebung ist umständlich. Daten müssen mehrfach erfasst werden, die Erfassung ist von Medienbrüchen geprägt. Das bedeutet konkret: Daten werden in ein System getippt, ausgedruckt – und erneut abgetippt, weil die Systeme nicht vernetzt sind. Ein Zollbeamter bringt es mit bitterem Humor auf den Punkt: »Jedes Mal, wenn wir ein Bußgeldverfahren haben, stirbt ein Baum.« Und selbst wenn die Daten vollständig wären – was bedeutet eigentlich ein Eintrag im Feld »Negativkontrolle«? Verstehen alle exakt das Gleiche darunter? Die Uneindeutigkeit mancher Kategorien lässt Spielraum, in dem Routine, Zeitdruck und individuelle Bewertung mehr Einfluss ...



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.