ZOE: Steigen wir ganz grundlegend ein: Denke ich an Entscheidungen, denke ich an …
Quaquebeke: Als guter Wissenschaftler denke ich erst einmal an Definitionen. Und da ist es bei dem Wort Entscheidungen nicht einfach, denn Leute verstehen häufig zwei sehr unterschiedliche Dinge darunter: Auf der einen Seite gibt es Gleichungen, die optimal aufgelöst werden. Das heißt, auf der Basis von Diskussionen und Abwägungen von Daten weisen Risiko- und Chancenberechnungen auf eine bestimmte «Lösung» hin. Und das wäre dann auch das bessere Wort. Wir haben etwas gelöst und nicht entschieden.
Auf der anderen Seite stehen wirkliche Entscheidungen. Diese entstehen dann, wenn ich im Prinzip zwei oder mehr weitestgehend gleichwertige Optionen vor mir habe und diese nicht lösen kann, also kein probabilistisches oder wertegetriebenes Modell mir vorgibt, welche die bessere ist.
ZOE: Was ändert sich daran in Organisationen, wenn wir nun KI einsetzen?
Quaquebeke: KI kann uns bei ersterem helfen. Also beim Lösen. Denn letztendlich ist das die Stärke von KI: ein probabilistisches Abwägen aufgrund von Daten. Je nach programmiertem Alignment ist auch das Wertefundament klar. Die Schwierigkeit ist, dass KIs – derzeit zumindest noch – mit einem Selbstbewusstsein reden, dass wir meinen, dass sie etwas gelöst haben, obwohl es mit so viel Unschärfen versehen ist, dass es eigentlich eher eine Entscheidung war. Beispielsweise Lösung A wäre 49 Prozent und Lösung B 51 Prozent, aber bei kaum belastbarer Datenlage. Und trotzdem wird die KI es so vertreten, dass Lösung B eindeutig die bessere ist. Hier müssen wir in der Entwicklung nachsteuern, so dass beim Einsatz von KI auch erkenntlich wird, wie gut die dahinter liegende Datenlage und Wahrscheinlichkeitsabschätzung ist. Ansonsten nehmen wir das alles für bare Münze, obwohl es für viele Bereiche wahrscheinlich einstweilen noch klare menschliche «Entscheidungen» im Graubereich braucht.
ZOE: Entscheidungen haben eine sachliche, zeitliche und soziale Dimension. Sachlich und zeitlich ist die KI dem Menschen womöglich woraus, aber wie wird die soziale Dimension von Entscheidungen
bedient?
Quaquebeke: Bisher ist eine KI wohl nicht besonders gut darin geschult, wie man eine Entscheidung auch in die Organisation trägt und dass man dafür unter Umständen einen partizipativen Prozess anstoßen muss. Aber das kann sie sicher lernen. Die Prinzipien sind ja nicht besonders komplex. Gegebenenfalls kann sie sogar anhand von Auswertungen von Kommunikationsnetzwerken identifizieren, wen man wann wie ins Boot holen soll. Allerdings, wer sagt denn, dass die Organisationen der Zukunft so wie die bisherigen operieren müssen? Vielleicht werden Entscheidungen gar nicht mehr groß diskutiert werden. Vielleicht bekommen Mitarbeitende durch Dashboards ihre Ziele vorgegeben und ansonsten lernen sie, dass diese jederzeit von der organisationseigenen KI verargumentiert werden können, auch wenn es eigentlich nicht – wie eben angesprochen – eine Lösung sondern «nur» eine Entscheidung ist, die auch anders hätte ausfallen können. Und damit verlernen wir, wenn wir nicht aufpassen, das Abwägen und Diskutieren im sozialen Gefüge. Das Rüstzeug zum Navigieren von Entscheidungen.
ZOE: Organisationen sind dazu da, im Prozess des Entscheidens Ungewissheit in Gewissheit zu verwandeln. Wenn nun eine KI «Entscheidungen auf Knopfdruck» fällt, wie verhält sich das im Kontext Organisation? Was wird sich hier verändern?
Quaquebeke: Wir werden bei Entscheidungen ehrlicher werden müssen. Es geht nicht um Gewissheit, denn die ist auch nach einer Entscheidung nicht da, sondern um geschlossenes Commitment oder mindestens Compliance, einen bestimmten Weg trotz Unsicherheit zu gehen.
ZOE: Peter Drucker sagte, die «ureigenste Aufgabe» von Führung liege darin, für Entscheidungen zu sorgen. Wenn KI das auch kann, macht das Führungskräfte nicht überflüssig?
Quaquebeke: Nein, Peter Drucker hat weiterhin recht. Denn KI löst zwar, entscheidet aber nicht. Dennoch entscheiden heute viele Führungskräfte Dinge, die eigentlich gelöst werden sollten. Ihnen fehlen zuweilen nur die Zeit, die Daten und die analytischen Kapazitäten. In diesem Bereich wird die KI menschlichen Führungskräften bald überlegen sein. Aber absehbar wird es genug Bereiche geben, wo man die Dinge halt noch nicht lösen kann, und hier als Mensch eine Entscheidung treffen muss. Wichtig ist allerdings, dass diese Bereiche die Domäne der Menschen bleiben und nicht einfach blind ebenfalls den Maschinen überlassen werden. Beim Ausspucken bestimmter Analysen müsste etwa ein Confidence-Level mit angegeben werden, so dass Führungskräfte auch stärker ihre Verantwortungsbereiche zum Entscheiden erkennen.
ZOE: Beispiel Feedback geben: Das zählt zum Tagesgeschäft jeder Führungskraft, ist aber mitunter stark durch subjektive Sichtweisen geprägt. Hier wäre doch KI viel neutraler, unvoreingenommener und vor allem schneller, oder?
Quaquebeke: Feedback ist Handwerk. Und das kann und sollte man lernen. Nicht jede Führungskraft macht das oder ist gewillt, diesem Prozess viel Zeit zu schenken. Hier ist eine KI natürlich unglaublich viel geduldiger und kann hoch frequentes, niederschwelliges Verhaltensfeedback geben. Sie dürfte bald auch eine viel längere Erinnerung haben und kann sich in der Sprache dem Adressaten anpassen. Zudem steht die KI eigentlich nie im Verdacht, Dinge nur um des eigenen Egos willen zu sagen. Jeder, der mit einer Smartwatch trainiert, weiß, dass diese einem auch Feedback gibt. Man mag zwar schimpfen und manchmal vielleicht die Berechnungsgrundlage in Frage stellen, aber man hält dem Gerät nicht vor, dass es etwas persönlich gegen einen hätte. Es hat hier zuweilen etwas sehr beruhigendes, dass man sich nicht einem anderen Menschen ausgesetzt fühlt.
ZOE: Ein weiteres Beispiel: In einem Team soll zu Beginn des Jahres festlegt werden, wer wann Urlaub nehmen darf. Eigentlich nicht dramatisch, aber immer hochsensibel, weil es u. a. um Fairness und Transparenz im Prozess geht. Wie würde eine KI diese Situation lösen?
Quaquebeke: Hier treffen ja unterschiedliche ethische Perspektiven aufeinander: A) Die beste Lösung für die Meisten. B) Oder gibt es besonders zu berücksichtigende Gründe, wie etwa Familie oder Seniorität. C) Oder jedem das gleiche Recht und daher ein Rotationsverfahren. Es gibt hier kein Richtig oder Falsch. Es braucht eine Entscheidung. Und das können KIs nicht. Es sei denn, es wird ihnen einprogrammiert (Stichtwort «Alignment»), welchem Wertekanon sie folgen sollen. Allerdings könnten Sie die Frage anders stellen. Beispielsweise: Welche Urlaubsregelung führt zu den wenigsten Produktionseinbußen bei gleichzeitig hoher Zufriedenheit der zentralen Leistungsträger*innen. Das wäre eine Gleichung. Die könnte eine KI lösen.
ZOE: Welche Rolle(n) ergeben sich für Führungskräfte in Zeiten von KI bei Entscheidungsfindungsprozessen?
Quaquebeke: Sie werden sukzessive alle Rollen aufgeben, wo Dinge zu lösen sind. Stattdessen werden sie sich darauf konzentrieren, diese Dinge noch besser lösbar zu machen. Also beispielsweise für bessere Daten sorgen. Ansonsten werden Top Führungskräfte maßgeblich für Alignment zuständig sein. Zu schauen, dass die KI-Systeme entsprechend vorgegebener Ziel- und Wertemodelle operieren. Dafür müssen sie erstens immer wieder kontrollieren, dass die Datengrundlage dafür passt und beispielsweise sich keine Vorurteile einschleichen. Denn auch hier gilt «garbage in, garbage out». Und zweitens, sie werden kontrollieren müssen, dass der Lösungsweg der KI nicht irgendwann aus dem Ruder läuft. Beispielsweise, wenn die KI eine Situation so auflöst, dass es am besten wäre, Mitarbeitende richtig auszuquetschen, weil es finanziell instrumenteller ist, Mitarbeitende auszutauschen statt auf etwaige minimale Produktionsgewinne durch Ausquetschen zu verzichten. Führungskräfte werden also eher zu «Wächtern» der Prozesse als dass sie diese selbst steuern.
ZOE: Soziale Situationen führen immer auch zu Spannungen. Entsteht durch KI nicht auch ein gänzlich neuer Mechanismus in der Bearbeitung von Konflikten?
Quaquebeke: Da bin ich persönlich sehr ambivalent. KIs werden uns in der Interaktion und im Vergleich mit anderen Kollegen*innen und Führungskräften erst einmal deutlich angenehmer erscheinen. Die Gründe habe ich beim Thema Feedback genannt. Wir werden also weniger Konflikte mit KI als mit Menschen erleben. Aber der Mensch wächst an Konflikten. Wie sollen wir wachsen, wenn wir uns nicht mit der KI reiben können? Etwa weil wir denken, dass die eh schlauer ist oder mehr Informationen zur Verfügung hat. Oder aber weil die so aalglatt im Umgang mit uns ist, dass wir gar nicht in den Antagonismus kommen. Woran wachsen wir dann? Wie wachsen wir über uns hinaus? Dazu braucht es Hürden und Konflikte. Hier sehe ich noch nicht, wie diese mit KI natürlich gestaltet werden können. Denn wenn die KI unser Instrument ist, dem wir alles sagen bzw. einprogrammieren können, dann fühlt sich der Konflikt nicht echt oder essentiell an. Wenn stattdessen die KI wirklich so angelegt ist, mit uns in den Konflikt zu gehen, dann stehen wir wahrscheinlich häufig ziemlich dumm da. Und die KI hat hier kein Gespür, das Soziale zusammenhalten zu wollen. Sie ist nicht darauf angewiesen. Wir Menschen würden also häufig «verlieren». Das macht persönliches Wachstum nicht leichter.
ZOE: Was möchten Sie Entscheidungsträger*innen in Organisationen heute empfehlen zu tun, um zukünftig die Potenziale, aber auch Limitationen von KI für sich zu nutzen?
Quaquebeke: Das, was alle sagen, die sich auskennen: Los, raus und selbst damit herumspielen. Lest euch schlau, holt euch Expert*innen, die euch schnell in die wichtigen Diskurse einführen. Dass KI kommt, ist klar. Dass sie Führung und damit viele derzeitige Prozesse in Unternehmen übernehmen wird, ist auch klar. Die Frage wird immer weniger, welche Rolle die KI übernehmen wird, sondern welche Rolle der Mensch noch spielen wird. Das müssen wir herausfinden. Aber das werden wir erst, wenn wir ein Gespür dafür bekommen. Derzeit laufen wir Gefahr, dass Führungskräfte über KI reden wie die Blinden von der Farbe.
Niels Van Quaquebeke
Professor für Führung und Organisationspsychologie, KLU
Oliver Haas
ZOE-Redakteur, Seniorberater der osb international