Künstliche Intelligenz im Projektmanagement – eine Definition

Künstliche Intelligenz und die damit verfügbaren Anwendungen werden unsere Gesellschaft und unsere Arbeit beeinflussen und teilweise massiv verändern. Es ist daher sinnvoll, die Künstlicher Intelligenz in der jeweiligen beruflichen Domäne genauer zu beschreiben. Folgende “Definition” habe ich zu Künstlicher Intelligenz im Projektmanagement gefunden:

Künstliche Intelligenz im Projektmanagement bezieht sich auf den Einsatz von Algorithmen und maschinellem Lernen, um Projekte effizienter zu planen, zu überwachen und zu steuern. Sie ermöglicht, aus vergangenen Projektverläufen und -daten zu lernen, Risiken frühzeitig zu erkennen, Ressourcen besser zu verteilen, Prozesse zu automatisieren und fundierte Entscheidungen zu treffen. KI kann dazu beitragen, die Produktivität zu steigern, die Qualität der Ergebnisse zu verbessern und Projekte erfolgreicher abzuschließen“ (Bialas, M. (2024), in Bernert et al. (Hrsg.) (2014): KI im Projektmanagement).

Diese Beschreibung ist sehr stark auf die klassischen, methodischen Elemente des Projektmanagements fokussiert, und stellt die durch den Einsatz von Künstlicher Intelligenz möglichen Effizienzvorteile heraus.

Aus meiner Sicht ist das etwas zu kurz gegriffen, da Künstliche Intelligenz durchaus auch soziale Dimensionen der Projektarbeit unterstützen kann. Siehe dazu auch

Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte

Projektmanagement: KI-Unterstützung der ICB 4.0 Kompetenzen

Projektmanagement-Office (PMO): Neue Aufgaben durch Künstliche Intelligenz (KI)

Menschliche Intelligenz und Künstliche Intelligenz: ein Idealszenario der Arbeitsteilung.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz: Warum sollten Forscher besser offene Large Language Models (LLM) nutzen?

Usage of large language models (LLMs) in behavioral and social sciences research (Wulff/Hussain/Mata 2024). Die Hervorhebung in Rot ist von mir (Robert Freund) ergänzt worden.

Natürlich verwenden immer mehr Wissenschaftler Künstlichen Intelligenz in ihrer Arbeit. Wie die Grafik zeigt, wird ChatGPT beispielsweise in den Verhaltens- und Sozialwissenschaften sehr stark genutzt. ChatGPT ist allerdings von OpenAI, dessen Large Language Model (LLM) als eher geschlossenes System (Closed LLM) bezeichnet werden kann, da das zugrundeliegende Datenmodell nicht transparent ist. Andere LLM – wie z.B. LLama – sind eher offen LLM (Open LLM), die gerade für Forschung und Wissenschaft geeigneter erscheinen.

In dem aktuellen Paper Wulff/Hussain/Mata (2024): The Behavioral and Social Sciences Need Open LLMs (PDF) argumentieren die Autoren dazu wie folgt:

Academic research should prefer open LLMs because they offer several practical and ethical advantages that are essential for scientific progress.

First, open models provide the transparency necessary for thorough scrutiny, allowing researchers to understand better the tools they are using and ensuring accountability.

Second, this transparency, combined with the adaptability of open models, facilitates innovation by enabling researchers to customize models to meet specific needs and explore new applications (Wulff & Mata, 2024).

Third, open LLMs support reproducibility, a cornerstone of scientific research, by allowing other researchers to replicate and build upon existing work.

Finally, the ethical implications of AI usage are better managed with open models, as they enable greater scrutiny of AI decisions, arguably reduce the risks of deploying biased or unethical systems, and avoid giving away data to further train closed, proprietary models.”

Ich frage mich an dieser Stelle, ob solche Hinweise nicht auch für die Nutzung von Künstlicher Intelligenz in Unternehmen gelten sollten.

Siehe dazu auch Künstliche Intelligenz: Vorteile von Open-Source-Modellen

Top 100 Tools for Learning 2024

Quelle: Tools for Learning

Es ist nicht verwunderlich, dass immer mehr KI-Anwendungen in der Liste der 100 Tools for Learning auftauchen. ChatGPT ist vom 4. auf den 2. Platz vorgerückt und weitere KI-Copilots tauchen in der Liste auf, bzw. rücken auch in den Platzierung vor. Es sieht so aus, als ob immer mehr KI-Anwendungen für Lernprozesse genutzt werden.

Es ist daher für viele an der Zeit, sich mit den Möglichkeiten und Beschränkungen von KI-Anwendungen bei Lernprozessen zu befassen. Am besten geht das in Unternehmen natürlich im Prozess der Arbeit: Kompetenzentwicklung im Prozess der Arbeit.

Erwähnen möchte ich hier, dass mir in der Liste Open-Source-KI-Anwendungen fehlen oder zu kurz kommen. Viele der KI-Anwendungen sind von Microsoft und Google dominiert, auch wenn z.B. ChatGPT von OpenAI ist und suggeriert, dass die Anwendung “Open” ist. Siehe dazu Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co. und Künstliche Intelligenz: Vorteile von Open Source Modellen.

Gedanken zur Frage: Warum fällt uns die Zusammenarbeit mit anderen so schwer?

In den letzten mehr als 100 Jahren hat sich die Arbeitsteilung in allen Bereichen der Gesellschaft etabliert. Es stellte sich dabei immer stärker heraus, dass es besser (wirtschaftlicher) ist, komplexe Themen, Prozesse, Produkte zu zerteilen und diese Teilsysteme dann massenhaft effektiv und effizient abzuarbeiten. Das führte zu Skaleneffekte, die kleine Betriebe nicht mehr abbilden konnten.

Es entwickelten sich beispielsweise Produktionsbetriebe, die sich immer weiter spezialisierten. Immer mehr Abteilungen wurden erforderlich, die großen Wert auf das Trennende legten. Jede Abteilung denkt in diesem Umfeld an sich und handelt für sich. Das färbte auch auf die Menschen ab, die fortan mehr an sich als an die Gemeinschaft dachten, und auch heute noch denken. Die Abbildung zeigt die Entwicklung dieser Tayloristischen Arbeitsteilung von Kleinbetrieb bis zum großen Produktionsbetrieb. (Massenproduktion).

Der arbeitsteilige Industriebetrieb (Metzger/Gründler 1994: Zurück auf Spitzenniveau)

Das Trennende wurde allerdings nicht nur in der Produktion umgesetzt, sondern auch in der Politik (Bundesministerien, Ländergrenzen, Grenzen bei den Kommunen) und bei Dienstleistungen. Das gesamte System war darauf ausgerichtet, Standardprodukte und Standarddienstleistungen in großer Zahl effektiv und effizient anzubieten und durchzuführen.

In den letzten Jahrzehnten kam es allerdings global zu immer mehr Vernetzungen von technischen Systemen (Informations- und Kommunikationssystemen), Verkehrswegen (Bahn, Schiff, Flugzeug…), von Personen untereinander, Personen und Dingen, Dingen mit Dingen usw. – das Internet der Dinge ist hier nur ein Schlagwort. Solche Vernetzungen führten zu immer komplexeren Anforderungen an Produkte und Dienstleistungen, die in den etablierten Strukturen kaum noch mit dem nötigen Tempo abgearbeitet werden konnten.

Mit projektorientierter Arbeit über die Grenzen der Abteilungen, und mit der intensiveren Zusammenarbeit mit externen Partnern und Kunden, konnten sich Organisationen auf diese neuen Herausforderungen einstellen (Projekte sind Träger des Wandels). Gesellschaftlich sehen wir diese Adaption in der Politik leider noch nicht. Alle Bürger und Organisationen sollen sich anpassen, die politische Struktur bleibt noch wie sie ist. Dass diese Situation zu Spannungen und Verwerfungen führt, ist offensichtlich.

Darüber hinaus müssen wir alle, die in einer Tayloristischen Arbeitswelt aufgewachsen sind, bzw. auch noch aufwachsen, lernen, wieder mit anderen zusammenzuarbeiten. Der Mensch ist per ein soziales Wesen, das auch an das Wohl anderer Menschen denkt, und entsprechend handelt. Nicht umsonst engagieren sich viele Menschen ehrenamtlich, helfen in der Not anderen Menschen, arbeiten kostenlos in Open-Source-Projekten mit, oder entwickeln frei verfügbare Innovationen, die sie anderen kostenlos zur Verfügung stellen (Open User Innovation).

Durch die Anpassung der Menschen an die Maschinenwelt sind diese Eigenschaften von Menschen etwas “überdeckt” worden. Es wird Zeit, dass diese menschlichen Seiten wieder unser Zusammenleben dominieren.

Vermindert der Einsatz Künstlicher Intelligenz menschliche Fähigkeiten?

Wenn wir ein Navigationssystem nutzen hilft uns das, schnell und bequem unser Ziel zu erreichen. Andererseits vermindert sich dadurch auch die menschliche Fähigkeit, sich zu orientieren. Die Nutzung eines Autos hilft uns, große Strecken zurückzulegen, doch vermindert es auch unsere körperlichen Fähigkeiten. Die Nutzung eines Computers erleichtert uns die Bearbeitung von Zahlenkolonnen, doch reduziert es auch unsere Rechen-Fähigkeiten. Die Nutzung von Suchmaschinen wie Google hat es uns erleichtert, Daten und Informationen schnell zu finden. Manche Fähigkeiten der Recherche und des Prüfens von Daten und Informationen bleiben hier manchmal wegen den schnellen Zyklen der Veränderungen auf der Strecke.

Warum sollten diese Effekte also bei der Nutzung von Künstlicher Intelligenz anders sein?

“Eine grundlegende Erkenntnis besagt, dass jedes technische Hilfsmittel die Fähigkeiten der Kombination «Mensch-Tool» zwar erhöht, jene des Menschen alleine aber potenziell vermindert (every augmentation is also an amputation, frei nach Marshall McLuhan)” (Digital Society Initiative 2023)

Im Kontext der universitären Bildung haben Forscher ermittelt, welche menschlichen Fähigkeiten in Zukunft in einem von KI dominierten Umfeld erhalten und gestärkt werden sollten (vgl. Digital Society Initiative 2023):

Grundlegende technische Fähigkeiten in Bezug auf KI-Technologien.

Sozialisationsfähigkeiten: Soziales Lernen, Einfühlungsvermögen, Resilienz und effektives
Teamwork gefördert werden. Dies bedingt auch ein Verständnis und eine Reflexion über ethische Werte und wissenschaftlichen Ethos.

Kritisches Denken: Kritische Diskurs, das Denken in Modellen und Abstraktionen sowie die Fähigkeit zur multiperspektivischen Kognition und Analyse.

Handeln unter Unsicherheit: Um mit der Geschwindigkeit des technischen Fortschritts (und auch den bekannten globalen Herausforderungen wie z.B. dem Klimawandel) umgehen zu können, sind Fähigkeiten zu fördern, welche das Handeln unter Unsicherheit erleichtern. Unter anderem zu nennen ist hier eine Schulung der Intuition und abstraktes Problemlösen.

Anmerken muss ich an dieser Stelle, dass persönliche Fähigkeiten nicht mit Persönlichkeitseigenschaften gleich gesetzt werden sollten. Siehe dazu auch Über den Umgang mit Ungewissheit. Es geht hier darum, dass gerade der Mensch als soziales und emotionales Wesen komplexe Problemlösungssituationen besser bewältigen kann, als es Technologie vermag. Wie ein Idealszenario der Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz aussehen kann, lesen Sie in diesem Blogbeitrag.

Von “Märkte als Ziele” zu “Märkte als Foren”

Image by user32212 from Pixabay

Es wird in unterschiedlichen Zusammenhängen (Kontexten) immer wieder von “dem Markt” gesprochen/geschrieben, der das Ziel aller Unternehmensaktivitäten sein soll. Das hört sich an, als ob “der Markt” ein relativ homogenes “Gebilde” ist, doch “der Markt” ist sehr differenziert. Weiterhin sind die verschiedenen Akteure immer stärker vernetzt (technologisch, räumlich, zeitlich usw.) und haben Rückkopplungen untereinander. Ramaswar und Prahalad haben daher vorgeschlagen, “Märkte als Foren” zu sehen.

“Market is no longer a target, it is more a forum (Prahalad and Ramaswamy 2004) to “tap into the knowledge of participants in the social ecosystem to create a freer flow of information, engage people more wholeheartedly, and enable richer, fuller stakeholder interactions” (Ramaswamy and Gouillart 2010). Further, in such a complex system knowledge is unevenly distributed (Hayek 1945) and the direction of flows of knowledge and information cannot be predetermined (Ramaswamy and Ozcan 2014)” (Freund, R. 2017).

Es ist somit nicht, oder nur bedingt, möglich, Wissensflüsse in solchen Foren (Marktplätzen) gezielt vorauszusagen. In Unternehmen möchte man allerdings gerne, den Wissensfluss so organisieren, dass ein bestimmtes Ergebnis (meistens ein Gewinn für das Unternehmen) herauskommt. Die Schwierigkeiten so vorzugehen haben viele Unternehmen erkannt, und öffnen ihre Innovationsgrenzen. Diese Entwicklung hat Chesbrough als Open Innovation bezeichnet. Dabei bezieht er sich ausdrücklich auf Unternehmen mit ihrem Geschäftsmodell.

Betrachten wir allerdings die oben genannten Charakteristika von Foren und den damit verbundenen Wissensflüssen müssen Innovationen nicht zwangsläufig nicht nur von Unternehmen ausgehen, sondern können in der Vernetzung von allen möglichen Foren-Teilnehmern geschehen. Ein so verstandenes Open User Innovation wird von Eric von Hippel propagiert.

Solche Bottom-up-Innovationen tauchen allerdings immer noch nicht in den offiziellen Innovations-Statistiken auf. Es ist vorstellbar, dass diese Art von Innovationen mit Hilfe neuer Technologien (Künstliche Intelligenz, Additive Manufacturing, Open Source, Maker-Bewegung usw.) in Zukunft immer mehr an Bedeutung gewinnt. Unternehmen sollten diese Entwicklungen frühzeitig adaptieren.

Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co.

OpenAI ist mit ChatGPT etc. inzwischen weltweit erfolgreich am Markt. Angefangen hat das damalige Start-up mit der Idee, Künstliche Intelligenz (AI) als Anwendung offen, und damit frei verfügbar und transparent anzubieten. – ganz im Sinne der Open Source Idee.

Durch den Einstieg von Microsoft ist der Name OpenAI zwar geblieben, doch sind die Angebote in der Zwischenzeit eher als geschlossenes, intransparentes System einzuordnen, mit dem die Inhaber (Shareholder) exorbitante Gewinne erzielen möchten.

Dieser Problematik hat sich eine Personengruppe angenommen, und eine erste Definition für Open Source AI erarbeitet, anhand der die aktuellen KI-Apps bewertet werden können: In dem Artikel MIT Technology Review (2024): We finally have a definition for open-source AI (Massachusetts Institut of Technology, 22.08.224) findet sich dazu folgendes:

“According to the group, an open-source AI system can be used for any purpose without securing permission, and researchers should be able to inspect its components and study how the system works.

It should also be possible to modify the system for any purpose—including to change its output—and to share it with others to usewith or without modificationsfor any purpose. In addition, the standard attempts to define a level of transparency for a given model’s training data, source code, and weights.”

Die Intransparenz der Trainingsdaten bei den eher geschlossenen KI-Systemen von OpenAI, Meta und Google führt aktuell dazu, dass sich diese Unternehmen mit sehr vielen Klagen und Rechtstreitigkeiten auseinandersetzen müssen.

Die Open Source Initiative (OSI) plant, eine Art Mechanismus zu entwickeln, der bei den jeweiligen KI-Anwendungen anzeigt, ob es sich wirklich um Open Source KI-Anwendungen handelt

Interessant ist, dass dieser Gedanke bei Nextcloud mit seinem Ethical AI Ansatz schon vorweggenommen wurde.

Projektmanagement: KI-Unterstützung der ICB 4.0 Kompetenzen

Künstliche Intelligenz (KI) oder auch Artificial Intelligence (AI) ist mit seinen unglaublichen Möglichkeiten in aller Munde – natürlich auch im Projektmanagement. Ein guter Bezugspunkt für eine KI-Unterstützung im Projektmanagement kann die ICB 4.0 (Individual Competence Baseline 4.0) sein, die von der International Project Management Association (IPMA) zur Professionalisierung des Projekt-, Programm- und Portfoliomanagements veröffentlicht wurde. In der ICB 4.0 sind insgesamt 28 Kompetenzen definiert, die in drei Kategorien gegliedert sind. Jeder Kategorie kann durch KI unterstützt werden.

KategorieThemenKI-Unterstützung
Kontextuelle KompetenzenStrategie, Kultur, Werte etc.Einhaltung der Governance-Richtlinien
Persönliche und soziale KompetenzenPersönliche Integrität, Verlässlichkeit, Teamarbeit etc.Kommunikations-
verhalten einzelner Teammitglieder
Technische KompetenzenProjektplanung und Steuerung, Risikomanagement etc.Virtuelle KI-Assistenten
In Anlehnung an Schelter, N. (2024)

Grundsätzlich halte ich diese strukturierte KI-Unterstützung auf Basis der ICB 4.0 – Kompetenzen für sinnvoll. Dennoch möchte ich folgendes anmerken:

(1) Es handelt sich hier möglicherweise um ein mismatch von Begrifflichkeiten. Einerseits sprechen wir von Kompetenzen, andererseits von Künstlicher Intelligenz. Hier gibt es durchaus Unterschiede, die zu beachten sind. Siehe dazu beispielsweise Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen?

(2) Als Leser unseres Blogs wissen Sie, dass ich eher das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk bevorzuge.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Die Reflexivität von Transaktionskosten und Innovationen am Beispiel von “Patient Innovation”

Screenshot von der Website https://patient-innovation.com

Wo kommt der Begriff “Transaktionskosten” überhaupt her? In meinem Blogbeitrag Brauchen wir Unternehmen? vom 15.12.2015 bin ich schon einmal darauf eingegangen, dass der Begriff auf Ronald Coase zurückgeht, der 1937 in seinem Artikel “The Nature of the Firm” erläuterte, warum wir Unternehmen benötigen. Die Antwort war schlüssig:

Die Transaktionskosten in Unternehmen waren eben günstiger als die Kosten, die außerhalb eines Unternehmens nötig waren, um eine Leistung zu erbringen. 

Dieser Ansatz hat sich auch Jahrzehnte als durchaus erfolgreich herausgestellt. Dabei kam den Unternehmen zugute, dass die Möglichkeiten der allgemeinen Digitalisierung in den Unternehmen und auch im Kundenkontakt intensiv genutzt wurden. Kunden können beispielsweise ihre Bankgeschäfte selbst durchführen, selbst online einchecken usw. Hinzu kommen noch die Möglichkeiten des 3D-Drucks (Additive Manufacturing) und jetzt auch noch der Künstlichen Intelligenz. Alles wurde und wird genutzt, um Transaktionskosten im Unternehmen stark zu reduzieren. Oftmals zugunsten einer besseren Gewinnmarge, weniger zum Nutzen ihrer Kunden.

Auf der anderen Seite merkt der Kunde oder User, dass er viele Transaktionen selbst durchführt und seine Bedürfnisse nicht wirklich von den Unternehmen befriedigt werden. Diese Kunden, Nutzer oder User erhalten also oftmals immer noch nicht den Value (Wert, Mehrwert), den alle seit den Zeiten von Marketing, Qualitätsmanagement, Innovationsmanagement und Agilem Projektmanagement etc. versprechen.

Was machen daher immer mehr User? Na ja, wenn sie schon vieles selbst machen sollen und die digitalen Tools sehr günstig zur Verfügung stehen (Open Source, 3D-Druck usw.) können sie ihre benötigten Dienstleistungen und Produkte auch gleich selbst designen, entwickeln und herstellen (User Innovation).

Ein Paradebeispiel für diese gesamte Entwicklung ist die Plattform Patient Innovation (Patienten-Innovation), deren Entwicklung ich auf den verschiedenen Weltkonferenzen verfolgen konnte. Die Initiative hat 2016 den Health Care Startup Award als Non-Profit Startup of the Year erhalten. Zunächst waren da medizinische Problemlösungen, von einzelnen Personen, da keine Lösungen (Dienstleistungen, Produkte) von Unternehmen angeboten wurden (Lohnt sich nicht / Break Even). Dann kamen die ersten eigenen Problemlösungen auf eine Plattform, die sich in der Zwischenzeit weltweiter Beliebtheit erfreut. Bitte schauen Sie sich auf der angegebenen Seite um.

Der Vorteil der immer stärker sinkenden Transaktionskosten in Unternehmen schlägt also auf die Unternehmen zurück – ist in diesem Sinne reflexiv. Ähnlich sieht es auch bei Innovationen aus. Künstliche Intelligenz mit ihren Möglichkeiten kann in Unternehmen für Innovationen genutzt werden, – und auch von einzelnen Usern, die für Ideen und Innovationen möglicherweise nicht immer Unternehmen mit den jeweiligen Strukturen benötigen. Eric von Hippel vom MIT hat das treffend “Democratizing Innovation” bzw. “Free Innovation” genannt. Siehe dazu auch

> Reflexive Modernisierung
> Von Democratizing Innovation zu Free Innovation
> Eric von Hippel (2017): Free Innovation
> 3D-Druck als reflexive Innovation?
> Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe. 4th International Conference for Entrepreneurship, Innovation, and Regional Development (ICEIRD2011), 05.-07. May

Multiple Intelligenzen nach Howard Gardner: Ist eine Intelligenz den anderen überlegen ?

Die von Howard Gardner veröffentlichte Theorie der Multiplen Intelligenzen geht von relativ unabhängigen Intelligenzen aus. Die Anzahl hat sich dabei in den letzten Jahren von 7 auf 9 erweitert. Es ist in diesem Zusammenhang wichtig, dass Howard Gardner den Intelligenz-Begriff beispielsweise im Vergleich zu dem oftmals vorherrschenden psychometrischen Intelligenzkonstrukt (Beispiel: Intelligenz-Quotient / IQ) entgrenzt/erweitert.

(…) the predictive value of IQ measures had been found to be poor in situations requiring production and evaluation of new ideas (Feldman 1980: 89-90).

Wenn es also verschiedene Multiple Intelligenzen gibt, so kann durchaus die Frage gestellt werden, ob nicht eine davon den anderen überlegen ist. Genau diese Frage hat Howard Gardner in dem englischsprachigen Blogbeitrag Are Some Intelligences Superior to Others? vom 11.04.2023 mit einem klaren NEIN beantwortet. Es kann zwar vorkommen, dass in einer Situation die eine oder andere Intelligenz dominiert, in einer anderen Situation aber wiederum nicht.

In einem speziellen beruflichen Umfeld (Kontext, Domäne) zeigen sich immer mehrere Intelligenzen.

In diesem Sinne hat man diese Multiplen Intelligenzen nicht, sondern sie zeigen sich in intelligenten (komplexen) Problemlösungen.

In diesem Zusammenhang musss ich auch die Frage stellen, ob die Künstliche Intelligenz der Menschlichen Intelligenz, oder die Menschliche Intelligenz der Künstlichen Intelligenz überlegen ist. Dieses Thema werde ich in einem der folgenden Blogbeiträge (versuchen zu) beantworten.