Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte

Fraunhofer IAO (2023): Leitfaden zu Strategie und Wandel für den KI-Einsatz, in Anlehnung an  Daugherty, P. R.; Wilson, H. J.: Human + Machine. Reimagining Work in the Age of AI. Harvard Business Review Press, 2018

Künstliche Intelligenz hat schon jetzt einen quantitativen und qualitativen technologischen Sprung auf allen gesellschaftlichen Ebenen ermöglicht. Es stellt sich daher immer mehr die Frage nach dem Umgang zwischen Menschen und diesen “Maschinen”. Da ich kein Freund von Dichotomien bin (Entweder-oder), suche ich immer wieder nach angemesseneren Erläuterungen. In dem vom Fraunhofer IAO (2023) veröffentlichten “Leitfaden zu Strategie und Wandel für den KI-Einsatz” gibt es dazu eine sehr gute Darstellung (Abbildung).

Maschinen-Tätigkeiten (hier: KI-Anwendungen) haben ihre Stärken bei Erledigen, Wiederholen, Vorhersagen und Anpassen. Das bedeutet, dass Berufe, die ihren Schwerpunkt bei diesen Tätigkeiten haben, in Zukunft wohl von KI abgelöst werden. Für Techniker/Ingenieure gibt es allerdings menschliche Tätigkeiten wie Führen, Empathisch sein, Kreativ sein und Bewerten, die technisch nicht so leicht zu ersetzen sind, also für Techniker (noch) Engineering bottlenecks darstellen.

Zwischen den beiden Extrempositionen gibt es allerdings einen sehr großen Bereich von Mensch-Maschinen-Tätigkeiten, der als die fehlende Mitte dargestellt wird. Dabei gibt es wiederum zwei Schwerpunkte: Einerseits kann der Mensch die Maschine trainieren, anderseits kann die Maschine dem Menschen assistieren. Gerade diese Bereiche können als die eigentlichen Chancen von Künstlicher Intelligenz (KI) gesehen und zum Wohle von Menschen, Organisationen und Gesellschaften – nicht nur zum Wohle großer, rein kommerziell ausgerichteter Konzerne. Siehe dazu auch Der KI-basierte Arbeitsplatz – eine erste Einordnung.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Fraunhofer IAO: Rechtliche Fragen bei der Nutzung von Künstlicher Intelligenz (KI)

Der Einsatz von Künstlicher Intelligenz (KI) wird aktuell in allen gesellschaftlichen Bereichen getestet. Bei der wirtschaftlichen Nutzung von KI kommen dabei immer öfter auch rechtliche Fragen auf, die das Fraunhofer IAO (2023) in einem “Leitfaden zu Strategie und Wandel für den KI-Einsatz” zusammengestellt hat. Danach sollte bei der strategischen Planung des KI-Einsatzes insbesondere auf folgende Bereiche geachtet werden:

KI-Einsatz generell:
– Rechteklärung bei der Beschaffung von Trainingsdaten
– Nutzung der KI durch den Anwender / Eingabekontrolle (z. B. Datenschutzrecht, Geschäftsgeheimnisse)

Entscheidungsfindung:
– Arbeitsrecht
– Datenschutzrecht
– Allg. Persönlichkeitsrecht

Produktiver Einsatz von KI
– Schutzfähigkeit von mittels KI produzierten Daten
– Gesetzliche Schutzrechte an den Daten
– Patente / Gebrauchsmuster
– Design (im gesetzlichen Sinne)
– Urheberrechte / Leistungsschutzrechte
– Vertraglicher Schutz der Daten

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Global Risks Report 2024: Misinformation und Disinformation neu im Top 10 Ranking

World Economic Forum (2024): Global Risk Report

Das World Economic Forum (2024): World Risk Report (PDF) geht wieder einmal sehr ausführlich auf mögliche globale Risiken ein. Diesmal gibt es allerdings eine Besonderheit, auf die ich etwas ausführlicher eingehen möchte. Unter dem Punkt False Information werden Misinformation und Disinformation neu im Top 10 Ranking aufgenommen. Ein Treiber für diese Entwicklung ist natürlich auch Künstliche Intelligenz (KI), oder Artificial Intelligence (AI):

Misinformation and disinformation is a new leader of the top 10 rankings this year. No longer requiring a niche skill set, easy-to-use interfaces to large-scale artificial intelligence (AI) models have already enabled an explosion in falsified information and so-called ‘synthetic’ content, from sophisticated voice cloning to counterfeit websites. To combat growing risks, governments are beginning to roll out new and evolving regulations to target both hosts and creators of online disinformation and illegal content. Nascent regulation of generative AI will likely complement these efforts. For example, requirements in China
to watermark AI-generated content may help identify false information, including unintentional misinformation through AI hallucinated content. Generally however, the speed and effectiveness of regulation is unlikely to match the pace of development” (WEF (2024:18).

Jeder der die Entwicklung von AI (KI) verfolgt wird erkennen, dass es weltweite Bestrebungen gibt, Grenzen für die Nutzung von KI (AI) zu formulieren. Doch wird auch immer deutlicher, dass Regularien oftmals zu langsam umgesetzt werden, und somit ein Graubereich zwischen den technologischen Möglichkeiten und gesetzten Grenzen entsteht.

Es ist somit auch jeder Einzelne angesprochen, Content kritisch zu hinterfragen. Eine gute Möglichkeit ist, bei selbst generierten Content die Quellen transparent anzugeben, und das auch bei anderen einzufordern. In unserem Blog, oder auch in den für Lehrgänge erstellten Teilnehmerunterlagen, haben wir das schon von Anfang an umgesetzt.

Solche Zusammenhänge berücksichtigen wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz (KI): Lock-in und Switching Costs

In der Vergangenheit wurden z.B. im Projektmanagement nach und nach immer mehr digitale Tools verwendet. Zunächst waren das Anwendungen aus dem Office-Paket, dann kam Microsoft Project hinzu und in der Zwischenzeit gibt es von Microsoft eine integrierte Kollaborationsplattform (Sharepoint, Microsoft Project Online, Teams, Office Apps etc.), die das Arbeiten in Projekten effektiver/produktiver macht. Der nächste Booster wird Künstliche Intelligenz (KI) sein, die über OpenAI als KI-Assistent Projektmanagement-Prozesse unterstützen wird. Andere Tech-Größen wie Google, Facebook und Apple werden diesem Beispiel folgen. Der Vorteil des von Microsoft etablierten IT-Ökosystems ist, dass sich Mitarbeiter, Teams, Organisationen – ja sogar ganze staatliche Verwaltungsstrukturen – an die Logik von Microsoft angepasst haben. Ob das gut ist, kann allerdings infrage gestellt werden. Siehe dazu Warum geschlossene Softwaresysteme auf Dauer viel Zeit und viel Geld kosten.

Dieser Lock-in führt zu einer Pfadabhängigkeit und macht es für Alternativen schwer – Alternativen wie z.B. Open Source Anwendungen. Denn obwohl berechtigte Gründe gegen ein kommerzielles IT-Ökosystem sprechen, bleiben viele Organisationen bei den etablierten IT-Strukturen, da diese Organisationen die Kosten für einen Wechsel (Switching Costs) scheuen. Es wird in Zukunft somit um die Frage gehen, was teurer ist: Das Festhalten an etablierten IT-Strukturen oder ein Wechsel zu Open Source Anwendungen, die einen Souveränen Arbeitsplatz auf Open Source Basis garantieren. Dazu zählt auch, die Verwaltung und die Nutzen der eigenen Daten auf den eigenen Servern, denn Daten sind das neue Öl. Siehe dazu auch Was wäre wenn jeder über seine Daten selbst entscheiden könnte?

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Jeff Sutherland: “Langsamkeit ist keine Option”

In der aktuellen Ausgabe von projektmanagementsktuell 04/2023 wird unter der Überschrift “Langsamkeit ist keine Option” noch einmal auf die GPM-Veranstaltung vom 27. Juni 2023 hingewiesen, bei der Jeff Sutherland noch einmal eindringlich auf die notwendige Agilität von Personen und Organisationen hinwies. Jeff Sutherland hat gemeinsam mit anderen das Manifest für agile Softwareentwicklung geprägt, und ist mit dem Scrum-Framework später zu einem der wichtigsten Vertreter des Agilen Projektmanagements geworden.

In dem genannten Beitrag werden Tesla und Rocket Mortage als positive Beispiele genannt, die durch agile Arbeitsweisen wesentlich schneller geworden sind, und dadurch auch erhebliche Marktvorteile erzielen konnten. Das haben diese Unternehmen mit einer strikten Entbürokratisierung, mit schnellen Entscheidungsprozessen und mit dem Einsatz moderner Technologien, wie z.B. Künstliche Intelligenz erreicht. Es wundert daher nicht, dass Sutherland das Tempo, die Geschwindigkeit in allen Prozessen und auf allen Ebenen hervorhebt:

„Analysten sagen, dass Entwickler 2030 mindestens 10 Mal produktiver sein werden als heute. Langsam ist keine Option” (ebd.).

Solche Zusammenhänge thematisieren wir auch in dem von uns entwickelten Blended Learning Lehrgang Projektmanager AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Bitkom: Open Source Monitor 2023

In den letzten Jahrzehnten haben wir uns in Europa/Deutschland in vielen Bereichen von verschiedenen Regionen der Welt abhängig gemacht, die uns jetzt Schwierigkeiten bereiten. Damit meine ich zunächst die offensichtlichen Abhängigkeiten von russischem Gas, den Ölimporten aus Krisenregionen, aber auch von den globalen Lieferketten.

Hinzu kommt aktuell eine Abhängigkeit, die etwas anders gelagert ist. Ich meine hier die digitale Abhängigkeit von den US-amerikanischen Tech-Konzernen. Siehe dazu beispielhaft Warum geschlossene Softwaresysteme auf Dauer viel Zeit und viel Geld kosten. Erste Anzeichen für mögliche Konflikte gab es schon mit der Einführung der DSGVO (Datenschutz-Richtlinie), die manche Tech-Konzerne nicht so ganz einhalten woll(t)en. In diesen Diskussionen, und in den Diskussionen über Künstliche Intelligenz ist vielen Entscheidungsträgern auf der politischen, aber auch unternehmerischen Ebene, klar geworden, dass die Digitale Souveränität ein wichtiges Gut ist.

Es ist daher nicht verwunderlich, dass der Trend zu immer mehr Open Source Software (OSS) nun auch im Open Source Monitor 2023 der Bitkom in einer Studie belegt wurde. Dr. Frank Termer, Bereichsleiter Software Bitkom, fasst die Zukunfstperspektiven von Open Source Software (OSS) in Deutschland wie folgt zusammen:

Die Zukunftsperspektiven von OSS in Deutschland sind vielversprechend. Immer mehr Unternehmen und Organisationen erkennen die Vorteile von OSS-Lösungen und wissen diese zu nutzen. Dabei agieren sie nicht nur als reine »Konsumenten« von OSS, sondern erkennen ihre Verantwortung für das Open-Source-Ökosystem und bringen sich durch aktive Mitarbeit und inhaltliche Beiträge in die Open-SourceCommunity ein. Insbesondere die öffentliche Hand hat diesen Weg eingeschlagen und bekennt sich zunehmend zu ihrer Verantwortung, aktiver Teil der OSS-Community zu sein, um diese weiterzuentwickeln und eigene Vorteile zu realisieren. Damit trägt OSS auch zur Stärkung der digitalen Souveränität bei, da europäische Unternehmen und Institutionen die Kontrolle über ihre digitalen Infrastrukturen behalten oder wiedererlangen wollen. Sie ermöglicht kleinen und mittleren Unternehmen den Einsatz kostengünstiger und dennoch leistungsfähiger Lösungen und stärkt damit ihre Wettbewerbsfähigkeit. Diese Entwicklung wird sich mit Sicherheit weiter fortsetzen” (ebd.).

Wir arbeiten seit einiger Zeit daran, einen Souveränen Arbeitsplatz auf Open Source Basis gerade in Bezug auf das Thema “Projektmanagement” zu entwickeln. Siehe dazu Sovereign Workplace: Der unabhängige Arbeitsplatz auf integrierter Open Source Basis.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Erzwingt Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz und Empathie?

Die aktuellen Diskussionen um Künstliche Intelligenz (KI) sind oft ambivalent. – wie immer bei Innovationen. Und wie immer ist an allen Argumentationslinien “etwas dran”. In Zukunft wird es daher auch darum gehen, Künstliche Intelligenz so zu nutzen, dass sie ihre Vorteile für Menschen, Organisationen und Gesellschaften entfalten kann. In meinen verschiedenen Beiträgen zur Künstlichen Intelligenz finden Sie dazu weitere Hinweise. Interessant finde ich in diesem Zusammenhang folgende Textpassage, in der davon ausgegangen wird, dass Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz “erzwingen” wird.

Wir haben nichts zu verlieren als unser inneres Maschine-Sein. Wir haben eine neue, humane Welt zu gewinnen (Horx, 2020). Ethische Kompetenz? Ja! Ambiguität meistern? Ja! Kritisch und reflexiv sein? Ja! Es ist das Zusammenspiel verschiedener Future Skills, das die Zukunft des Bildungssystems bestimmt. Wenn wir KI ernst nehmen. Und damit erzwingt Künstliche Intelligenz einen Aufstieg menschlicher Intelligenz und Empathie. Indem die KI uns verbesserte Prognosen liefert, fordert sie uns gleichzeitig heraus, unsere Zukunftsfähigkeit zu verbessern. Künstliche Intelligenz kann nur wahrhaft intelligent sein, wenn sie durch humane Ziele gestaltet und mit menschlicher Bedeutung imprägniert ist. Was produziert werden soll, welche Mobilitäts- und Kommunikationsformen für die Zukunft sinnvoll sind, das hängt immer von den Kontexten menschlicher Erfahrungen ab. Diese Ziele liegen jenseits maschineller Logik. Sie sind Hervorbringungen der menschlichen Kultur, Ausdrucksformen der Empathie und des Bewusstseins” (Ehlers 2023).

Upgrade auf Nextcloud Hub 7 durchgeführt: Weitere Möglichkeiten, Künstliche Intelligenz (KI) zu integrieren

Eigener Screenshot von unserer Nextcloud Hub 7 – Oberfläche.
Nextcloud Hub 7 wurde am 12.12.2023 veröffentlicht

Als Leser unseres Blogs wissen Sie, dass wir an einem souveränen, projektorientierten Arbeitsplatz auf Open Source Basis arbeiten, und dafür schon viele Bausteine miteinander verknüpft haben. Open Source deshalb, damit alle generierten Daten auf unseren Servern bleiben (Datenschutz und Transparenz).

Neben dem Lernmanagementsystem (LMS) Moodle, sind das OpenProject, BigBlueButton, Greenlight und Nextcloud mit CollaboraOnline, Deck (Task Boards), Talk (Webkonferenzsystem), Fotos, Kalender usw. Weiterhin wollen wir in 2024 verstärkt KI (Künstliche Intelligenz) im Projektmanagement nutzen. Siehe dazu auch KI am Arbeitsplatz.

Mit dem jetzt auf unseren Servern installierten Upgrade auf Nextcloud Hub 7 (veröffentlicht am 12.12.2023) gibt es weitere Verbesserungen einzelner Apps, und es kann nun – neben den schon vorhandenen KI-Möglichkeiten wie Llama-2, Gpt4ALL-J, (Local) Stable Diffusion, Airoboros, Whisper, Dolly, Bark, Piper, Falcon, Bert, GPT-NeoX, MPT – auch noch Aleph Alfa als weitere KI (Künstliche Intelligenz) genutzt werden.

Mit dem Smart Picker kann in Nextcloud u.a. KI (Künstliche Intelligenz) in jeder App, oder auch in jedem Projektmanagement-Prozesschritt (ob klassisch plangetrieben, agil oder hybrid), aufgrufen werden. Das alles wird mit einer Art Ampelfunktion unterstützt. Damit werden KI-Anwendungen mit rot (wei z.B. ChatGPT), gelb oder grün gekennzeichent, je nachdem welche Transparenz bei den verwendeten Daten, und der Vorgehensweisen bei der Nutzung der Daten bekannt ist (Ethical KI).

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Projektmanagement-Themen 2024

Image by Gerd Altmann from Pixabay

Das Jahr 2023 neigt sich dem Ende zu, und 2024 “steht vor der Tür”. Es ist daher an der Zeit zu überlegen, welche Themen im Projektmanagement in 2024 wichtig werden, bzw. werden könnten. In der aktuellen Zeitschrift projektmanagementaktuell 5/2023, die jetzt schon online verfügbar ist und am 18.12.2023 als Printversion vorliegen wird, sind auf Seite 4 schon einige Themen für 2024 benannt worden. Die Reihenfolge stellt dabei nicht die Wichtigkeit dar:

Künstliche Intelligenz im Projektmanagement

Nachhaltigkeit in Projekten, Nachhaltigkeit durch Projekte

Projekte zur Verbesserung und Weiterentwicklung der Infrastruktur

Projektmanagement und Wandel

Projekte in innovativen und kreativen Umgebungen

Auch wir werden uns weiterhin mit den meisten dieser Themen in den von uns entwickelten Lehrgängen, und in vielen Blogbeiträgen befassen.

Informationen zu den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), und zu Terminen in 2024 finden Sie auf unserer Lernplattform.

Künstliche Intelligenz – ein Kategorienfehler?

Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:

“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).

Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.