Global Risks Report 2024: Misinformation und Disinformation neu im Top 10 Ranking

World Economic Forum (2024): Global Risk Report

Das World Economic Forum (2024): World Risk Report (PDF) geht wieder einmal sehr ausführlich auf mögliche globale Risiken ein. Diesmal gibt es allerdings eine Besonderheit, auf die ich etwas ausführlicher eingehen möchte. Unter dem Punkt False Information werden Misinformation und Disinformation neu im Top 10 Ranking aufgenommen. Ein Treiber für diese Entwicklung ist natürlich auch Künstliche Intelligenz (KI), oder Artificial Intelligence (AI):

Misinformation and disinformation is a new leader of the top 10 rankings this year. No longer requiring a niche skill set, easy-to-use interfaces to large-scale artificial intelligence (AI) models have already enabled an explosion in falsified information and so-called ‘synthetic’ content, from sophisticated voice cloning to counterfeit websites. To combat growing risks, governments are beginning to roll out new and evolving regulations to target both hosts and creators of online disinformation and illegal content. Nascent regulation of generative AI will likely complement these efforts. For example, requirements in China
to watermark AI-generated content may help identify false information, including unintentional misinformation through AI hallucinated content. Generally however, the speed and effectiveness of regulation is unlikely to match the pace of development” (WEF (2024:18).

Jeder der die Entwicklung von AI (KI) verfolgt wird erkennen, dass es weltweite Bestrebungen gibt, Grenzen für die Nutzung von KI (AI) zu formulieren. Doch wird auch immer deutlicher, dass Regularien oftmals zu langsam umgesetzt werden, und somit ein Graubereich zwischen den technologischen Möglichkeiten und gesetzten Grenzen entsteht.

Es ist somit auch jeder Einzelne angesprochen, Content kritisch zu hinterfragen. Eine gute Möglichkeit ist, bei selbst generierten Content die Quellen transparent anzugeben, und das auch bei anderen einzufordern. In unserem Blog, oder auch in den für Lehrgänge erstellten Teilnehmerunterlagen, haben wir das schon von Anfang an umgesetzt.

Solche Zusammenhänge berücksichtigen wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz (KI): Lock-in und Switching Costs

In der Vergangenheit wurden z.B. im Projektmanagement nach und nach immer mehr digitale Tools verwendet. Zunächst waren das Anwendungen aus dem Office-Paket, dann kam Microsoft Project hinzu und in der Zwischenzeit gibt es von Microsoft eine integrierte Kollaborationsplattform (Sharepoint, Microsoft Project Online, Teams, Office Apps etc.), die das Arbeiten in Projekten effektiver/produktiver macht. Der nächste Booster wird Künstliche Intelligenz (KI) sein, die über OpenAI als KI-Assistent Projektmanagement-Prozesse unterstützen wird. Andere Tech-Größen wie Google, Facebook und Apple werden diesem Beispiel folgen. Der Vorteil des von Microsoft etablierten IT-Ökosystems ist, dass sich Mitarbeiter, Teams, Organisationen – ja sogar ganze staatliche Verwaltungsstrukturen – an die Logik von Microsoft angepasst haben. Ob das gut ist, kann allerdings infrage gestellt werden. Siehe dazu Warum geschlossene Softwaresysteme auf Dauer viel Zeit und viel Geld kosten.

Dieser Lock-in führt zu einer Pfadabhängigkeit und macht es für Alternativen schwer – Alternativen wie z.B. Open Source Anwendungen. Denn obwohl berechtigte Gründe gegen ein kommerzielles IT-Ökosystem sprechen, bleiben viele Organisationen bei den etablierten IT-Strukturen, da diese Organisationen die Kosten für einen Wechsel (Switching Costs) scheuen. Es wird in Zukunft somit um die Frage gehen, was teurer ist: Das Festhalten an etablierten IT-Strukturen oder ein Wechsel zu Open Source Anwendungen, die einen Souveränen Arbeitsplatz auf Open Source Basis garantieren. Dazu zählt auch, die Verwaltung und die Nutzen der eigenen Daten auf den eigenen Servern, denn Daten sind das neue Öl. Siehe dazu auch Was wäre wenn jeder über seine Daten selbst entscheiden könnte?

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Erzwingt Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz und Empathie?

Die aktuellen Diskussionen um Künstliche Intelligenz (KI) sind oft ambivalent. – wie immer bei Innovationen. Und wie immer ist an allen Argumentationslinien “etwas dran”. In Zukunft wird es daher auch darum gehen, Künstliche Intelligenz so zu nutzen, dass sie ihre Vorteile für Menschen, Organisationen und Gesellschaften entfalten kann. In meinen verschiedenen Beiträgen zur Künstlichen Intelligenz finden Sie dazu weitere Hinweise. Interessant finde ich in diesem Zusammenhang folgende Textpassage, in der davon ausgegangen wird, dass Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz “erzwingen” wird.

Wir haben nichts zu verlieren als unser inneres Maschine-Sein. Wir haben eine neue, humane Welt zu gewinnen (Horx, 2020). Ethische Kompetenz? Ja! Ambiguität meistern? Ja! Kritisch und reflexiv sein? Ja! Es ist das Zusammenspiel verschiedener Future Skills, das die Zukunft des Bildungssystems bestimmt. Wenn wir KI ernst nehmen. Und damit erzwingt Künstliche Intelligenz einen Aufstieg menschlicher Intelligenz und Empathie. Indem die KI uns verbesserte Prognosen liefert, fordert sie uns gleichzeitig heraus, unsere Zukunftsfähigkeit zu verbessern. Künstliche Intelligenz kann nur wahrhaft intelligent sein, wenn sie durch humane Ziele gestaltet und mit menschlicher Bedeutung imprägniert ist. Was produziert werden soll, welche Mobilitäts- und Kommunikationsformen für die Zukunft sinnvoll sind, das hängt immer von den Kontexten menschlicher Erfahrungen ab. Diese Ziele liegen jenseits maschineller Logik. Sie sind Hervorbringungen der menschlichen Kultur, Ausdrucksformen der Empathie und des Bewusstseins” (Ehlers 2023).

Upgrade auf Nextcloud Hub 7 durchgeführt: Weitere Möglichkeiten, Künstliche Intelligenz (KI) zu integrieren

Eigener Screenshot von unserer Nextcloud Hub 7 – Oberfläche.
Nextcloud Hub 7 wurde am 12.12.2023 veröffentlicht

Als Leser unseres Blogs wissen Sie, dass wir an einem souveränen, projektorientierten Arbeitsplatz auf Open Source Basis arbeiten, und dafür schon viele Bausteine miteinander verknüpft haben. Open Source deshalb, damit alle generierten Daten auf unseren Servern bleiben (Datenschutz und Transparenz).

Neben dem Lernmanagementsystem (LMS) Moodle, sind das OpenProject, BigBlueButton, Greenlight und Nextcloud mit CollaboraOnline, Deck (Task Boards), Talk (Webkonferenzsystem), Fotos, Kalender usw. Weiterhin wollen wir in 2024 verstärkt KI (Künstliche Intelligenz) im Projektmanagement nutzen. Siehe dazu auch KI am Arbeitsplatz.

Mit dem jetzt auf unseren Servern installierten Upgrade auf Nextcloud Hub 7 (veröffentlicht am 12.12.2023) gibt es weitere Verbesserungen einzelner Apps, und es kann nun – neben den schon vorhandenen KI-Möglichkeiten wie Llama-2, Gpt4ALL-J, (Local) Stable Diffusion, Airoboros, Whisper, Dolly, Bark, Piper, Falcon, Bert, GPT-NeoX, MPT – auch noch Aleph Alfa als weitere KI (Künstliche Intelligenz) genutzt werden.

Mit dem Smart Picker kann in Nextcloud u.a. KI (Künstliche Intelligenz) in jeder App, oder auch in jedem Projektmanagement-Prozesschritt (ob klassisch plangetrieben, agil oder hybrid), aufgrufen werden. Das alles wird mit einer Art Ampelfunktion unterstützt. Damit werden KI-Anwendungen mit rot (wei z.B. ChatGPT), gelb oder grün gekennzeichent, je nachdem welche Transparenz bei den verwendeten Daten, und der Vorgehensweisen bei der Nutzung der Daten bekannt ist (Ethical KI).

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz – ein Kategorienfehler?

Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:

“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).

Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Learning Analytics: Auch beim Lernen geht es um den Umgang mit Daten – und damit auch um Künstliche Intelligenz (KI)

Wenn es um viele Daten geht, kommt schnell Künstliche Intelligenz (KI) ins Spiel. Das ist nicht nur bei Produktionsprozessen, Marketingaktivitäten etc. so, sondern auch beim Lernen, und somit auch bei Organisationen. Am Beispiel der Organisation Hochschule, den Leherenden und den Lehrnenden kann beispielhaft gezeigt werden, wie Künstliche Intelligenz (KI) im Rahmen von Learning Analytics auf verschiedenen Ebenen genutzt werden kann.

“Am Beispiel der Learning Analytics, also der Auswertung von erhobenen Daten rund um Lernvorgänge zum Zwecke des Verständnisses, der Optimierung und Vorhersage des Lernverhaltens und des Lernerfolgs, lässt sich aufzeigen, wie alle hochschuldidaktischen Ebenen und die Rollen der Lernenden, Lehrenden und der Organisation von KI-Innovationen erreichbar sind, siehe Abbildung. Die individuelle Ebene des Lernens bis hin zur Entwicklung und Neugestaltung von Studiengängen ist adressierbar” (Schmohl 2023).

LerndendeLehrendeOrganisation
Mikroebene
(Lernsequenz)
Adaptive Lernsoftware zur Klausur-vorbereitungInformation zu Schwierigkeiten des Kurses über eine AufgabeDynamische Bereitstellung von Ressourcen, z.B. Servern
Mesoebene
(Semester, Kurs)
Monitoring des eigenen Lernerfolgs über ein SemesterAnalyse von Gruppen-lernprozessen in großen OnlinekursenUnterstützung bei der zeitlichen Planung des Lehrangebots
Makroebene
(Langfristig)
Langfristige ePortfolios, Passung zu JobprofilenWeiterentwicklung als Lehrkraft, Erkenntnisse zu ErfolgsfaktorenMonitoring und Revision von Studiengängen
Learning Analytics aus de Witt et al. (2020:14), zitiert in Herzberg (2023), in: Schmohl et al (Hrsg.) 2023

Es ist vielen Bildungsorganisation nocht nicht bewusst, dass die Daten von Lernenden, Projektteams, der Organisation und der außerorganisationalen Netzwerke für die Zukunft des Lebenslangen Lernens von großer Bedeutung sind. Mit innovativen KI-Anwendungen können diese Daten zur Kompetenzentwicklung auf allen Ebenen beitragen. Voraussetzung sollte aus meiner Sicht eine Ethische KI sein, die Transparent ist und bei der die generierten daten dem Lernenden gehören. Siehe dazu auch Nextcloud Hub 4 mit “ethical AI”-Integration.

In den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK) gehen wir auf diese Entwicklungen ein. Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Warum kann NEXTCLOUD zukünftig eine interessante Alternative zu ChatGPT (OpenAI) oder Bard (Google) sein?

Ja, es gibt ChatGPT von OpenAI, Bard von Google usw. usw. und ich muss sagen, dass die Ergebnisse z.B. von ChatGPT schon beeindruckend sind. Warum sollte man sich dennoch mit Alternatiuven befassen? Es ist relativ einfach, denn manche Unternehmen verbieten den Einsatz von diesen Systemen. Den Grund liefert die Google-Mutter Alphabet selbst: Bard: Google warnt Mitarbeiter vor der Nutzung des eigenen Chatbots. Hier ein Auszug:

Ausgerechnet die Google-Mutter Alphabet warnt seine Mitarbeiter vor der Nutzung generativer KI – inklusive des hauseigenen Chatbots Bard. Speziell Ingenieure sollten weder Code zur Fehleranalyse in trainierten Sprachmodelle eingeben, noch die ausgegebenen Zeilen nutzen. In einem am 1. Juni aktualisierten Datenschutzhinweis von Google heißt es Reuters zufolge: “Fügen Sie keine vertraulichen oder sensiblen Informationen in Ihre Bard-Konversationen ein”. (ebd.)

Die Entwicklungen von NEXTCLOUD könnten in diesem Zusammenhang interessant werden, da es auf Open-Source-Basis die in KI-Anwednungen generieten Daten in ihrer eigenen geschützten Cloud behält. Wie kann man sich das vorstellen? Wie Sie wissen, haben wir Nextcloud als Open-Source-Anwendung für Cloudanwendungen auf unseren Servern installiert. Dabei war bisher der Schwerpunkt auf der Weiterentwicklung zu einer integrierten Kollaborationsplattform auf Open-Source-Basis.

Seit Nextcloud Hub 4 gibt es die Möglichkeit, Apps zur Künstlicher Intelligenz (KI; AI: Articicial Intelligence) in Dateien aufzurufen. In dem Beispiel (Screenshot) haben wir eine Textdatei (TEXT.md) geöffnet, und mit dem Smart Picker (“/”) verschiedene KI-Anwendungen geöffnet. Eine davon basiert auf Stabe Diffusion und kann Bilder auf Basis einer Eingabe (Prompt) generieren. Beispielhaft haben wir in der vorgesehenen Zeile “Projektmanager in einer Teambesprechung” eingegeben. Das Ergebnis sehen Sie in dem Screenshot. Die generierten Daten und die Prompts bleiben alle auf unseren Servern. In einem der nächsten Blogbeiträge, werde ich eine weitere KI-Anwendung innerhalt von NEXTCLOUD vorstelen.

Ziel von Nextcloud ist es, in Zukunft immer mehr AI-Anwendungen integriert anzubieten, wobei die AI-Apps auch ethisch eingeordnet werden sollen. Basis dafür ist eine Ampelfunktion. Siehe dazu Nextcloud Hub 4 mit “ethical AI” Integration – Open Source.

Wir werden in der nächsten Zeit immer mehr AI-Apps in Nextcloud in Bezug zu unseren Themen wie z.B. Projektmanagement ausprobieren, und so wichtige Erfahrungen sammeln.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

In verschiedenen Blogbeiträgen habe ich immer wieder etwas zum Thema “Intelligenz” geschrieben. In Reden wir über Dummheit habe ich beispielsweise die Dichotomie “Intelligenz – Dummheit” kritisiert. Darüber hinaus kommt es mir bei der Diskussion um Künstliche Intelligenz so vor, als ob wir über intelligente technische Systeme sprechen, und dabei gleichzeitig von dummen Menschen ausgehen. Das führt zu der Frage, ob hinter der Künstlichen Intelligenz eine “echte Intelligenz” steckt. Dazu habe ich folgendes gefunden:

Lukowicz: KI ist nichts anderes als eine Menge von mathematischen Methoden und Algorithmen, bei denen man herausgefunden hat, dass sie in der Lage sind, Dinge zu tun, bei denen wir bisher gedacht haben, sie seien nur Menschen vorbehalten. Vor 20 Jahren hat eine KI zum Beispiel zum ersten Mal gegen einen menschlichen Großmeister im Schach gewonnen. KI kann aber auch komplexe Bilder oder Musikstücke erzeugen. Es ist wichtig zu verstehen, dass – egal wie erstaunlich das ist – dahinter keine echte Intelligenz steht. Zumindest nicht in dem Sinne, wie wir vielleicht Intelligenz verstehen. Es sind sehr genau definierte, aber eben oft recht einfache mathematische Verfahren, die auf große Datenmengen angewendet werden” (Quelle: Tagesschau vom 14.06.2023).

Das sagt in dem Interview immerhin Paul Lukowicz, Wissenschaftlicher Direktor und Leiter des Forschungsbereichs Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Lehrstuhlinhaber im Fachbereich Informatik der Technischen Universität Kaiserslautern. Führt die Adaption des Intelligenzbegriffs hier in die Irre? Ist es möglicherweise – wie Howard Gardner es formuliert – ein Kategorienfehler? Howard Gardner argumentiert in seiner Theorie der Multiplen Intelligenzen, dass Intelligenz ein biopsychologischges Potential darstellt.

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen (Gardner 2002:46-47).

Für Gardner ist Intelligenz ein „biopsychologisches Potenzial”, wodurch sich dieses Intelligenzverständnis von Maschinen-Intelligenz oder künstlicher Intelligenz unterscheidet.

Demnächst werden wir auch Online-Formate zu ChatGPT im Projektmanagement und zur Theorie der Multiplen Intelligenzen anbieten.

Der KI-basierte Arbeitsplatz – eine erste Einordnung

Die Entwicklung bei KI-Anwendungen ist rasant. Alleine die weltweite Nutzung von ChatGPT von OpenAI hat alle Erwartungen übertroffen. Die Abkürzung ChatGPT lautet dabei etwas ausführlicher “Chatbot Generative Pre-trained Transformer”. Die hinterlegten Daten sind also vorher “trainiert” worden. Beim Start von ChatGPT standen nur Daten bis 2021 zur Verfügung. Dennoch waren die ersten Ergebnisse verblüffend. Siehe dazu ChatGPT – Was ist das? (MDR vom 11.06.2023). In allen gesellschaftlichen Bereichen werden in der Zwischenzeit die Möglichkeiten von ChatGPT genutzt, incl. der mehr als 128 Plugins (Stand: Mai 2023). Dabei ist das Spektrum von OpenAI nicht alleine auf Text beschränkt, sondern enthält mit Dall-E auch Möglichkeiten, KI auf Fotos anzuwenden.

In 2023 hat sich Microsoft mit Milliarden US$ bei OpenAI engagiert. Alle aktuellen und zukünftigen KI-Anwendungen von OpenAI will Microsoft in seine Produkte, wie z.B. in Office, oder auch in die Suchmaschine Bing integrieren – Beispiel. Die Erweiterung auf eine Suchmaschine ermöglicht es der KI-Anwendung, auch auf Daten aus dem Internet zuzugreifen. Dabei ist nicht immer klar zu erkennen, welcher (beispielsweise) Text von welcher Quelle ist. Es wundert daher nicht, dass sich dagegen immer mehr Autoren wehren. Eine ähnliche Entwicklung gibt es bei Fotos. Der Beitrag Künstliche Intelligenz (KI) im Urheberrecht: Welche Rechte bestehen? bietet dazu gute erste Informationen. Wenn Organisationen nun KI-Anwendungen am Arbeitsplatz nutzen wollen, stehen sie vor folgenden Fragen (Auswahl):

  • Welche Anwendungen sind für welchen Arbeitsplatz sinnvoll (Mehrwert)?
  • Wie kann KI in die Arbeitsprozesse integriert werden?
  • Was ist mit dem Urheberrecht?
  • Was passiert mit den generierten Daten?
  • Wo werden die Daten gespeichert, bzw. ausgewertet und weiter genutzt?
  • …..

Microsoft mit OpenAI verweist zwar auf seinen Product Safety Standard, und auch Google Bard oder Facebook weisen auf ähnliches hin, doch haben alle das Problem, dass der Umgang mit Daten meines Erachtens immer noch einer Black Box entspricht: Mit den Anfragen (Prompts) geben Nutzer z.B. Text ein, und erhalten anschließend eine Antwort. Was dazwischen passiert ist nicht transparent. Weiterhin ist der Datenschutz bei den Anbietern oftmals nicht so, wie wir es uns in Europa vorstellen – auch wenn, wie im Falle von Microsoft, nachgebessert wurde. Es wundert daher nicht, dass die EU versucht, einen Rahmen abzustecken (Tagesschau vom 14.06.2023), um die Themen um KI-Anwendungen zu regeln. Diese Regelungen sollten allerdings weiterhin Spielraum für Innovationen bieten. Siehe dazu auch KI-Gesetz der EU.

Wir testen aktuell verschiedene KI-Anwendungen für die von uns entwickelten Blended Learning Lehrgänge. Siehe dazu beispielsweise Digitalisierung – inkl. KI – im Projektmanagement.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

KI-Campus: Die kostenlose Lernplattform für Künstliche Intelligenz

Überall lesen wir etwas zum Thema “Künstliche Intelligenz”, doch oftmals sind es Beiträge, Berichte, Studien, die uns mehr beeinflussen, denn neutral informieren wollen. Es freut mich daher, dass sich kompetente Partner in dem geförderten Projekt KI-Campus zusammengeschlossen haben, um kostenlose Online-Kurse, Videos und Podcasts anzubieten. Ein gutes Verständnis darüber, was sich unter “Künstliche Intelligenz” verbirgt, ist die Voraussetzung dafür, mögliche Anwendungen sinnvoll einzusetzen.

Wir haben uns vorgenommen, die Anwendung von ChatGPT im Projektmanagement demnächst anzubieten (Online und in Präsenz). Siehe dazu auch Digitalisierung – inkl. KI – im Projektmanagement und In der Zwischenzeit kann Künstliche Intelligenz im Projektmanagement genutzt werden – beispielsweise im Projektmarketing.

Solche Zusammenhänge thematisieren wir in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.