Upgrade auf Nextcloud Hub 7 durchgeführt: Weitere Möglichkeiten, Künstliche Intelligenz (KI) zu integrieren

Eigener Screenshot von unserer Nextcloud Hub 7 – Oberfläche.
Nextcloud Hub 7 wurde am 12.12.2023 veröffentlicht

Als Leser unseres Blogs wissen Sie, dass wir an einem souveränen, projektorientierten Arbeitsplatz auf Open Source Basis arbeiten, und dafür schon viele Bausteine miteinander verknüpft haben. Open Source deshalb, damit alle generierten Daten auf unseren Servern bleiben (Datenschutz und Transparenz).

Neben dem Lernmanagementsystem (LMS) Moodle, sind das OpenProject, BigBlueButton, Greenlight und Nextcloud mit CollaboraOnline, Deck (Task Boards), Talk (Webkonferenzsystem), Fotos, Kalender usw. Weiterhin wollen wir in 2024 verstärkt KI (Künstliche Intelligenz) im Projektmanagement nutzen. Siehe dazu auch KI am Arbeitsplatz.

Mit dem jetzt auf unseren Servern installierten Upgrade auf Nextcloud Hub 7 (veröffentlicht am 12.12.2023) gibt es weitere Verbesserungen einzelner Apps, und es kann nun – neben den schon vorhandenen KI-Möglichkeiten wie Llama-2, Gpt4ALL-J, (Local) Stable Diffusion, Airoboros, Whisper, Dolly, Bark, Piper, Falcon, Bert, GPT-NeoX, MPT – auch noch Aleph Alfa als weitere KI (Künstliche Intelligenz) genutzt werden.

Mit dem Smart Picker kann in Nextcloud u.a. KI (Künstliche Intelligenz) in jeder App, oder auch in jedem Projektmanagement-Prozesschritt (ob klassisch plangetrieben, agil oder hybrid), aufgrufen werden. Das alles wird mit einer Art Ampelfunktion unterstützt. Damit werden KI-Anwendungen mit rot (wei z.B. ChatGPT), gelb oder grün gekennzeichent, je nachdem welche Transparenz bei den verwendeten Daten, und der Vorgehensweisen bei der Nutzung der Daten bekannt ist (Ethical KI).

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz – ein Kategorienfehler?

Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:

“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).

Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Learning Analytics: Auch beim Lernen geht es um den Umgang mit Daten – und damit auch um Künstliche Intelligenz (KI)

Wenn es um viele Daten geht, kommt schnell Künstliche Intelligenz (KI) ins Spiel. Das ist nicht nur bei Produktionsprozessen, Marketingaktivitäten etc. so, sondern auch beim Lernen, und somit auch bei Organisationen. Am Beispiel der Organisation Hochschule, den Leherenden und den Lehrnenden kann beispielhaft gezeigt werden, wie Künstliche Intelligenz (KI) im Rahmen von Learning Analytics auf verschiedenen Ebenen genutzt werden kann.

“Am Beispiel der Learning Analytics, also der Auswertung von erhobenen Daten rund um Lernvorgänge zum Zwecke des Verständnisses, der Optimierung und Vorhersage des Lernverhaltens und des Lernerfolgs, lässt sich aufzeigen, wie alle hochschuldidaktischen Ebenen und die Rollen der Lernenden, Lehrenden und der Organisation von KI-Innovationen erreichbar sind, siehe Abbildung. Die individuelle Ebene des Lernens bis hin zur Entwicklung und Neugestaltung von Studiengängen ist adressierbar” (Schmohl 2023).

LerndendeLehrendeOrganisation
Mikroebene
(Lernsequenz)
Adaptive Lernsoftware zur Klausur-vorbereitungInformation zu Schwierigkeiten des Kurses über eine AufgabeDynamische Bereitstellung von Ressourcen, z.B. Servern
Mesoebene
(Semester, Kurs)
Monitoring des eigenen Lernerfolgs über ein SemesterAnalyse von Gruppen-lernprozessen in großen OnlinekursenUnterstützung bei der zeitlichen Planung des Lehrangebots
Makroebene
(Langfristig)
Langfristige ePortfolios, Passung zu JobprofilenWeiterentwicklung als Lehrkraft, Erkenntnisse zu ErfolgsfaktorenMonitoring und Revision von Studiengängen
Learning Analytics aus de Witt et al. (2020:14), zitiert in Herzberg (2023), in: Schmohl et al (Hrsg.) 2023

Es ist vielen Bildungsorganisation nocht nicht bewusst, dass die Daten von Lernenden, Projektteams, der Organisation und der außerorganisationalen Netzwerke für die Zukunft des Lebenslangen Lernens von großer Bedeutung sind. Mit innovativen KI-Anwendungen können diese Daten zur Kompetenzentwicklung auf allen Ebenen beitragen. Voraussetzung sollte aus meiner Sicht eine Ethische KI sein, die Transparent ist und bei der die generierten daten dem Lernenden gehören. Siehe dazu auch Nextcloud Hub 4 mit “ethical AI”-Integration.

In den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK) gehen wir auf diese Entwicklungen ein. Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Warum kann NEXTCLOUD zukünftig eine interessante Alternative zu ChatGPT (OpenAI) oder Bard (Google) sein?

Ja, es gibt ChatGPT von OpenAI, Bard von Google usw. usw. und ich muss sagen, dass die Ergebnisse z.B. von ChatGPT schon beeindruckend sind. Warum sollte man sich dennoch mit Alternatiuven befassen? Es ist relativ einfach, denn manche Unternehmen verbieten den Einsatz von diesen Systemen. Den Grund liefert die Google-Mutter Alphabet selbst: Bard: Google warnt Mitarbeiter vor der Nutzung des eigenen Chatbots. Hier ein Auszug:

Ausgerechnet die Google-Mutter Alphabet warnt seine Mitarbeiter vor der Nutzung generativer KI – inklusive des hauseigenen Chatbots Bard. Speziell Ingenieure sollten weder Code zur Fehleranalyse in trainierten Sprachmodelle eingeben, noch die ausgegebenen Zeilen nutzen. In einem am 1. Juni aktualisierten Datenschutzhinweis von Google heißt es Reuters zufolge: “Fügen Sie keine vertraulichen oder sensiblen Informationen in Ihre Bard-Konversationen ein”. (ebd.)

Die Entwicklungen von NEXTCLOUD könnten in diesem Zusammenhang interessant werden, da es auf Open-Source-Basis die in KI-Anwednungen generieten Daten in ihrer eigenen geschützten Cloud behält. Wie kann man sich das vorstellen? Wie Sie wissen, haben wir Nextcloud als Open-Source-Anwendung für Cloudanwendungen auf unseren Servern installiert. Dabei war bisher der Schwerpunkt auf der Weiterentwicklung zu einer integrierten Kollaborationsplattform auf Open-Source-Basis.

Seit Nextcloud Hub 4 gibt es die Möglichkeit, Apps zur Künstlicher Intelligenz (KI; AI: Articicial Intelligence) in Dateien aufzurufen. In dem Beispiel (Screenshot) haben wir eine Textdatei (TEXT.md) geöffnet, und mit dem Smart Picker (“/”) verschiedene KI-Anwendungen geöffnet. Eine davon basiert auf Stabe Diffusion und kann Bilder auf Basis einer Eingabe (Prompt) generieren. Beispielhaft haben wir in der vorgesehenen Zeile “Projektmanager in einer Teambesprechung” eingegeben. Das Ergebnis sehen Sie in dem Screenshot. Die generierten Daten und die Prompts bleiben alle auf unseren Servern. In einem der nächsten Blogbeiträge, werde ich eine weitere KI-Anwendung innerhalt von NEXTCLOUD vorstelen.

Ziel von Nextcloud ist es, in Zukunft immer mehr AI-Anwendungen integriert anzubieten, wobei die AI-Apps auch ethisch eingeordnet werden sollen. Basis dafür ist eine Ampelfunktion. Siehe dazu Nextcloud Hub 4 mit “ethical AI” Integration – Open Source.

Wir werden in der nächsten Zeit immer mehr AI-Apps in Nextcloud in Bezug zu unseren Themen wie z.B. Projektmanagement ausprobieren, und so wichtige Erfahrungen sammeln.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

In verschiedenen Blogbeiträgen habe ich immer wieder etwas zum Thema “Intelligenz” geschrieben. In Reden wir über Dummheit habe ich beispielsweise die Dichotomie “Intelligenz – Dummheit” kritisiert. Darüber hinaus kommt es mir bei der Diskussion um Künstliche Intelligenz so vor, als ob wir über intelligente technische Systeme sprechen, und dabei gleichzeitig von dummen Menschen ausgehen. Das führt zu der Frage, ob hinter der Künstlichen Intelligenz eine “echte Intelligenz” steckt. Dazu habe ich folgendes gefunden:

Lukowicz: KI ist nichts anderes als eine Menge von mathematischen Methoden und Algorithmen, bei denen man herausgefunden hat, dass sie in der Lage sind, Dinge zu tun, bei denen wir bisher gedacht haben, sie seien nur Menschen vorbehalten. Vor 20 Jahren hat eine KI zum Beispiel zum ersten Mal gegen einen menschlichen Großmeister im Schach gewonnen. KI kann aber auch komplexe Bilder oder Musikstücke erzeugen. Es ist wichtig zu verstehen, dass – egal wie erstaunlich das ist – dahinter keine echte Intelligenz steht. Zumindest nicht in dem Sinne, wie wir vielleicht Intelligenz verstehen. Es sind sehr genau definierte, aber eben oft recht einfache mathematische Verfahren, die auf große Datenmengen angewendet werden” (Quelle: Tagesschau vom 14.06.2023).

Das sagt in dem Interview immerhin Paul Lukowicz, Wissenschaftlicher Direktor und Leiter des Forschungsbereichs Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Lehrstuhlinhaber im Fachbereich Informatik der Technischen Universität Kaiserslautern. Führt die Adaption des Intelligenzbegriffs hier in die Irre? Ist es möglicherweise – wie Howard Gardner es formuliert – ein Kategorienfehler? Howard Gardner argumentiert in seiner Theorie der Multiplen Intelligenzen, dass Intelligenz ein biopsychologischges Potential darstellt.

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen (Gardner 2002:46-47).

Für Gardner ist Intelligenz ein „biopsychologisches Potenzial”, wodurch sich dieses Intelligenzverständnis von Maschinen-Intelligenz oder künstlicher Intelligenz unterscheidet.

Demnächst werden wir auch Online-Formate zu ChatGPT im Projektmanagement und zur Theorie der Multiplen Intelligenzen anbieten.

Der KI-basierte Arbeitsplatz – eine erste Einordnung

Die Entwicklung bei KI-Anwendungen ist rasant. Alleine die weltweite Nutzung von ChatGPT von OpenAI hat alle Erwartungen übertroffen. Die Abkürzung ChatGPT lautet dabei etwas ausführlicher “Chatbot Generative Pre-trained Transformer”. Die hinterlegten Daten sind also vorher “trainiert” worden. Beim Start von ChatGPT standen nur Daten bis 2021 zur Verfügung. Dennoch waren die ersten Ergebnisse verblüffend. Siehe dazu ChatGPT – Was ist das? (MDR vom 11.06.2023). In allen gesellschaftlichen Bereichen werden in der Zwischenzeit die Möglichkeiten von ChatGPT genutzt, incl. der mehr als 128 Plugins (Stand: Mai 2023). Dabei ist das Spektrum von OpenAI nicht alleine auf Text beschränkt, sondern enthält mit Dall-E auch Möglichkeiten, KI auf Fotos anzuwenden.

In 2023 hat sich Microsoft mit Milliarden US$ bei OpenAI engagiert. Alle aktuellen und zukünftigen KI-Anwendungen von OpenAI will Microsoft in seine Produkte, wie z.B. in Office, oder auch in die Suchmaschine Bing integrieren – Beispiel. Die Erweiterung auf eine Suchmaschine ermöglicht es der KI-Anwendung, auch auf Daten aus dem Internet zuzugreifen. Dabei ist nicht immer klar zu erkennen, welcher (beispielsweise) Text von welcher Quelle ist. Es wundert daher nicht, dass sich dagegen immer mehr Autoren wehren. Eine ähnliche Entwicklung gibt es bei Fotos. Der Beitrag Künstliche Intelligenz (KI) im Urheberrecht: Welche Rechte bestehen? bietet dazu gute erste Informationen. Wenn Organisationen nun KI-Anwendungen am Arbeitsplatz nutzen wollen, stehen sie vor folgenden Fragen (Auswahl):

  • Welche Anwendungen sind für welchen Arbeitsplatz sinnvoll (Mehrwert)?
  • Wie kann KI in die Arbeitsprozesse integriert werden?
  • Was ist mit dem Urheberrecht?
  • Was passiert mit den generierten Daten?
  • Wo werden die Daten gespeichert, bzw. ausgewertet und weiter genutzt?
  • …..

Microsoft mit OpenAI verweist zwar auf seinen Product Safety Standard, und auch Google Bard oder Facebook weisen auf ähnliches hin, doch haben alle das Problem, dass der Umgang mit Daten meines Erachtens immer noch einer Black Box entspricht: Mit den Anfragen (Prompts) geben Nutzer z.B. Text ein, und erhalten anschließend eine Antwort. Was dazwischen passiert ist nicht transparent. Weiterhin ist der Datenschutz bei den Anbietern oftmals nicht so, wie wir es uns in Europa vorstellen – auch wenn, wie im Falle von Microsoft, nachgebessert wurde. Es wundert daher nicht, dass die EU versucht, einen Rahmen abzustecken (Tagesschau vom 14.06.2023), um die Themen um KI-Anwendungen zu regeln. Diese Regelungen sollten allerdings weiterhin Spielraum für Innovationen bieten. Siehe dazu auch KI-Gesetz der EU.

Wir testen aktuell verschiedene KI-Anwendungen für die von uns entwickelten Blended Learning Lehrgänge. Siehe dazu beispielsweise Digitalisierung – inkl. KI – im Projektmanagement.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

KI-Campus: Die kostenlose Lernplattform für Künstliche Intelligenz

Überall lesen wir etwas zum Thema “Künstliche Intelligenz”, doch oftmals sind es Beiträge, Berichte, Studien, die uns mehr beeinflussen, denn neutral informieren wollen. Es freut mich daher, dass sich kompetente Partner in dem geförderten Projekt KI-Campus zusammengeschlossen haben, um kostenlose Online-Kurse, Videos und Podcasts anzubieten. Ein gutes Verständnis darüber, was sich unter “Künstliche Intelligenz” verbirgt, ist die Voraussetzung dafür, mögliche Anwendungen sinnvoll einzusetzen.

Wir haben uns vorgenommen, die Anwendung von ChatGPT im Projektmanagement demnächst anzubieten (Online und in Präsenz). Siehe dazu auch Digitalisierung – inkl. KI – im Projektmanagement und In der Zwischenzeit kann Künstliche Intelligenz im Projektmanagement genutzt werden – beispielsweise im Projektmarketing.

Solche Zusammenhänge thematisieren wir in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Von New Work zu New Digital Work?

Image by Gerd Altmann from Pixabay

Die Digitalisierung von Arbeit begleitet uns schon seit vielen Jahrzehnten. Die dabei immer intensivere Vernetzung von technischen Systemen und Menschen führt zu einer erhöhten Komplexität, die nur mit mehr Selbstorganisation am Arbeotsplatz bewältigt werden kann. Dieser Aspekt ist ein (!) wichtiger Baustein der Neuen Arbeit – New Work. Siehe dazu ausführlicher Beispiele für neue Arbeitskonzepte aus dem New Work Barometer – und kritische Anmerkungen dazu.

In der Zwischenzeit gibt es allerdings Entwicklungen, die eine weitere Qualität in der Arbeit mit neuen Technologien darstellt. Diese New Digital Work zeichnet sich durch folgende Punkte aus, die in Hartmann, E. A.; Shajek, A. (2023:1-2): New Digital Work and Digital Sovereignty at the Workplace – An Introduction, in: Shajek, A.; Hartmann, E.A. (Eds) (2023): New Digital Work, S. 1-15 wie folgt beschrieben sind:

Immersion, the experience of direct interaction with a digitally mediated or (in parts) digitally created world, and the corresponding tendency towards ‘invisible’, ‘vanishing’ human-computer interfaces (Dede 2009; Fishkin et al. 1999; Mayer et al. 2023, this volume).

The use of Artificial Intelligence (AI) at the workplace, with its potentials to substitute as well as enhance human intelligence, and its effects on a growing lack of transparency of the inner structure and workings of the technology itself (High-Level Expert Group on AI [AI HLEG], 2020; Mueller et al. 2019; Pentenrieder et al. 2023, this volume; Staneva and Elliott 2023, this volume; Zhou et al. 2021).

Digital labor platforms transforming access to labor markets, contract and working
conditions, and workers’ rights and opportunities to associate and organize themselves (Harmon and Silberman 2018; ILO – International Labour Organization, 2018, 2021; Yan et al. 2023, this volume).

Die von mir eingefügten Links sollen die jeweiligen Dimensionen weiter erläutern. Spannend ist hier auch die in der genannten Veröffentlichung angesprochene Digitale Souveränität am Arbeitsplatz (Digital Sovereignty at the Workplace).

Projektarbeit ist dabei ein wichtiges Element dieser Entwicklungen, denn Projekte sind Träger des Wandels. Darüber hinaus wird Projektarbeit selbst auch von den genannten Entwicklungen stark beeinflusst. Siehe dazu beispielhaft In der Zwischenzeit kann Künstliche Intelligenz im Projektmanagement genutzt werden – beispielsweise im Projektmarketing.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Übernimmt die Künstliche Intelligenz jetzt alles?

Die schon vor Jahrzehnten thematisierte “Künstliche Intelligenz” basiert auf der Annahme “that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it” (McCarthy et al., 1955:2). Die aktuellen Entwicklungen von ChatGPT 3.5 oder ChatGPT 4 (um nur Beispiele zu nennen) scheinen McCarthy zu bestätigen . Es hat den Anschein, als ob die Künstliche Intelligenz alle Lebensbereiche verändert, erweitert oder sogar ganz übernimmt (z.B. bestimmte Arbeitsbereiche). Doch ist das wirklich so? Dazu habe ich folgenden Text gefunden:

KI als neue Weltlenkerin? Nein! Zumindest für absehbare Zeit ist ein solches Horrorszenario nicht zu befürchten. Zwar werden die Änderungen im Alltagsleben durch KI stärker als bisher erkennbar – aber trotzdem: Bei KI-Systemen handelt es sich bei weitem nicht um eine dem Menschen vergleichbare Intelligenz, sondern eher um sehr spezifische Nischenfähigkeiten, die bei eng definierten Aufgaben überlegen sind, aber außerhalb ihres Daseinszwecks oft bei den einfachsten Tätigkeiten scheitern. Sie können viel, haben aber klare Limitationen. Während Alpha Zero, eine Schach-KI, zwar den Schachweltmeister besiegen kann, fehlt Computern eigener Antrieb, Willensfreiheit, Bewusstsein, Fähigkeit zur Selbstreflexion und Verständnis unserer Welt. Sinn, Verstehen und Verantwortung sind Konzepte, die für KI schon kategorial unpassend sind. KI kann damit auch weder böswillige noch heimtückische Intentionen verfolgen und auch keine Verantwortung für ihr Tun übernehmen – verantwortlich ist und bleibt der Mensch” (Ehlers, U.-D. (2023:271-272): Wie wollen wir leben?, in Schmohl et al. (Hrsg.) (2023): Künstliche Intelligenz in der Hochschulbildung, S. 271-278.

Den Hinweis auf einen Kategorienfehler hat auch Howard Gardner in seiner Betrachtung von menschlicher Intelligenz thematisiert, und damit die menschliche Intelligenz von den Möglichkeiten einer Künstlichen Intelligenz unterschiedenen. Siehe dazu auch

Artificial Intelligence Index Report 2023

Alle sprechen und schreiben über Künstliche Intelligenz (KI) – oder englischsprachig Artificial Intelligence (AI) -wobei vieles auch bewusst tendenziell dargestellt wird. Die Befürworter schreiben alles schön, und die Gegner alles schlecht, doch dazwischen gibt es noch ein Kontinuum von Möglichkeiten. So eine differenzierte Betrachtung findet man oftmals nur in wissenschaftlichen Veröffentlichungen. Beispielsweise haben verschiedene Autoren den Artificial Intelligence Index Report 2023 veröffentlicht, der viele verschiedene Perspektiven auf das Thema beleuchtet.

Quelle: Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark, and Raymond Perrault, “The AI Index 2023 Annual Report,” AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2023 | PDF.

Der Report enthält 10 Takeaways:
1Industry races ahead of academia.
2Performance saturation on traditional benchmarks.
3AI is both helping and harming the environment.
4The world’s best new scientist … AI?
5The number of incidents concerning the misuse of AI is rapidly rising.
6The demand for AI-related professional skills is increasing across virtually every American industrial sector.
7For the first time in the last decade, year-over-year private investment in AI decreased.
8While the proportion of companies adopting AI has plateaued, the companies that have adopted AI continue to pull ahead.
9Policymaker interest in AI is on the rise.
10Chinese citizens are among those who feel the most positively about AI products and services. Americans … not so much.
ebd. Seiten 3-4.

Wir befassen uns aktuell auch mit dem Möglichkeiten, KI im Projektmanagement einzusetzen. Dabei testen wir gerade speziell die Nutzung von ChatGPT im klassischen, plangetriebenen Projektmanagement. Siehe dazu auch Motivationsfaktoren und Fragen für den Einstieg in das Thema Künstliche Intelligenz (KI).

In den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK) gehen wir auf diese Zusammenhänge ein. Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.