Mitarbeitermangel – Lassen sich mit KI schon jetzt Kollegen:innen klonen?

Shownotes

Ist KI schon viel menschlicher und schlauer, als wir glauben? Erfahren Sie, ob und wie sich durch künstliche Intelligenz fehlende Mitarbeiter klonen lassen.

Mehr Informationen zu den angesprochenen Umfragen:

https://de.statista.com/statistik/daten/studie/1425943/umfrage/umfrage-zu-risiken-chancen-von-generativer-ki/

https://de.statista.com/statistik/daten/studie/1401298/umfrage/durchschnittliche-nutzung-chatgpt/

https://de.statista.com/statistik/daten/studie/1382408/umfrage/einstellung-gegenueber-ki-basierter-textgenerierung/

Dieser Podcast ist kein Produkt der Handelsblatt-Redaktion. Für den Inhalt sind die Interviewpartner*innen und die Handelsblatt Media Group Solutions verantwortlich.

Transkript anzeigen

Mitarbeitermangel – Lassen sich mit KI schon jetzt Kollegen: innen klonen?

Hamidreza Hosseini [00: 00:00] Das heißt also, nehmen wir mal an, dass jetzt die Zuhörerinnen oder die Zuschauerinnen haben derzeit Ressourcenmangel und brauchen einfach coole neue Kolleginnen und Kollegen. Da kann man schon durchaus entsprechend komplexere Jobbeschreibungen bis hin zu sogar Wertesystem im Team. Umgangsformen kann man schon damit so ein stückweit zumindest diesen Job klonen.

Einspieler [00: 00:26] So klingt Wirtschaft. Zukunftsthemen für Unternehmen. Jeden Mittwoch sprechen wir mit Entscheiderinnen über die Herausforderungen und Trends in ihrer Branche. Mit jeder Menge Insights und neuen Denkanstößen aus der Wirtschaft für die Wirtschaft.

Simone Nissen [00: 00:43] Künstliche Intelligenz soll uns simple Todos abnehmen, damit wir mehr Zeit für Kreatives haben. Das ist aktuell das Motto für den Einsatz von KI am Arbeitsplatz. Aber tun wir der KI damit Unrecht? Kann sie eigentlich schon viel mehr als stumpfsinnige Routinearbeiten. Ist sie uns vielleicht sogar heimlich überlegen? Diesen Fragen gehen wir heute in “So klingt Wirtschaft” nach.

Einspieler [00: 01:06] Warum ist das wichtig?

Simone Nissen [00: 01:09] Mehrere Statista Umfragen aus dem Jahr 2023 ergeben ein ziemlich wirres Bild in Sachen künstliche Intelligenz am Arbeitsplatz. 70 % der Unternehmen in Deutschland sind überzeugt davon, dass KI fester Bestandteil des Berufsalltags wird. Allerdings finden lediglich 20 % der Erwerbstätigen künstliche Intelligenz im Arbeitsalltag hilfreich. Die Mehrheit der Deutschen befürchtet sogar, dass diese Technologie sie ohne ihr Wissen manipuliert. Wie steht es denn nun wirklich um den virtuellen Kollegen namens KI? Ich bin Simone Nissen und spreche heute mit jemanden, der zu dieser Frage Aufklärungsarbeit in Deutschland leistet. Er ist Keynote Speaker, externer Dozent an der Republica School of Management und hat das KI-Beratungsunternehmen Ecodynamics gegründet. Hamidreza Hosseini. Hamid wird uns heute verraten, ob und wie sich per KI ein Mitarbeiter klonen lässt. Hallo. Schön, dass du da bist.

Hamidreza Hosseini [00: 02:07] Hallo Simone und danke für die Einladung.

Simone Nissen [00: 02:10] Was meinst du? Ist KI schon viel menschlicher und schlauer als wir glauben?

Hamidreza Hosseini [00: 02:15] Ich denke, in einigen Bereichen ist es eher nah. Sehr nah an dem Menschen und möglicherweise. Es kommt immer natürlich auf den Peergroup an. Wenn ich jetzt noch Universitätsprofessoren, nehmen wir es ein bisschen schwieriger wären, würde ich jetzt sagen okay, in kaufmännischen, gewerblichen Berufen kann es schon durchaus sein, dass die KI durchaus schon weiter sehr weiter ist. Daher scheint mir diese Meinung, dass solche Modelle grundsätzlich nur Wortfolgen als statistische Wahrscheinlichkeiten voraussagen. Dem ist aber nicht so ganz so, weil in der Regel werden diese Eingaben, die ich mit solchen Sprachmodellen ausführe, an sehr, sehr viele Agenten, Agenten, Netzwerke im Hintergrund übergeben, die unterschiedliche Methoden, unterschiedliche logische Funktionen einsetzen, Berechnungen durchführen, Analysen durchführen und versuchen, auch ein stückweit die Taxonomie, den Sinn, den Kontext zu verstehen und das dann übergeben an diese Ausgabe und diese Ausgabe. Modelle berechnen tatsächlich die Wortfolgen, aber gleichen sich immer mit diesen Expertennetzwerk im Hintergrund ab.

Simone Nissen [00: 03:18] Jetzt sind nicht nur Softwareexperten oder Neurologen mit der Entwicklung von künstlicher Intelligenz beauftragt, sondern auch Psychologen. Was machen die Psychologen dabei?

Hamidreza Hosseini [00: 03:29] Psychologinnen setzen sich soweit damit auseinander, dass sie zum Beispiel untersuchen, inwieweit ein emotionales Verständnis dort ist oder auch teilweise mathematisch basierendes persisches Verständnis. Oder auch ist die KI teilweise auch in der Lage, ein Vorstellungsvermögen auch zu entwickeln. Das alles natürlich wiederum auf mathematisch basierten Formeln und Methoden.

Simone Nissen [00: 03:54] Das heißt, Sie können ihnen auch Empathie beibringen.

Hamidreza Hosseini [00: 03:59] Zumindest sagen wir mal, wenn die Mathematik dahinter gut aufgesetzt ist, schon. Also man sieht das jetzt schon bei ihr. Da gibt es auch ein, zwei Studien, die im letzten Quartal 2023 rauskamen, die sogar aufgezeigt haben, dass das dass solche Modelle auf sprachliche Nuancen durchaus reagieren und auch ein Verständnis dafür haben.

Simone Nissen [00: 04:23] Also lassen sich Gefühle mathematisch nachbilden?

Hamidreza Hosseini [00: 04:27] Ja. Das heißt aber nicht, dass die Frage in der Lage ist zu fühlen, sondern sie hat zumindest ein mathematisches Verständnis dafür, was zum Beispiel böswillig Heiterkeit, Freude, Liebe, Trauer und solche Dinge bedeuten.

Simone Nissen [00: 04:42] Und wenn ich jetzt zur künstlichen Intelligenz bitte oder Danke sage, was löst das genau bei ihr aus? Findet sie mich dann netter oder fühlt sie sich einfach nur gebauchpinselt?

Hamidreza Hosseini [00: 04:51] Nein, das sind eher so ganz trockene Formeln, die im Hintergrund stattfinden. Das heißt, dass das Modell zumindest in dem jeweiligen Wissensraum ja auch den Eindruck hat, dass oder zumindest mathematisch auch eher in eine Richtung sich bewegt, dass die UserInnen oder die Anwender innen eher mit den Ergebnissen zufrieden ist.

Simone Nissen [00: 05:11] Jetzt habe ich bei meiner Arbeit als Redakteurin auch schon mal natürlich gerne mit der KI gespielt und geschaut, wie sie mich unterstützen kann. Ich hatte aber eher das Gefühl, es ist jetzt so, als hätte ich eine Studentin. Neben mir sitzen, was auch schön ist, aber ich glaube, da wäre mehr möglich gewesen. Liegt es also daran, wie ich mit der KI umgegangen bin?

Hamidreza Hosseini [00: 05:33] Es könnte daran liegen, ich müsste mir den Fall tatsächlich anschauen. Generell empfehle ich aber schon diese Rolle, je nachdem, ob ich etwas Grobes brauche oder detaillierter, es auch entsprechend zu definieren. Das heißt also, wenn ich das Ziel rolle und auch dem Wunsch, wie ich auch die Ergebnisse mir vorstelle, sehr, sehr detailliert beschreibe, dann werden die Ergebnisse deutlich besser. Einer Menschen mehr.

Simone Nissen [00: 05:54] Aber wie sieht es mit dieser Angst vor Manipulation aus?

Hamidreza Hosseini [00: 05:57] Naja, Manipulation kann uns auf verschiedenen Ebenen stattfinden. Zum einen, wenn ich Dinge Fake oder stimme oder Bilder und solche Dinge. Zum anderen kann es auch sein, dass die Modelle, je nachdem wie sie trainiert sind und welche entsprechenden ethisch oder moralischen Kompasse beigebracht bekommen haben, dass sie durchaus einen Menschen manipulieren könnten. Allerdings sagen wir so bei den größeren Anbietern oder Anbietern ist es schon so, dass sie schon weitestgehend darauf achten, dass zumindest auf dieser Ebene. Keine Manipulation stattfindet.

Simone Nissen [00: 06:31] Wie machen die das?

Hamidreza Hosseini [00: 06:32] Na ja, also die achten darauf, dass immer wieder externe Freelancer oder auch Wissenschaftlerinnen dort diese Modelle nach trainieren und entsprechend auf diese Kontexträume nochmal anpassen, so dass solche Dinge idealerweise nicht passieren. Ich meine, da gibt es immer noch Möglichkeiten, wie man auch immer wieder jede Woche sieht, dass solche Modelle auch gehackt werden können. Dennoch holen sich solche Modellanbieter innen in der Regel auch Experten oder Rat von Expertinnen von da draußen und versuchen diese Modelle ein Stück weit mathematisch gesehen eine Erziehung aufzuerlegen.

Simone Nissen [00: 07:12] Ja, und das nicht nur bei der Entwicklung, sondern auch später, also durchgehend regelmäßig.

Hamidreza Hosseini [00: 07:17] Äh, ja, das auch. Also zumindest aktuell sind wir auch bei diesem Super Lyman Projekt von Open Air, das sie auch weltweit über 1000 Expertinnen führen, die tatsächlich auch schauen, inwieweit ist das Modell, falls es dann immer näher an den menschlichen Fähigkeiten kommt, dass diese Dinge zum Beispiel nicht passieren, dass Manipulationen nicht geschehen, dass auch das Modell ein Stück weit auch regionales Verständnis entwickeln kann und möglichst nichts versucht, was Menschen vielleicht nicht wollen.

Simone Nissen [00: 07:48] Und wenn diese Menschen dann doch irgendwie was entdecken, was was passiert, dann? Gehen da irgendwo Alarmglocken los und irgendjemand wird aktiv oder wie muss man sich das vorstellen?

Hamidreza Hosseini [00: 07:58] Na ja, das kann man ja selbst schon so am Tag über die ausprobieren. Man kann ja so schlimme oder böse Fragen stellen. Dann kommt halt direkt eine Meldung, dass das eine Policy entspricht. Und wenn man das auf die Spitze treibt, kann man sogar gesperrt werden, bis hin zu sogar eine Mail bekommen, was man denn da eigentlich für seltsame Sachen da gerade abfragt. Und in der Regel ist das aber schon im Hintergrund so dass sie darauf achten, dass wenn solche Dinge passieren, so ein quasi Feintuning Nachjustierung nach Trainings stattfindet oder auch entsprechende Instruktionen, dass solche Dinge nicht passieren. Allerdings ist das natürlich nicht 100 % sicher, weil diese Modelle ja auf neuronalen Netze basieren und da gibt es immer eine gewisse Rechtsunsicherheit. Allerdings ist sie sehr gering.

Simone Nissen [00: 08:44] Mal angenommen, es gibt Zuhörende, die gehen in Arbeit unter und eine Stellenausschreibung ist bereits ausgeschrieben, aber es passiert nichts. Könnten diejenigen jetzt einfach einen Kollegen per KI klonen? Geht das?

Hamidreza Hosseini [00: 08:59] Ja. Also zumindest nicht den kompletten Menschen. Da muss man mit einem Biologen sprechen. Was aber einzelne singuläre Aufgaben innerhalb eines Prozesses oder Geschäftsprozesses oder komplette Geschäftsprozesse bis zu einem gewissen Grad natürlich. Komplette Stellenbeschreibungen können diese Modelle übernehmen, wenn sie stark genug groß genug sind. Das heißt also, nehmen wir mal an, dass jetzt die Zuhörerinnen oder Sie Zuschauerinnen haben derzeit Ressourcenmangel und brauchen einfach coole neue Kolleginnen und Kollegen. Und da kann man schon durchaus entsprechend komplexere Jobbeschreibungen bis hin zu sogar Wertesystem im Team, Umgangsformen, Sprachstil, Sprachkurs des Unternehmens Calling Principles bis hin zu einzelnen Aufgaben, sofern diese drei Modelle dazu in der Lage sind, das auszufüllen. Aktuell schon. Bei sehr, sehr vielen Bürojobs sind das schon 60 bis 70 % der Aufgaben, die wir jetzt in unserer Praxiserfahrung gesehen haben. Kann man schon damit ein stückweit zumindest diesen Job klonen. Denn es gibt ja die Möglichkeit, einmal normale Chatbots zu erstellen und dann gibt es noch komplexere Chatbots und dann gibt es wirklich auch komplexere oder komplexere. Gibt es oder auch Modelle, die sehr, sehr lange CVS und Jobbeschreibungen bekommen? Und die können durchaus schon sogar unterschiedliche Aufgaben übernehmen. Nicht nur Texte oder Marketing Sachen erstellen, sondern auch Prozesse analysieren, neue Prozesse entwickeln, Strategieentwicklung machen und vieles mehr. Allerdings gibt es da auch Grenzen, wenn Wissen nicht trainiert ist, also zum Beispiel im juristischen Bereich oder in hochkomplexen physikalischen Umfeld, wo vielleicht nicht Wissen existiert. Man wird es halt auch nicht funktionieren. Da muss man das Modell trainieren, anpassen oder möglicherweise dann doch schauen, dass man eine neue Kollegin feiern kann. Ja.

Simone Nissen [00: 10:46] Also das heißt, wenn ich jetzt einen Marketing Mitarbeiter suche, der fehlt mir leider gerade und ich nehme jetzt einfach die Ausschreibung, kopier die. Das kann funktionieren.

Hamidreza Hosseini [00: 10:59] Genau. Also jetzt eine Minianleitung für die Zuhörerinnen und Zuschauerinnen. Ähm, ja, das ist so ich kann tatsächlich jetzt innerhalb eines Prompt dieser Eingabeaufforderung zur Ausführung eines Befehls quasi in so einem Promptraum kann ich jetzt einfach in meinem Job Datenbank oder SAP Phra oder Success Factor oder was auch immer. Kann ich diese Jobbeschreibungen nehmen, innerhalb eines Projekts definieren und das schreibe ich einfach ganz normal. Und wir brauchen dann. Hilfe. Hier ist die Jobbeschreibung. Bitte trainiere das in deinen neuronalen Netzen und ich gebe dir dann immer wieder neue Aufgaben und du führst das dann aus. Und dann bezeichnet man einfach diesen prompt mit einem entsprechenden Namen und dann kann man mit diesem prompt per Tastatur oder Stimme dann über die App interagieren. Und dann gibt es natürlich auch die Möglichkeit, zum Beispiel auch über so genannte gibt es komplexere Stellenbeschreibungen zu erstellen, die dann auch nicht vergessen und auch Zusatzinformationen bekommen. Dateien und solche Dinge. Das geht also nicht nur für Marketing, sondern ISO 9001 Handbuch, Erstellung, Prozessanalysen, Strategieentwicklung usw.

Simone Nissen [00: 12:11] Also wenn jetzt in der Stellenbeschreibung steht, wir suchen jemanden, der Suchmaschinenoptimierung kann, dann wird quasi mein virtueller Kollege künftig das können, weil sich raussucht, wie funktioniert Suchmaschinenoptimierung und führt das dann aus?

Hamidreza Hosseini [00: 12:26] Genau. Also es ist ja so ein Stückweit trainiert. Man kann aber auch dort so zusätzliche Informationen mitgeben, das ist auch ein Wissen oder ihr Wissen erweitern kann. Wir nennen das Retrieval Argumente Generation. Das ist nichts anderes, als den Kontext zu erweitern. Und ich kann auch das Verhalten beschreiben. Das nennen wir Feintuning, das heißt, ich beschreibe einfach den Verhaltenskontext und ich kann tatsächlich das machen. Allerdings muss man das noch ein bisschen einschränken. Das heißt also, die Menschen, die innerhalb eines Unternehmens solche Modelle bedienen, brauchen immer noch eine Kontaktstelle, denn diese Modelle sind noch nicht gut, um eigenständig, autark oder teilweise gibt es auch schon einzelne Beispiele, aber die sind jetzt nicht gut, um zum Beispiel in Kontaktcenter sofort so schnell zu agieren oder eigenständige Dinge im Netz zu machen. Da gibt es natürlich auch so andere Modelle, die auch für Research gut sind und solche Dinge. Aber generell ist es so, dass die Mitarbeiter in einem Unternehmen diese Modelle bedienen können. Das bedeutet, dass es zum einen ihre eigene Aufgaben ausführen kann, zum anderen könnte könnten sie dann auch Führungskräfte von sechs verschiedenen Kollegen sein, die sie managen, die im Hintergrund ihre Aufgaben übernehmen und auch sie dabei unterstützen.

Simone Nissen [00: 13:37] Okay, klingt spannend. Jetzt machen wir mit Kollegen ja nicht nur gute Erfahrung. Also ich rede jetzt von den menschlichen. Wie ist das denn bei Kollegen, die jetzt durch KI entstanden sind? Könnte es auch sein, dass die plötzlich anfangen mit mir zu rivalisieren oder schlecht über mich reden? Persönliches ausplaudern? Ich weiß es nicht. Geht so was?

Hamidreza Hosseini [00: 13:59] Na ja, eigentlich nicht, weil normalerweise muss ja immer noch ein Mensch diese Modelle bedienen oder durch Automatismen Applikationen übernehmen sie bestimmte Aufgaben. Das kann ich auch entsprechend in den Instruktionen einschränken. Sollte es dann dennoch autonome Modelle geben? Die nehmen wir mal an, in einem Unternehmens Intranet gibt es meinetwegen solche Stimmungen, die dort existieren, und die Modelle werden mit diesen Stimmungen trainieren trainiert. Dann kann es sein, dass diese Modelle auch dann denken, das ist normal, das ist halt die DNA des Unternehmens. Und so muss ich mich auch verhalten. Allerdings kann man das wie gesagt weitestgehend einschränken. Ein interessantes Beispiel ist, dass man so ein Modell zum Beispiel mit Slack Nachrichten trainiert hat und von Software Unternehmen. Und da haben die meisten mal gesagt, so auf irgendwelche Aufgaben haben die Antwort geschrieben, Ich nehme das mit, ich mache das morgen und dann hat das Modell dann auch bei der ersten Aufgabe und Anweisung. Dann sage ich Nimm das mit, ich mache das morgen. Und dann haben Sie sich gewundert, Warum ist das so? Und hat gesagt Na ja, das ist doch normal, dass man alles morgen erledigt. Also er hat so eine Prokrastinationskultur mitgenommen oder möglicherweise auch aufgrund des Arbeitsdrucks oder so?

Simone Nissen [00: 15:15] Also zu menschlich möchten wir eine künstliche Intelligenz auch nicht haben. Kann man das so sagen?

Hamidreza Hosseini [00: 15:21] Ich denke nicht. Nein. Also zu menschlich sollte es nicht sein. Allerdings Es kann schon sein, dass in den kommenden Jahren ich vermute, dass es sehr, sehr schnell gehen wird, sogar, dass wir schon eine allgemeine, also künstliche allgemeine Intelligenz haben werden. Und da ist halt natürlich auch immer die Frage, wie wird das Modell trainiert, wie wird es erzogen, wie wieweit geben wir diese solche Modelle dann Freiräume?

Einspieler [00: 15:47] Und jetzt der Gedanke zum Mitnehmen.

Simone Nissen [00: 15:51] Was möchtest du unseren Zuhörenden am Ende dieses Podcast noch mit auf den Weg geben?

Hamidreza Hosseini [00: 15:57] Zwei Dinge. Zum einen Ich glaube schon, dass wir von Schwellwert einer neuen technologischen und mikro makroökonomischen und betriebswirtschaftlichen Revolution stehen. Das wird momentan vielleicht nicht so schnell sich entwickeln, es wird aber relativ in den kommenden Jahren an Geschwindigkeit zunehmen. Das heißt also, ich empfehle schon im Sinne des Wettbewerbs im Sinne der neuen Märkte zu erschließen, aber auch generell, um dort den Anschluss nicht zu verpassen, wie in den letzten technologischen Revolutionen, die wir ja. Haben wird, sich schon ernsthaft damit auseinanderzusetzen. Zum zweiten stell ich einfach mal so die Frage in den Raum, falls eines Tages eine KI. Bodenständiges und trotzdem schlauer sein sollte als wir. Zumindest logisch mathematisch. Inwieweit würden die Zuschauerinnen und Zuschauer das wirklich merken?

Simone Nissen [00: 16:51] Das heißt, solange die KI nicht anfängt anzugeben.

Hamidreza Hosseini [00: 16:55] Wahrscheinlich nie. Na ja, stellen wir uns mal vor, wir hätten jetzt so eine KI hier am Tisch und sie würde sie nichts so preisgeben, was sie wirklich kann. Wer bodenständig und ist in der Lage aber komplexe Zusammenhänge zu verstehen in verschiedenen Disziplinen und wir meinen aber alles zu wissen und dann stellt sich halt immer diese Frage. Also gibt es einen Forscher in Berlin, glaube ich, ein Psychologe, der sogar diesen Begriff der psychologischen Entropie etabliert hat. Also inwieweit würden wir tatsächlich merken und wann würden wir es merken? Würden wir es überhaupt merken? Wenn die KI eines Tages schlauer sein sollte als wir?

Simone Nissen [00: 17:33] Okay, jetzt weiß ich ehrlich gesagt nicht, wie ich mit diesem Gedanken heute nachts gut schlafen kann. Aber trotzdem 1000 Dank für diese spannenden Einblicke und in Liebe Zuhörende. Danke fürs Einschalten. Ich hoffe, wir hören uns auch kommenden Mittwoch wieder, wenn es heißt „So klingt Wirtschaft“.

Einspieler [00: 17:52] So klingt Wirtschaft. Haben Sie Fragen, Kritik oder Anmerkungen? Dann schreiben Sie uns gerne an podcast@handelsblattgroup.com. Gefällt Ihnen, was Sie hören? Dann bewerten Sie uns gerne auf Spotify oder Apple Podcasts.

Einspieler [00: Dieser Podcast ist kein Produkt der Handelsblatt-Redaktion. Für den Inhalt sind die Interviewpartner*innen und die Handelsblatt Media Group Solutions verantwortlich.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.