KI sicher steuern und Governance als Wettbewerbsvorteil nutzen

Shownotes

Jedes zweite Unternehmen testet KI, doch vielen fehlen Leitplanken. Das kann teuer werden. Welche ersten Schritte bei KI-Governance wirken – und warum sie sich auch wirtschaftlich lohnt.

Wer mehr über unseren Gast und seine Arbeit erfahren möchte, wird auf ibm.com fündig.

Mehr zu So klingt Wirtschaft, dem wöchentlichen Business-Podcast der Solutions by Handelsblatt Media Group, unter: handelsblatt.com/adv/soklingtwirtschaft/

Dieser Podcast ist kein Produkt der Handelsblatt-Redaktion. Für den Inhalt sind die Interviewpartner*innen und die Handelsblatt Media Group Solutions verantwortlich.

Transkript anzeigen

Start: End: So klingt Wirtschaft. Zukunftsthemen für Unternehmen. Jeden Mittwoch sprechen wir mit EntscheiderInnen über die Herausforderungen und Trends in ihrer Branche. Mit jeder Menge Insights und neuen Denkanstößen. Aus der Wirtschaft für die Wirtschaft. SPEAKER_01

Start: End: Jedes zweite Unternehmen in Deutschland experimentiert bereits mit KI. Das Problem ist, nur ein Bruchteil hat Regeln, wie es diese Technologie verantwortungsvoll steuert. Das kann teuer werden. Denn ohne klare Leitplanken drohen nicht nur Strafen, sondern auch Vertrauensverluste bei Kunden und Mitarbeitenden. Deshalb nehmen wir uns in dieser Folge KI Governance vor. Warum ist das wichtig? Unternehmen stehen also vor der Herausforderung, KI nicht nur technisch beherrschbar, sondern auch ethisch, rechtlich korrekt und sicher zu gestalten. KI Governance liefert dafür den verbindlichen Rahmen. Man kann sich das vorstellen wie eine Verkehrsordnung. Ihre Regeln sind vergleichbar mit roten Ampeln oder Tempolimits. Prozesse übernehmen die Kontrolle, wie zum Beispiel Polizei oder TÜV. Und dazu kommen Werkzeuge wie Ampeln oder Schilder. Nachgehakt Dieses Bild ist mein Versuch, Governance etwas nachvollziehbarer zu machen. Mein Gast kann das sicherlich viel, viel besser. Mein Name ist Simone Nissen und bei mir ist der Abteilungsleiter für KI bei IBM Consulting. Herzlich willkommen, Matthias Bracht. Hallo Simone. Was hältst du von meinem Bild? Ist das eine Möglichkeit, KI Governance ein bisschen anfassbarer zu machen? SPEAKER_02

Start: End: Ja, es geht erst einmal nicht nur dir so, dass KI Governance erst einmal wie ein sperriges Thema wirkt. Und insofern finde ich diesen Vergleich mit einer Verkehrsordnung tatsächlich gut. Sowohl im Straßenverkehr als auch beim Einsatz von KI geht es darum, dass Menschen etwas erreichen wollen. Sie wollen von A nach B kommen oder sie wollen ein Problem technisch gelöst bekommen. Im Gesamten fahren wir als Gesellschaft und auch in großen Organisationen deutlich besser, wenn wir ein Regelkorsett haben, an dem wir uns orientieren können. SPEAKER_01

Start: End: Okay, also um es noch klarer zu machen, würde ich dir jetzt gerne mal 30 Sekunden geben, in denen du einen CEO davon überzeugen kannst, dass KI Governance auch wirtschaftlich wirklich interessant ist. SPEAKER_02

Start: End: Ja, man könnte jetzt meinen, dass es nur um rechtliche Dinge geht. Und um das Einhalten von Regulatorik geht. Aber KI Governance geht eben weit darüber hinaus. Also wenn man das tut, Regulatorik einhält, dann bedeutet das auch, dass man sich Gedanken gemacht hat über Risiken und wie man diese umgeht oder mitigiert. Mitarbeitende wissen das zu schätzen und auch Kunden wissen das zu schätzen, dass man verantwortungsbewusst mit KI umgeht. Bezahlen vielleicht deswegen sogar mehr. Investoren wissen das auch zu schätzen, dass eben kein Risiko besteht, dass man im öffentlichen Raum mit irgendeinem Skandal landet. SPEAKER_01

Start: End: Kannst du uns ein Beispiel aus der Praxis nennen, wo das besonders gut geglückt ist? SPEAKER_02

Start: End: Wir haben zum Beispiel bei der französischen Bank Crédit Mutuel vor Jahren schon mit KI Governance begonnen. Diese Bank kam damals auf uns zu und wollte erst einmal technische Unterstützung. Also es ging darum, letztendlich Software zu kaufen, die viele Modelle monitort. Diese Bank nutzt hunderte von Modellen, 700 waren es damals, für verschiedenste Dinge. Wo es also darum ging, beispielsweise fehlerhafte oder betrugene Modelle zu kaufen. Prügerische Transaktionen zu erkennen, Kunden -Support -Anfragen zu klassifizieren und solche Dinge. Und man wollte also diese Modelle monitoren und messen, wie gut sie sind. Und so begann das also als Softwarekauf, aber dann stellten wir, man könnte jetzt sagen, wenig überraschend im Laufe der Zeit fest, dass es damit eben nicht getan ist. Und dann stellten sich eben schnell Fragen wie, wenn jetzt ein Modell im Laufe der Zeit schlechter wird, was mache ich denn dann? Sollte ich es neu trainieren? Sollte ich es vielleicht sogar abschalten? SPEAKER_01

Start: End: Was mache ich denn dann? SPEAKER_02

Start: End: Ja, das sind eben genau diese Fragen, die man sich vorher überlegen kann. Also wer entscheidet denn dann was, auf welcher Grundlage? Und da geht es dann eben nicht nur um den Einsatz von Technik, sondern auch um Prozesse und um Menschen, die in der Lage sind, diese Entscheidungen zu treffen. SPEAKER_01

Start: End: Und wie ging dieses Projekt weiter? Was ist heute der Stand? SPEAKER_02

Start: End: Wir haben dann zusammen KI -Governance -Prozesse entworfen. Wir haben Mitarbeitende geschult, die also in der Lage sind, dann jetzt einzuschätzen, wann man was tun sollte, wenn bestimmte Modelle, bestimmte Auffälligkeiten zeigen. SPEAKER_01

Start: End: Ich würde gerne mal so in diese einzelnen Bausteine reingehen. Ich höre für mich so ein bisschen raus, es gibt vielleicht vier große Themen. Einmal Informatik. Das ist auch, glaube ich, jedem, der sich mit KI beschäftigen möchte, klar. Aber dann gibt es eben noch Ethik, Recht und auch sowas wie Sozialwissenschaften. Das klang jetzt bei dir mit den Menschen an. Mit welchem Bereich möchtest du anfangen? SPEAKER_02

Start: End: Vielleicht, weil ich selber Informatik studiert habe, tatsächlich dann mit Informatik. Denn man könnte ja eben meinen, dass es erst einmal um ein rein technisches Problem geht, was eben nicht so ist. Aber rein technisch kann man hier auch schon viel erreichen. Und es ist erst mal eine große Herausforderung, KI -Systeme so zu entwerfen, dass sie nicht nur etwas tun, ein Problem scheinbar lösen, sondern dabei auch sicher, transparent, robust und erklärbar sind. Was wir da gerne einsetzen, ist so dieses Bild einer Zwiebel oder das Onion -Model. Also wie viel Erklärbarkeit brauche ich denn, um Vertrauen in KI zu entwickeln? Und wenn wir das so machen, dann ist das eine große Herausforderung. Wenn wir das jetzt wieder übertragen auf den Straßenverkehr, dann ist es beim Autofahren ja auch so, dass die wenigsten wahrscheinlich wissen, wie im Detail ein Katalysator funktioniert, sondern es reicht uns das einfache Verständnis, wenn ich aufs Gaspedal trete, dann geht es vorwärts. Wenn ich bremse, dann halte ich an und das passiert auch regelmäßig. Und dieses Level an Erklärbarkeit reicht uns da. Und so ähnlich ist es bei der KI auch. SPEAKER_01

Start: End: Das heißt, ihr ermittelt erst mal, was ist wirklich das Problem des Kunden? Also nicht das, was er glaubt, er muss jetzt die Software auswählen, sondern ihr schaut, was ist wirklich das Problem? Und dann nehmt ihr auseinander, welche Komponenten haben wir und wie findet man diese Komponenten? Welche Fragen muss man sich als erstes stellen? SPEAKER_02

Start: End: Eine wesentliche Frage ist letztendlich immer, was möchte ich denn eigentlich erreichen mit KI? Dazu kann ich dir vielleicht eine Anekdote erzählen. Wir hatten vor längerer Zeit mal eine Ausschreibung einer Firma, die um Hilfe bat, dabei Ausfallraten von technischen Bauteilen zu berechnen. Und da stand nun eben drin, man bittet um Angebote mit der Zusicherung, dass das Modell, was man da nun baut, 95%. 90 % richtig macht. Gut, klingt erst mal vielleicht erreichbar, aber erst einmal würde kein seriöser Data -Scientist das garantieren, ohne jemals Daten gesehen zu haben und so weiter. Aber das eigentliche Problem ist dann ein anderes. Denn die Frage ist ja, was möchte ich denn eigentlich erreichen? Wenn diese Bauteile nur sehr selten kaputt gehen, dann würde ich dieses Ziel von 95 % richtig machen auch erreichen, indem ich einfach immer sage, das Bauteil bleibt heile. Dann habe ich auch 95 % richtig gemacht. Aber die eigentlichen Ziele, die ich erreichen wollte, nämlich fehlerhafte Bauteile zu erkennen, die habe ich gar nicht erreicht. SPEAKER_01

Start: End: Kommen wir zur Ethik. Welche Fragen sollten sich EntscheiderInnen in Unternehmen in dem Bereich stellen? SPEAKER_02

Start: End: Da geht es zunächst einmal darum, wie dient die KI dem Menschen? Also niemand möchte wahrscheinlich, dass KI -Systeme einzelne Menschen oder Menschengruppen diskriminieren. Wir wollen, dass das alles in Einklang mit unseren Werten und Normen geschieht. Wir als IBM haben damals zum Beispiel rechtzeitig, recht früh uns selber eigene Prinzipien auferlegt für den Einsatz von KI bei uns im Unternehmen. Wir haben 2018 dann auch ein sogenanntes Ethik -Board aufgesetzt. Also das ist ein interdisziplinäres Gremium, wo verschiedene Mitarbeitende aus allen Bereichen unseres Unternehmens vertreten sind. Und jeder Mitarbeitende kann dieses Gremium dann anrufen und eben um Klärung eines Sachverhalts bitten, wollen wir bestimmte Dinge tun mit KI oder eben nicht. SPEAKER_01

Start: End: Wie oft wird das Board angerufen? Gibt es da Zahlen? SPEAKER_02

Start: End: Das kann beim Start eines. Das kann bei jedem KI -Projekt passieren. Wir haben zum Beispiel als IBM auch vor einigen Jahren dann mal entschieden, dass wir die Technologie der Gesichtserkennung gar nicht einsetzen wollen. Weil man zu Themen wie Überwachung im öffentlichen Raum, Massendaten, Erfassung eben zu viele unschöne Dinge damit tun kann, sodass wir als IBM gesagt haben, diese Technologie setzen wir gar nicht ein. SPEAKER_01

Start: End: Okay. Kommen wir zum Thema Recht. Das ist ja immer schön kompliziert. Kannst du es uns vielleicht einfach sagen? Kannst du uns erklären, was da so die zwei, drei wichtigsten Fragen sind? SPEAKER_02

Start: End: Ja, wir nehmen diesen Podcast jetzt auf zu einem Zeitpunkt, wo der sogenannte EU -AI -Act, also die KI -Verordnung auf europäischer Ebene, schon wirksam ist und einige Fristen oder einige Deadlines sozusagen schon abgelaufen sind und andere noch vor uns stehen. Durch die Verzögerungen bei der Regierungsbildung in Deutschland hat es jetzt einige Zeit gedauert und es ist immer noch nicht so weit, dass beispielsweise die ausführenden Behörden offiziell benannt sind. Deswegen nehmen wir auch wahr, dass manche Kunden, die sich in der EU -AI -Aktivität befinden, warten, bis das alles formell geregelt ist. SPEAKER_01

Start: End: Siehst du das als Consultant als eine gute Idee oder würdest du sagen, lieber nicht abwarten, macht es direkt richtig? SPEAKER_02

Start: End: Ja, ich würde sagen, es gibt einige Dinge, die man eigentlich sowieso schon, nicht nur, weil wir es rechtlich tun müssen, sondern auch, weil es eben sinnvoll ist, die wir schon tun könnten. Also jedes Unternehmen sollte schon jetzt in der Lage sein zu sagen, wo setze ich denn KI ein, mit welchem Zweck. Und das kann man auch jetzt schon vorbereiten. Oder sollte es jetzt schon sein? Ja, das kann man jetzt idealerweise schon haben. Mit der Frage, welche Dokumentation schicke ich dann später in welchem Format genau wohin? Mit der können wir uns dann immer noch im Laufe des kommenden Jahres beschäftigen. SPEAKER_01

Start: End: Kommen wir zum Menschlichen, also Sozialwissenschaftlichen. Was sind da so die größten Probleme, Herausforderungen, die du siehst? Oder ist es vielleicht gar nicht so ein großes Problem? Was ist deine Erfahrung damit? SPEAKER_02

Start: End: Also es ist schon ein wesentlicher Punkt, dass sich alle Mitarbeitenden abgeholt fühlen sollten. KI Governance darf man nicht von oben auf diktieren, sondern da sollten alle mitdiskutieren und sämtliche wesentlichen Stimmen zur Sprache kommen. Deswegen laufen da zum Beispiel unter dem Stichwort Human Friendly Automation einige gute Initiativen. Und was ich sehr gerne mag, ist in Projekten auch unser Vorgehensmodell namens Ethics by Design. Also wir setzen uns mit Nutzergruppen zusammen und besprechen eben auch, was könnte hier schiefgehen? Welche Sorgen, welche Bedenken hast du? Welche Auswirkungen kann der Einsatz dieses Modells auf dich haben? Und so versuchen wir dann eben dafür zu sorgen, dass sich jeder abgeholt fühlt. SPEAKER_01

Start: End: Wenn jetzt unsere Zuhörenden sagen, klingt gut, möchte ich morgen umsetzen. Was sind so die typischen oder die hilfreichsten ersten Schritte? SPEAKER_02

Start: End: Da tun wir gerne zwei Dinge zu Beginn. Das erste ist jetzt vielleicht wenig überraschend, so eine Art Status Quo. Also wo steht das Unternehmen überhaupt? Wie weit ist man in den einzelnen Bereichen? Sind die Menschen abgeholt, entsprechend geschult? Sind die Prozesse definiert? Und gibt es auch technische Hilfsmittel zur Unterstützung? Und dafür haben wir auch Benchmarking -Daten, sodass wir dann vergleichen können, wo steht ein Kunde im Vergleich zu seinen Mitbewerbern? Und können dann auch zusammen diskutieren, wo möchtest du denn hin lieber Kunde? Möchtest du nur das Nötigste tun oder eben vorne mitspielen? Und daraus können wir dann nächste Schritte ableiten. Ich finde es auch unbedingt sinnvoll, das dann zu koppeln mit einer gleichzeitigen praktischen Verprobung. Denn viele dieser Fragen, die werden erst wirklich dann greifbar und verständlich, wenn man es auch gleichzeitig eben tut. SPEAKER_01

Start: End: Gibt es eine gewisse Richtschnuppe für euch? Welche Use Cases geeignet sind, um damit zu beginnen? Sind das die besonders kleinen oder welche, die nicht über verschiedene Unternehmenssparten rübergehen oder so? SPEAKER_02

Start: End: Einen Use Case kann man aussuchen anhand einer Risikoklasse der EU. Der EU -AI -Act sortiert Anwendungsfälle auch nach Risikoklassen, wo es begrenzte Risiken gibt oder erst einmal, wo es gar keine Risiken gibt, dann wo es begrenzte Risiken gibt, wo es sich um Hochrisiko -Anwendungsfälle hat und auch Dinge, die so riskant sind, dass wir sie gar nicht tun wollen, wie zum Beispiel Social Scoring und solche Dinge. Ich erlebe es öfter, dass Kunden mit einfacheren, weniger riskanten Use Cases anfangen wollen. Das ist auch verständlich, denn man möchte ja zunächst einmal ein gutes Gefühl dabei haben. Aber ich empfehle schon. Diese Frage des Umgangs mit Risikos nicht zu weit auf die lange Bank zu schieben. Also als ersten Anwendungsfall können wir sicherlich etwas nehmen, was beispielsweise nur innerhalb des Unternehmens läuft. Aber als zweiten Use Case dann vielleicht schon auch mal ein Beispiel diskutieren, wo Kunden, Kundendaten und eine Wirkung nach außen mit dabei ist. SPEAKER_01

Start: End: Für uns ist es immer besonders schön, wenn wir unseren Zuhörern ein paar Fehler ersparen können. Also indem du uns jetzt aus dem Nähkästchen was erzählst, was so typische Fehler sind, dass unsere Zuhörenden das eben nicht mehr machen müssen. Was wären so typische Fehler, die dir untergekommen sind? SPEAKER_02

Start: End: Ein Beispiel hatte ich ja eben genannt. Es ist nicht nur ein Softwarekauf, sondern es geht auch um Dinge darüber hinaus. Das, was ich allerdings am häufigsten erlebe, ist, dass man KI -Governance zu spät mitdenkt und nicht schon währenddessen. Also wenn ich erst mal ein Modell baue und in Betrieb nehme und dann hinterher plötzlich merke, oh, ich habe Daten verwendet, die ich gar nicht verwenden sollte oder ich bin mir unsicher, welche Muster dort gelernt wurden, ich kann das Modell hinterher nicht erklären, dann wird es unschön und letztendlich sogar teurer. Denn dann muss ich nochmal ran und wenn ich diese Dinge gleich mitbedacht hätte, dann wäre ich eben schneller zum Ziel gekommen. SPEAKER_01

Start: End: Ja, das ist ein guter Hinweis. Zum Ende möchten wir immer nochmal den Zuhörenden irgendwas ganz Wichtiges mit auf den Weg geben. Was ist das, was du gerne auf jeden Fall noch gehört haben möchtest? SPEAKER_00

Start: End: Und jetzt der Gedanke zum Mitnehmen. SPEAKER_02

Start: End: Wenn man KI ohne Governance umsetzt, dann ist das so wie ein Sportwagen, der jetzt ohne Straßenverkehrsordnung und vielleicht sogar ohne Bremspedal unterwegs ist. Und das ist einerseits vielleicht beeindruckend, aber dann doch eben sehr riskant. Diese drei Dinge zusammendenken, Menschen, Prozesse und Werkzeuge, und dann wird aus KI -Governance auch nicht nur ein starrer Rahmen, sondern was tatsächlich einen echten Wettbewerbsvorteil bringt. SPEAKER_01

Start: End: Danke, Matthias. Und ihr, liebe Zuhörende, wenn ihr noch Fragen zu dem Thema habt, dann meldet euch gerne per Kommentar, zum Beispiel bei Spotify, Apple Podcasts oder auch bei LinkedIn.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.