HÄRTING.fm - Der Podcast für Recht, Technologie und Medien

HÄRTING.fm - Der Podcast für Recht, Technologie und Medien

Transkript

Zurück zur Episode

00:00:00: [Musik]

00:00:20: Heute am 28.11.2024 findet der zweite KI-Tag bei uns bei Härtenrechtsanwältestadt.

00:00:28: Wir haben ein volles Haus, unten läuft gerade die Veranstaltung und wir sind überbucht.

00:00:34: Wir konnten auch nicht alle Teilnahmewünsche erfüllen und haben deshalb beschlossen,

00:00:38: das so zu machen wie im letzten Jahr, nämlich zwischendurch mit den Referierenden kleine

00:00:44: Minipodcast-Folgen aufzunehmen zu ihrem jeweiligen Thema, so dass auch die, die nicht da sein

00:00:51: konnten oder die zwischendurch telefonieren mussten oder nicht vollständig aufmerksam waren

00:00:55: oder vielleicht zum Mittag gehen müssen, eine Chance haben zu erfahren, was wir da alles so besprochen haben.

00:01:01: Genau, wir haben im vergangenen Jahr den ersten KI-Tag gemacht und seitdem hat sich die KI-Landschaft

00:01:07: rasant weiterentwickelt, neue KI-Tools sprießen aus dem, wie Pilze aus dem Boden.

00:01:12: Es gab die ersten Gerichtsentscheidungen und da wollten wir natürlich mal schauen, was ist der aktuelle Stand.

00:01:18: Also was wollen wir eigentlich beim KI-Tag, was machen wir da?

00:01:21: Wir wollen uns den aktuellen Entwicklungen und praktischen Anwendungsfällen von KI widmen

00:01:26: und natürlich auch den dazugehörigen rechtlichen Fragen.

00:01:30: Und da haben wir den Fokus wie auch im letzten Jahr weniger auf so eine juristisch theoretische Problembetrachtung

00:01:36: gelegt, sondern mehr auf die praktischen Fragen.

00:01:38: Was sind denn die Anwendungsfälle?

00:01:40: Wie funktioniert das eigentlich?

00:01:42: Wir haben live getestet, live vorgeführt, wie KI trainiert werden kann zum Beispiel.

00:01:47: Und was sind die konkreten praktischen Fragen, die die Leute dazu haben?

00:01:52: Genau, und weil es nicht alle in eine Folge passt, haben wir zwei Folgen draus gemacht.

00:01:57: Ihr hört die erste Folge und gleich bei mir am Mikrositzen wird Maria Börner von Westernacher Solutions,

00:02:08: die die Kino hält und darüber spricht, ob KI nun die Lösung aller Probleme sei.

00:02:14: Dann werden wir hören den Vitorio Diemuf zum AI-Act, ein Kollege von uns.

00:02:20: Und dann geht es in den nächsten drei kleinen Snippets um KI Governance, wo Rebecca Weiß

00:02:25: von Microsoft, Fabio Wilia aus der Praxis von Mirantics, Momentum und Du Malene berichten

00:02:32: wirst, wie man KI-Kompetenz in Unternehmen aufbaut und wie man KI Governance Projekte

00:02:38: aus unserer Sicht vernünftig betreibt.

00:02:40: Und in der Folgefolge wird es dann um Datenschutz gehen.

00:02:44: Einerseits wird Thomas Fuchs der Datenschutzbeauftragte von Hamburg zu KI und Datenschutz sprechen.

00:02:51: Wir haben den ehemaligen Datenschutzbeauftragten des Landes Baden-Württemberg da, der zu KI

00:02:56: und Beschäftigten Datenschutz sprechen wird.

00:02:58: Und unsere Kollegin Marlina Nnanda zum Kollektivarbeitsrecht, was sagt eigentlich der Betriebsrat,

00:03:05: zu KI.

00:03:07: Dann kommt Martin Raasch mit ins Spiel, der mit dem ich spreche über Bayes in KI-Systemen,

00:03:14: wie vielleicht die sich kreieren lassen, wie man sie verhindert, was man beachten muss

00:03:17: bei der Datenauswahl und Last, aber wirklich nicht liest, Fabian Rahnholz mit den IP-rechtlichen

00:03:24: Themen und einem Special zu Text- und Data-Mining und einem ganz kleinen Ausblick zum Vertentschutz

00:03:33: für KI-Systeme.

00:03:34: Genau.

00:03:35: Und falls überraschenderweise bei dieser Sonderfolge Zuhörende dabei sein sollten, die dich

00:03:40: sonst nicht hören, die uns sonst nicht hören, wir sind Herr der Rechtsanwälte, eine Kanzlei

00:03:45: in Berlin, spezialisiert auf IT und IP und haben den KI-Tag heute organisiert, vor allem

00:03:52: aus den, oder mit dem Partnern, Fabian Rahnholz, der uns das IP-Team leistet, Sebastian Schulz,

00:03:58: der uns den Datenschutz macht, mit Dr.

00:04:00: Martin Schürmbacher.

00:04:01: Mit mir.

00:04:02: Spezialist für IT-rechtliche Fragen.

00:04:03: Und mit mir, Marlene Schreiber, ich leite bei uns das Digitalteam.

00:04:06: Viel Spaß.

00:04:08: Ja, bei mir ist und macht den Anfang in dieser Folge Dr.

00:04:12: Maria Börner, die gerade eine fulminante Kino gehalten hat mit der Frage, ob KI die Lösung

00:04:18: aller Probleme ist.

00:04:19: Das werden wir gleich beantwortet bekommen, hoffe ich auch hier.

00:04:22: Ja, hallo Maria, schön, dass du hier auch bei mir im Mikro bist.

00:04:25: Vielen Dank für die Einladung, ich freue mich sehr.

00:04:27: Ganz kurze Vorstellung, ja du bist Expertin auf dem Gebiet der KI schon in der Zeit, wo

00:04:32: viele noch gar nicht so richtig wussten, was das ist.

00:04:34: Du bist bei "Was danach hast du, solutions?"

00:04:36: Können wir gleich nochmal sprechen, was hier auf der Website steht, SAP und Business Consulting,

00:04:40: was das eigentlich heißt, was du da machst.

00:04:42: Ja, du leitest dort das AI Competence Center und ja, wahrscheinlich begleitest du Kundenprojekte,

00:04:50: wenn wir gleich nochmal ein bisschen hören.

00:04:51: Du hast Physik studiert, du bist also nicht Juristin am Zern und beim Daisy gearbeitet

00:04:56: und studiert da.

00:04:58: Also wie immer für uns Juristen eine befruchtende, ja einfach befruchtend, wenn das mal aus

00:05:05: dem anderen Gebiet kommt und wir nicht unser Senf und selber herleiten müssen.

00:05:10: Genau, also dein Thema, KI die Lösung aller Probleme, bevor wir dazu einsteigen, vielleicht

00:05:16: sagst du nochmal ganz kurz, was Westernacher eigentlich macht und wie ihr helft, dass die

00:05:20: Leute die Unternehmen mit KI klarkommen.

00:05:22: Genau, also bei Westernacher gibt es einmal die Consulting und die Solutions, die Consulting

00:05:26: macht wirklich SAP Beratungen in unterschiedlichen Bereichen, Lieferketten und solche Themen.

00:05:33: Und die Solutions ist unter anderem auf, also hat Dienstleiste für die Bundesrechtsanwaltskammer,

00:05:39: Bundesnotarkammer und macht dort die Postwöcher für die Anwaltschaft und die Notarinnen.

00:05:44: Genau, das ist das, was der Fokus ist, was der Hauptanteil ist.

00:05:47: Wir haben aber auch noch Produkte für Notariate und auch für Kirchen.

00:05:52: Wie so eine Datenbank ist das und da schauen wir auch, wie wir in Zukunft KI mehr einbauen

00:05:59: können, implementieren können und schauen einfach, dass wir wirklich mit innovativen

00:06:03: Ideen voran gehen können und Digitalisierung voranbringen können.

00:06:06: Also nicht nur für Kirchen oder für die Anwaltschaft, sondern auch und anderen für

00:06:11: Gerichte.

00:06:12: Aber deshalb kennst du dich halt aus mit dem Juristischen.

00:06:14: Ich hab gerade schon gestaunt, dass der Back Online und Jurist, das sagt dir schon was

00:06:17: sozusagen.

00:06:18: Das sagt mir was.

00:06:19: Manchmal, ich glaube, dass in diesem Bereich, wie es die Anwaltschaft kann oder nutzt, nicht.

00:06:27: Aber das sagt mir natürlich was.

00:06:28: Es ist natürlich gerade auch, gibt ja diesen Backchat, also das sagt mir auch was da.

00:06:33: Wir hatten gerade kurze Werbeblock-Juris hier, also ob das Werbeblock ist, weiß ich gar nicht,

00:06:37: wir haben das jetzt nicht beauftragt, aber die halt auch eine KI-Solution jetzt anfangen

00:06:43: und das liegt ja nahe, wenn ich so eine Riesen-Datenbank habe, da irgendwas vernünftiges mit KI zu

00:06:48: machen.

00:06:49: Gut, zu deiner Kino, du bist ein bisschen eingestiegen mit den neuronalen Netzen, wie

00:06:53: das sozusagen funktioniert.

00:06:54: Da werden wir jetzt nicht die Zeit haben, das nochmal auszubreiten.

00:06:58: Aber du hast es, fand ich, spannend gesprochen über Biases und über, warum man aufpassen

00:07:06: sollte, mit welchen Daten man sein Modell trainiert und was die gängigen Fehler sind, die dabei

00:07:11: gemacht werden.

00:07:12: Vielleicht kannst du mal so ein, zwei Beispiele rausholen, von dem was du da gerade noch berichtet

00:07:15: hast.

00:07:16: Ja, es gibt sehr, sehr viele Beispiele im Bayes-Bereich.

00:07:20: Also ich glaube, ein interessanter Fall, den halbe ich jetzt in der Kino nicht erwähnt,

00:07:24: deswegen vielleicht sage ich Ihnen direkt, ist unter anderem, dass das Apple-Telefon

00:07:28: damals eine Gesichtsagekennung zum Entsperren hatte und funktionierte bei europäischen Gesichtern,

00:07:34: weißen Gesichtern sehr, sehr gut.

00:07:35: Bei asiatischen Gesichtern war es so, dass Geschwister für die gleiche Person gehalten

00:07:39: wurden.

00:07:40: Das heißt also, hier waren in den Trainingsdaten Information nicht genügend asiatische Menschen

00:07:45: vorhanden.

00:07:46: Sie waren einfach Auswirkungen auf das Telefon und Entsperren.

00:07:49: Das ist ein kleineres Beispiel und in dem Sinne auch lösbar und gar nicht jetzt so dramatisch

00:07:55: würde ich mal sagen, wenn wir aber jetzt gerade auch in dem Blick...

00:07:58: Aber ganz kurz zurück, woran lag das?

00:08:00: Also, ja, woran, wie kommen so eine Fehler sozusagen?

00:08:04: Genau, das liegt daran, dass wir die Datenbanken, die wir nutzen dafür, um so was zu trainieren,

00:08:08: um solche KI-Systeme zu trainieren, nicht ausbalanciert sind, was die Menschengruppen

00:08:12: jeweils angeht.

00:08:13: Meistens enthalten Datenbanken Menschen, die weiß sind, also gerade auch in der Gesichts-

00:08:20: und Bilderkennung werden meistens weiße Menschen als Trainingsmaterial genutzt und nur sehr,

00:08:26: sehr wenig schwarze Menschen und auch asiatische Menschen.

00:08:29: Die Datenbanken werden wenig miteinander verbunden, die es gibt.

00:08:33: Also es gibt zum Beispiel Datenbanken nur mit asiatischen oder nur mit schwarzen Menschen,

00:08:37: aber wenig Zusammenfügung.

00:08:40: Und was man gerade beachten muss bei KI-Training ist, dass wir nicht nur alle Persongruppen

00:08:45: drin haben und in den Datenbasis drin haben, sondern auch eine ausbalancierte Basis, dass

00:08:51: wir gleich viel weiße Menschen haben, die schwarzen Menschen, asiatische Menschen und

00:08:55: andere Menschen.

00:08:56: Und genau, das ist einfach aktuell oder sehr, sehr häufig nicht der Fall, wäre einfach

00:09:00: auch in der Entwicklung selber, also Menschen, die die Daten aufarbeiten und nutzen am Ende

00:09:07: selber auch meistens männlich sind und das einfach gar nicht auf dem Schirm haben, was

00:09:12: gar nicht schlimm ist.

00:09:13: Also wir leben einfach in so einer Blase und ich kenne selber auch nicht alle unterrepräsentierten

00:09:17: Menschen und da muss man aber ein bisschen mehr drauf schauen, damit es am Ende wirklich

00:09:22: für alle nutzbar und brauchbar ist.

00:09:24: Das ist halt die Frage, was man will, ne?

00:09:25: Wenn man jetzt irgendwie denkt, wenn es ein iPhone gebe, was sich an den europäischen

00:09:30: Markt richtet, dann mag Apple entscheiden, dass es dann okay ist, dass es bestimmte Gruppen,

00:09:36: die dann hier in Europa eben deutlich unterrepräsentiert sind, nicht erkannt werden.

00:09:41: Also das ist halt so ein bisschen, ja, ist ja auch eine Kostenfrage und eine Frage, woher

00:09:45: die Daten kommen und ja, Apple wird ja nicht selber gesammelt haben, sondern auch wieder

00:09:49: irgendwo her haben.

00:09:50: Also gut, Apple ist vielleicht schon.

00:09:53: Aber genau und das hat man eben bei allen Datenbanken, ne?

00:09:57: Du hast ja noch andere Beispiele, ja, Mann, Frau, ja und und.

00:10:02: Genau, also die meisten Menschen sind wirklich in den Bilddatenbanken, es sind Männer zwischen

00:10:07: 30 und 50, über 60 jährige Personen sind völlig unterrepräsentiert und auch Kinder komplett.

00:10:14: Also muss man sagen, es hat auch da, es hat Vor- und Nachteile, gerade in Deutschland,

00:10:18: wissen wir.

00:10:19: Derzeit spricht Herr Fuchs bei uns unten, der über Datenschutz redet, der sagt vielleicht

00:10:24: ist es auch gut so, dass da jetzt Kinder, ja, die können ja nicht mal anwilligen, dann

00:10:28: unterrepräsentiert sind.

00:10:29: Aber dann gibt es eben auch keine guten Produkte für Kinder.

00:10:31: Genau, genau.

00:10:32: Das hat, ist immer zwei Seiten der Medaille, ne?

00:10:35: Also und das, deswegen sage ich, ist auch gar nicht immer eine schlimme Sache oder dass

00:10:39: man mit dem Finger zeigt, oh, du, du, du, sondern es hat einfach eine Ursache und man muss

00:10:42: einfach auch gucken, gerade wenn man so KI Marketing nutzt, wer ist diese Ansprechgruppe?

00:10:47: Wen will ich wirklich ansprechen?

00:10:48: Möchte ich diverse Menschen ansprechen oder möchte ich Kinder ansprechen und je nachdem,

00:10:53: welche Gruppe es ist, je nachdem, wer es ist, muss halt berücksichtigt werden in den Datenmatt.

00:10:59: Genau.

00:11:00: Und das ist ja auch ein Problem, um Awareness und Berufssan dafür, dass eben welche Bias

00:11:05: es vorhanden sind und dass eben dann bestimmte Gruppen bevorzugt werden und andere nicht

00:11:11: und dass bestimmte Produkte funktionieren und andere eben eben nicht.

00:11:15: Führt ja, also deine Aussage gerade so im Nebensatz, naja, ist auch nicht schlimm, führt

00:11:20: ja so ein bisschen in dein zweites Thema, ja, Innovation versus Moral, kann man, was sind

00:11:29: da so die Punkte, die man wo KI oder die beide KI eine Rolle spielen, was?

00:11:36: Gerade bei Innovationsbereich ist es so, dass wir in Deutschland ja schon sehr abgehängt

00:11:39: sind, was Innovation angeht.

00:11:41: Also man sieht das jetzt auch an dem Fall, Alif Aifa, dass sie, also es ist ja mal aufgegeben,

00:11:44: aber gesagt haben, es sind kein Konkurrenzprodukt mehr zu Chatchi P.T. oder Open AI, was wir

00:11:49: halt in Amerika sehen und auch in China, da wird halt ganz, ganz schnell eine KI unter die

00:11:57: Leute gebracht und da wird wenig berücksichtigt Regulierungen, Datenschutzurheberrechte besonders

00:12:03: auch, sondern da wird einfach die KI genutzt und das kann dann Folgen haben.

00:12:09: Das kann Folgen haben wie beim Kompassystem, dass Menschen falsch einsortiert werden, also

00:12:13: Strafen bekommen oder farbige Menschen haben dort höhere Strafen bekommen als weiße Menschen.

00:12:17: Das kann auch der Fall sein, dass zum Beispiel im Profiling bei der Polizei schwarze Menschen

00:12:24: mehr angehalten werden und dass die am einen gefängnis sitzen, obwohl sie das gar nicht

00:12:29: waren oder also völlig zu unrecht zum Teil.

00:12:32: Genau, aber was man halt auch sieht, durch diese Geschwindigkeit, Beschleunigung, dadurch

00:12:36: dass man das gar nicht berücksichtigt, sind sie ganz weit vorne, was Innovation angeht.

00:12:40: Und unsere Anspruch ja in Deutschland ist immer erst Risiken zu bedenken.

00:12:46: Bushmann hat das so gesagt, Digital First, Bedenken Second und es hat ja auch irgendwie

00:12:50: einen Grund, es liegt daran, dass wir immer alles zerdenken, ein bisschen, ich bin so,

00:12:55: ich versuche so ein bisschen so ein Mittelweg zu gehen.

00:12:58: Ich bin für Awareness, ich bin dafür aufzuklären und sagen, das ist halt der Fall, da müssen

00:13:02: wir dagegen wirken.

00:13:03: Wir müssen aber auch langsam erschaffen, diese Innovationsbereitschaft und Risiko mal

00:13:09: auch einzugehen und das mal umzusetzen.

00:13:11: Und am Ende testet man, das ist in der Softwareentwicklung immer so, erst im ganz Kleinen, es gibt ein

00:13:17: Entwicklungsumgebung, Tester*innen, die das alles anschauen und im nächsten Schritt geht

00:13:23: das in die Produktion.

00:13:24: Und dann geht das ja immer wieder neue Updates und so weiter und so fort.

00:13:27: Und da muss man einfach mal so ein bisschen bedenken, alles, ja, aber dann schon starten

00:13:33: langsam.

00:13:34: Schnell entscheiden, schneller machen.

00:13:35: Wobei man ja sagen muss, also so ein Large Language Model, ja, wenn man da jetzt alle Bedenken

00:13:43: berücksichtigt hätte.

00:13:44: Ja, und ich meine, Alpha hat jetzt nicht gesagt, woran es liegt, ob es jetzt an Regulierung

00:13:49: liegt.

00:13:50: Ja, mag sein, dass man das dann da nach vorne schiebt, aber da wird es auch einfach am

00:13:54: Geld gescheitert sein, weil es halt halt helle teuer ist, so ein vernünftiges Modell zu trainieren.

00:13:58: Und was ja noch dazukommt, alle zwei Monate Neues rauszuhauen, was jetzt nochmal selber

00:14:02: kostet.

00:14:03: Ja, dass das dann eben auch vielleicht dann volkswirtschaftlich auf die Welt geschaut,

00:14:10: dann gar nicht so sinnvoll ist, dass wir dann 7, 8 konkurrierende, riesige Modelle haben.

00:14:13: Aber ja, das ist ja ein altes Problem.

00:14:18: Diese Sachen gibt es dann halt in Amerika und wir sind die Anwender und vielleicht die

00:14:22: Implementierer, aber nicht diejenigen, die auf der eigentlichen Idee oder umsetzen, Idee

00:14:28: sitzen.

00:14:29: Genau, ja, im Mittelweg ist natürlich dann immer gut zu sagen, ja, wir haben jetzt die

00:14:34: Regulierung, wir haben den AI Act, ja, ob der jetzt wirklich dazu führt, dass jetzt

00:14:39: dort, also ob der jetzt wirklich so ein riesiger Hempfschuh ist für, wäre für eine Entwicklung

00:14:45: von einem großen LLM bei uns, sie weiß ich gar nicht, ja, also ob man nicht da, ob das

00:14:50: nicht ein bisschen vorgeschoben ist manchmal, aber ja, natürlich teilig, dass man da ein

00:14:56: bisschen in Richtung Innovationen gehen muss.

00:14:58: Ein zweiter Punkt, ich hatte gerade schon die Kosten angesprochen, die die Training eines

00:15:03: Modells verursacht.

00:15:05: Du hast angesprochen, das ist ein zweites Thema Energie und ein bisschen bewusst zu sein

00:15:11: dafür, vielleicht sei accidentally zu noch ein paar Sätze, ja.

00:15:14: Genau, so ein KI Modell zu trainieren ist je nach Größe des KI Modells unterschiedlich

00:15:20: Ressourcen nebend oder spannend, stimmt Ressourcen eigentlich nur menschliche oder finanzielle,

00:15:25: sondern auch CO2-Belastungen.

00:15:27: Diese CO2-Belastungen kommen besonders auch aus dem Ort, wo man trainiert, ne.

00:15:33: Also als kleines Beispiel hatte ich genannt, dass ein kleines KI Modell, wirklich also

00:15:38: zur Bilderkennung, was sieht man auf dem Bild, ein Hund oder Katze, das verbraucht circa

00:15:43: im Training 0,001 Tonnen CO2-Equivalent.

00:15:46: Wenn wir jetzt das GPT-3-Modell uns anschauen, dann sind das 552 Tonnen CO2-Equivalent.

00:15:54: Wir sehen also, dass gerade dieses Large-Language-Model, das kommt also nicht ohne Grund, es ist

00:16:00: ein Large, weil es einfach sehr groß ist und sehr, sehr viele Ressourcen braucht, um trainiert

00:16:04: zu werden.

00:16:05: Also da sind wirklich große NVIDIA-Rechner, High-Performance-Rechner werden dafür Monate

00:16:11: laufen, Stunden lang und das erzeugt auch Abgas.

00:16:14: Es ist erstmal braucht es Energie, um das zu laufen zu lassen.

00:16:17: Wir brauchen Energie, um diese Hitze wegzufördern.

00:16:21: Wenn wir dann noch zu berücksichtigen, wo diese Training stattfinden, im Silicon Valley,

00:16:25: wo es warm ist, dann wissen wir noch mal mehr, dass das noch mal Ressourcen mehr einnimmt,

00:16:30: das runterzukühlen.

00:16:31: Und dann können wir auch noch mal darauf gucken, in China zum Beispiel wird sehr, sehr viel

00:16:37: Kohle genutzt auch dafür, um das zu trainieren.

00:16:39: Das heißt, das ist auch gar nicht nachhaltig.

00:16:41: Also wirklich sage ich immer, das Beste ist so ein KI-Training in Island.

00:16:47: Ja.

00:16:48: Also das wird auch.

00:16:49: Aber Island ist halt auch überschaubar groß.

00:16:50: Man muss halt dann da erstmal die Datacenter alle hinbauen, da muss man da Leitungen hin

00:16:54: schaffen, dass da noch wieder zurückkommt, die Information.

00:16:56: Die Probleme haben wir ja im Bitcoin oder im Blockchain-Umfeld auch schon länger.

00:17:05: Und ich fand also die 550 Tonnen für so ein LLM, ich glaube jetzt mit einem 4O wird es

00:17:13: nochmal deutlich mehr sein, fand ich aber gar nicht so schlimm, verglichen mit einer

00:17:17: Tonne kostet sozusagen der Flug nach New York aus Europa.

00:17:21: 500 Flüge haben wir sicherlich am Tag über den Atlantik.

00:17:24: Insofern ist das dann möglicherweise gar nicht so schlimm.

00:17:27: Aber es hilft sicherlich, sich dessen bewusst zu sein und so ein Denken anzuregen, ob es

00:17:33: jetzt wirklich immer, das war ja auch dein Credo sozusagen, ob wir jetzt da wirklich immer

00:17:38: den LLM auf diese kleine Pippifax-Aufgabe schmeißen müssen, die eigentlich mit etwas

00:17:42: ganz anderem auch klar käme.

00:17:44: Möglicherweise, und das geht ja auch an deine Frage, ist die KI die Lösung aller Probleme,

00:17:47: möglicherweise sogar ohne KI.

00:17:49: Ja, manchmal ist vielleicht etwas algorithmbasiert effizienter als dann sich Ungenauigkeit einzukaufen

00:17:55: und eine KI drauf zu tun.

00:17:56: Manchmal ist es auch einfach nur ein gut Benutzeroberfläche, die einfach ganz, ganz viel macht.

00:18:00: Genau, und ich finde auch im Vergleich klar kann man dann halt auch sagen, okay, es ist

00:18:04: ein einmaliges Training, aber alleine die Nutzung von GPT-3 im Februar 2023 hat 450

00:18:11: Mal so viel CO2 verbraucht wie das eigentliche Training.

00:18:14: Und genau wie du sagst, die Modelle wären immer größer und da kann man sich dann ausrechnen,

00:18:21: wie viel das am Ende verbraucht.

00:18:22: Man muss aber auch sagen, dass wir an so einem Peak angekommen sind.

00:18:25: Das heißt, höchstwahrscheinlich wird es nicht mehr größer, sondern einfach nur noch spezialisierter,

00:18:31: es wird noch so ein bisschen Feintuning vorgenommen und Anwendung spezifischer, aber nicht mehr

00:18:35: unbedingt größer, glaube ich.

00:18:37: Ja, habe ich auch gehört, dass es eigentlich ganz interessant, dass das jetzt schon hier

00:18:40: Peak sein soll, aber dass es eben und zwar nicht Peak Performance im Sinne von, dass

00:18:45: der Outcome sich nicht mehr verbessern lässt, ganz im Gegenteil, aber eben Peak, was das

00:18:51: Large Animlinge von Model angeht, dass es keinen Sinn macht, da jetzt noch mehr zu trainen.

00:18:56: Gut, ob das stimmt, wenn wir sehen, da in Innovationen wird das sicherlich nicht halt machen.

00:19:00: Und dann hattest du sozusagen als Abschluss nochmal einen Ausblick gegeben, was es jetzt

00:19:05: sozusagen neben ChatGPT oder überhaupt Large Engels Models, Bildgenerierung eigentlich

00:19:11: alles so gibt.

00:19:12: Vielleicht machen wir da nochmal zwei kleine Beispiele raus.

00:19:15: Genau, es gibt unter anderem kleinere Modelle, es gibt ein kleines Modell, was eine Zusammenfassung

00:19:22: erstellen kann, bei Weitem nicht so groß ist wie ein ChatGPT, was man nutzen kann.

00:19:26: Wenn man auf der Suche ist nach einem KI-Modell oder nach einer Anwendung, empfehle ich immer

00:19:33: diese Datenbank, KI-Datenbank, Huggingface, da gibt es wirklich alle frei verfügbaren

00:19:37: Modelle, muss man ein bisschen gucken, welche Lizenzvereinbarungen hier sind.

00:19:42: Aber dort kann man auf jeden Fall, es ist eine Datenbank für KI-Modelle und auch für

00:19:46: Daten selber, das heißt, man kann dann auch Feintune.

00:19:49: Huggingface bietet selber auch ein Hugging Chat an und in diesem Chat kann man unterschiedliche

00:19:53: Large Language Modelle ausprobieren und kann dann z.B. mit Lama oder Mistral schauen,

00:19:58: ob die gleiche Frage, mit welchem Modell besser gestellt wurde.

00:20:02: Diese Modelle sind meistens kleiner im Vergleich zu GPT und können auch runtergeladen werden

00:20:07: und lokal installiert werden.

00:20:09: Noch kleinere Modelle sage ich auch immer, okay, vielleicht reicht das auch manchmal

00:20:14: so eine Extraktion von Informationen.

00:20:16: Wir leben ja hier anwalt- schalte Gerichte, es geht ja ganz viel über PDFs und um die

00:20:21: am Ende auszulesen, PDF ist nicht PDF und ist auch nicht digital immer, aber um das

00:20:25: auszulesen, nutzen wir z.B. auch einen Modell Name Entity Recognition, wo wir wirklich Informationen

00:20:32: aus Texten herausziehen können, Namen, Akten, Zeichen usw. und das sind wirklich ganz, ganz

00:20:37: kleine Modelle, die auf dem Rechner selber laufen.

00:20:40: Also da muss man wirklich immer auf die Anwendung gucken und darauf schauen, was brauche ich

00:20:45: wirklich, brauche ich ein Chat GPT zum Übersetzen oder reicht vielleicht auch so ein Diebelmodell,

00:20:51: was in Deutschland hergestellt wurde unter deutschen rechtlichen Bestimmungen und auch

00:20:56: kleiner ist und weniger Ressourcen verbraucht am Ende.

00:20:59: Ja, draußen verbraucht ihr auch dann möglicherweise weniger kostet, also das ist ja tatsächlich

00:21:04: in Manne, was ich ausgeben muss als Unternehmen, wenn ich da jetzt in Anfrischung nur meine

00:21:09: Prozesse dadurch verschlanke, dass ich eine automatische Inhaltserkennung, ein Bürementen

00:21:14: habe.

00:21:15: Wir haben dann, die haben uns gefragt, Datenschutz bei Training von Eingangsposterkennung.

00:21:23: Ja, und das ist halt auch irgendwie ganz interessant, weil da natürlich, man muss sich schnell

00:21:29: dabei als Datenschützer sagen, ja, müsst ihr anonymisieren, wenn es die Leute, deren

00:21:33: Daten da jetzt reinkommen, ja, die wissen ja gar nicht, dass es euch gibt, die kennen

00:21:37: euch ja im Zweifel gar nicht, wenn ihr jetzt euren Kunden dabei helft und das ist dann

00:21:41: auch ein schöner Biospfeil, weil dann hat man angefangen, am Anfang das zu schwarzen

00:21:45: und dann hat dann die KI sich überlegt, was das denn jetzt eigentlich bedeutet, dass

00:21:50: es jetzt hier schwarz ist und hat dann aus den Bikern irgendwelche Schlüsse versucht

00:21:54: zu ziehen.

00:21:55: Ja, ja, das stimmt.

00:21:56: Da muss man vielleicht auch anders trainieren.

00:21:57: Na ja, prima Maria, vielen Dank für die kleine Zusammenfassung, deine Keynote und

00:22:05: wer Fragen hat, der findet dich auf Linkin dazu und die Westernachers auch.

00:22:10: Ja, vielen Dank und noch einen schönen Tag, liebe uns.

00:22:13: Vielen Dank für die Einladung und die Augen schon.

00:22:15: Danke.

00:22:16: So, nach dem fulminanten Keynoteauftakt mit der Maria Birner, springt wir sofort zum

00:22:24: rechtlichen.

00:22:25: Bei mir sitzt mein lieber Kollege Vittorio Dimoff, alle lieber Vito.

00:22:29: Hallo Martin.

00:22:30: Vito ist associate bei uns im Team Digital und unser AI-Office.

00:22:35: Du bist wie lange bei Herding, wie mein Daumen?

00:22:38: 2014 als Student.

00:22:40: Also zehn Jahre.

00:22:42: Also ein alter Hase.

00:22:45: Und jetzt müssen wir zwei Jahre Anwalt schon und davor alle Stagen durchlaufen, die man

00:22:50: hier so durchläuft, bis man Anwalt wird.

00:22:53: Genau, du bist treibende Kraft hinter vielen von dem, was wir intern an KI machen.

00:23:00: Kennst dich am besten aus, was die Technik angeht.

00:23:02: Ich hoffe, ich trete den anderen nicht zu nahe.

00:23:04: Aber es wohl so, du bist immer Ansprechpartner für alle, die hier intern ihre KI-Themen haben,

00:23:10: selbst ein Chat-GPT-Thema ist oder eine inhaltliche Frage bei Beurteilung irgendwelcher Systeme

00:23:14: von Mandanten.

00:23:15: Und bist natürlich Überraschung auch rechtlich viel, der mit beschäftigt, wenn irgendwelche

00:23:21: KI-Sachen anstehen, bist du einer der ersten, die wir jetzt hier fragen.

00:23:26: Und deshalb auch besonders prädestiniert, gerade auf unserem KI-Tag über die KI-Verordnung

00:23:31: gesprochen zu haben.

00:23:32: Herzlich willkommen.

00:23:33: Ja, danke schön.

00:23:34: Also, KI-Verordnung oder AI-Act, da können wir jetzt natürlich ein zweitages Workshop

00:23:42: rausmachen, machen wir ja auch.

00:23:43: Der AI-Office.io findet ihr alle Infos dazu.

00:23:47: Aber wir versuchen das jetzt mal hier in einer Viertelstunde runterzubrechen, was man so

00:23:52: wissen sollte, wenn man bisher gar nichts gewusst hat zum AI-Act.

00:23:56: Und steigen mal soft ein, vielleicht sagst du mal, was die KI-Verordnung ist.

00:24:02: Ob sie gilt, wann sie gilt, für wen sie gilt.

00:24:05: Gerne.

00:24:06: Also, die KI-Verordnung, wie der Name schon sagt, ist eine europäische Verordnung, die

00:24:10: direkt anwendbar ist, ohne dass sie in nationalem Rechtung gesetzt werden muss.

00:24:15: Sie ist schon am 1.

00:24:17: August diesen Jahres in Kraft getreten, aber entfaltet ihre Wirkung in Schritten.

00:24:22: Also, der erste Schritt steht unmittelbar bevor am 2.

00:24:25: Februar am nächsten Jahr, fallen die ersten Pflichten an, die umfassen insbesondere die

00:24:30: Pflicht verbotene KI-Systeme nach der Definition der KI-Verordnung abzuschalten und nicht zu

00:24:36: betreiben und die Pflicht KI-Kompetenz im Unternehmen vorzuweisen für alle Beschäftigten, die Berührungspunkte

00:24:44: mit KI haben, die im Unternehmen eingesetzt entwickelt, etc.

00:24:48: wird.

00:24:49: Genau.

00:24:50: Und dann weitere Pflichten, insbesondere für die Hochrisikosysteme und was Transparenz

00:24:53: und so weiter trägt.

00:24:55: Es geht dann weiter.

00:24:56: Also dann im August geht es weiter mit Pflichten für Anbieter und Entwickler von KI-Systeme

00:25:02: mit allgemein Verwendungszweck.

00:25:03: Bis dahin müssen auch die zuständigen nationalen Behörden benannt werden.

00:25:09: Die nationalen Sanktionsmechanismen müssen aufgestellt werden.

00:25:12: Das Jahr darauf im August 2026 ist dann eigentlich der gesamte Geltungsbeginn der KI-Verordnung.

00:25:19: Ab da gelten alle Pflichten mit Ausnahme von Pflichten für KI-Systeme, die nach Artikel

00:25:25: 6 Absatz 1 KI-Verordnung definiert werden.

00:25:28: Natürlich ist es schwierig jetzt das aufzudröseln.

00:25:31: Das ist einfach eine bestimmte Kategorie.

00:25:34: Hochrisikosysteme und die werden dann am 2.

00:25:39: August 2027.

00:25:40: Also gestaffeltes System.

00:25:43: Wenn ihr ein Verboten des KI-Systeme betreibt, dann solltet ihr euch da schnell drum kümmern,

00:25:47: weil das ist schon Anfang Februar Schluss.

00:25:50: Und die KI-Kompetenz, da mag man jetzt sagen, das ist dann wieder eine Arbeits-Wisch-Schaffungsmaßnahme

00:25:55: für Berater- und Schulungsunternehmen.

00:25:58: Aber die ist auch gar nicht so richtig sanktioniert.

00:26:03: Aber es ist schon eine ernstzunehme Pflicht.

00:26:05: Die gelten jetzt halt ab Februar, sollte man sich mal ein bisschen miteinander setzen.

00:26:11: Jetzt hast du schon was von Hochrisiko-KI-Systemen gesagt oder ich habe es gesagt, überhaupt

00:26:16: von KI-Systemen.

00:26:17: Vielleicht zwei Einstiegsfragen.

00:26:22: Da drängt es sich natürlich auf, was ist überhaupt KI?

00:26:26: Und dann die Unterscheidung KI-System, KI-Modell.

00:26:28: Aber vielleicht fangen wir erstmal mit der Definition dessen an, was KI sein soll.

00:26:33: Ja, und da sucht man in der Kreivverordnung vergebensstaunlicherweise.

00:26:38: Also was künstliche Intelligenz an sich ist, wird nicht definiert.

00:26:41: Es wird in Artikel 3 Absatz 1 auf den Kernbegriff abgestellt des sogenannten KI-Systems.

00:26:48: Und das ist, ich werde jetzt nicht die Norm vorlesen, genau, aber ich sage, es ist im

00:26:54: Endeffekt ein maschinengestützter System, also auf Computer laufende System, welches

00:26:59: autonom agieren muss in einem gewissen Grad und welches in der Lage sein muss von Eingaben

00:27:04: Ableitung zu treffen, das heißt auf Technologien basieren, wie Maschinellum-Learn, von Daten,

00:27:15: Aufgaben ableiten und umsetzen.

00:27:18: Also man muss das in Detail anschauen, aber ein KI-System ist das, womit die Person interagiert

00:27:25: in dem KI drin ist.

00:27:26: Und das ist jetzt die Überleitung dazu, was die Abgrenzung ist zwischen KI-Modell und

00:27:30: KI-System, weil diese Abgrenzung wird auch in der KI-Verordnung vorgenommen und ist wichtig.

00:27:34: Genau, vielleicht nochmal ganz kurz KI ist nicht definiert, aber wir finden halt schon

00:27:39: eine Definition im Gesetz und wir hatten jetzt die erste Fälle, wo man sich damit auseinandersetzen

00:27:46: musste, wo wir dann gefragt haben, ob ihr Algorithmus jetzt schon KI ist oder nicht.

00:27:50: Wir erwarten da wohl eher eine liberale Auslegung in dem Sinne, dass Gerichte als Wernl-Orgy

00:27:57: irgendwann mal eher schneller als später annehmen wird, dass das jetzt KI ist oder

00:28:01: nicht, auch wenn man sich dann natürlich jetzt über jeden einzelnen Punkt freiten kann.

00:28:05: Ja, das könnte auch ein bisschen abgenommen werden, weil die EU-Kommission in der KI-Verordnung

00:28:11: selbst verpflichtetes Leitlinien zu erlassen, die genaueres zur Anwendbarkeit dieser Definition

00:28:17: ausführen sollen.

00:28:18: Also man merkt hier ein bisschen, dass man sich schwergeteilt hat mit der Definition, dass

00:28:21: es auch klar ist und dass anhand der Leitlinien dann dann viel handfesteres da sein wird.

00:28:28: Und dann natürlich später mit Rechtsprechung.

00:28:31: Genau.

00:28:32: Jetzt hatte ich aber schon unterbrochen, du wolltest noch mal sagen, was eigentlich

00:28:35: der Unterschied zwischen KI-System und KI-Modell ist.

00:28:37: Alles gut, ich habe hier einfach mal so mein Modell, wie ich das erkläre und ich sage,

00:28:43: dass KI-Modell ist das Gehirn, welches im KI-System drin ist und das KI-System ist der Körper.

00:28:50: Das KI-System mittels der Sinnesorgane umfasst Eingaben aus seiner Umwelt, verarbeitet sie

00:28:57: im KI-Modell in Gehirn und das KI-Modell spuckt sie dann über den Körper in der Form einer

00:29:02: Reaktion aus, die dann mit der Umwelt interessiert ist.

00:29:07: Sprache oder gezeichnete Bilder von der Hand.

00:29:10: Genau.

00:29:11: Bewegungen.

00:29:12: Sehr gut.

00:29:13: Und das Gehirn kommt halt oft bei den typischen KI-Systemen, die wir so sehen von jemand anders.

00:29:18: Das ist sozusagen das etwas untypische beim Gehirn.

00:29:21: Aber jedes Wiedervergleich hängt ja irgendwo.

00:29:25: Aber da kann man sich eben auch kurz erklären, am Beispiel von Chaggipiti oder am Beispiel

00:29:30: Chaggipiti.

00:29:31: Das ist ein sehr gutes Beispiel, weil man hier eben beide Elemente hat.

00:29:36: Wenn man Chaggipiti bezieht über OpenAI, über den Browser oder über die App, dann

00:29:42: hat man ein KI-System, weil ich als Nutzinteragiere über dieses Interface mit dem KI-Modell,

00:29:50: welches Chaggipiti ist.

00:29:51: Und dann habe ich auch gesagt, Chaggipiti ist auch ein Modell, welches separat per API

00:29:56: eingesteuert und eingebunden werden kann.

00:29:59: Und deswegen hängt es wirklich davon ab, wie das konkret implementiert ist und wie die

00:30:03: Interaktionsmöglichkeiten damit sind.

00:30:05: Genau.

00:30:06: Stand jetzt.

00:30:07: Ja, und die Unterscheidung ist an ganz vielen Stellen wichtig.

00:30:10: Sie ist für den AI-Act wichtig.

00:30:11: Aber ja, ich kann schon mal ankündigen in der nächsten Folge, die eingeleitet wird von dem

00:30:20: Thomas Fuchs und seinen Überlegungen dazu, wie Datenschutz oder DSGVO und KI-Systeme

00:30:27: Modelle eigentlich funktionieren.

00:30:29: Der unterscheidet da eben auch ganz entscheidend und das scheint auch Sinn zu machen.

00:30:33: So, jetzt sind wir also drin in der KI-Verordnung haben, haben es mit Kütze die Intelligenz

00:30:37: zu tun und sagen, ja, wir haben jetzt hier also ein KI-System.

00:30:40: Und ja, viele werden schon gehört haben, der verfolge einen risk-based approach.

00:30:48: Also, sprich, man guckt wie viel oder Risiko-based Ansatz auf Deutsch, wie viel Risiko steckt

00:30:53: in dem System.

00:30:54: Vielleicht sagst du mal die Klassen und ihr kennt alle aus dem Präsentationen, diese

00:30:58: Pyramiden, die dann da immer aufgemalt werden, die verschiedenen Klassen an Risikosystemen

00:31:04: oder an KI-Systemen, die es da gibt.

00:31:05: Ja, genau.

00:31:06: Wir haben auch eine wunderschöne Pyramide immer, die uns aufgebaut haben.

00:31:09: Und an der Spitze steht natürlich, dass das was ganz, ganz verboten ist, die verbodenden

00:31:15: KI-Systeme nach Artikel 5 der KI-Verordnung.

00:31:19: Ein Blick ins Gesetz wird helfen zu verstehen, was da genau gemeint ist.

00:31:23: Ich finde, das ist auch für Nicht-Juristen ganz gut nachvollziehbar und gut aufgeschlüsselt

00:31:27: alles.

00:31:28: Ich kann jetzt einfach ein konkretes Beispiel nennen und das ist so ein System mit so einem

00:31:32: predictive policing Typ Minority Report.

00:31:36: Das ist verboten, das darf man nicht einsetzen.

00:31:39: Aber es gibt überall auch entsprechende Ausnahmen.

00:31:42: Übrigens, bei der Gelegenheit KI-Verordnung gilt sowohl für die private Wirtschaft als

00:31:49: auch für die öffentliche Hand.

00:31:50: Also predictive policing findet ja meistens bei der öffentlichen Hand statt, aber darf

00:31:55: eben nicht stattfinden, wenn es KI-Gestütz ist.

00:31:58: Genau.

00:31:59: Die nächste Stufe und das ist die Stufe, die die meisten Pflichten im Endeffekt am Ende

00:32:05: bewirkt, weil die Pflichten bei verbotenden KI-Systemen einfach nicht haben und nicht

00:32:09: betreiben.

00:32:10: Bei Hochrisikokrisis-Themen, also habe ich jetzt schon vorhin vergenommen, die Hochrisikokrisis-Themen

00:32:15: in Artikel 6 und was das genau ist, das muss man auch in der Gesellschaft schauen.

00:32:21: In Kombination mit zwei Anlagen, Anlage 1 und Anlage 3 und wenn man sich auch hier im

00:32:28: Gesetz ein bisschen lang angelt, kann man sehen, was da drunter fällt.

00:32:31: Also Beispiel in Artikel 6 Absatz 1 in Kombination mit Anhang 1 ist eine der Hochrisikoklassen,

00:32:39: das ist auch die, die ganz zum Schluss in Kraft tritt und die umfasst Produkte im Endeffekt,

00:32:46: in denen KI drin ist oder die KI darstellt, die in Harmonisierungsvorschriften durch die

00:32:53: EU geregelt sind.

00:32:55: Also Spielzeuge zum Beispiel.

00:32:57: Beispielsweise, das hast du gut gesagt, man denkt immer zunächst an Autos und Flugzeugen

00:33:02: und so ganz gefährlichen Sachen Eisenbahn, aber dazu zählt auch Spielzeug, ja dazu zählen

00:33:07: Spielzeug und Aufzüge.

00:33:09: Ja, ja.

00:33:10: Ja, und...

00:33:11: It seems random, aber wenn man sich es überlegt, dann eben schon Sinn.

00:33:14: Ja.

00:33:15: Und da gibt es halt auch eine Zwiegegliederung, nämlich wenn man eines von diesen Produkten

00:33:20: ist, muss auch, ist auch die Voraussetzung, dass man, ja ist das eine, ich muss mal nachschauen,

00:33:29: eine Konfirmitätsbeferrung durchgeführt wird.

00:33:31: Ja.

00:33:32: Durchgeführt werden muss, durch Dritte, das steht dann in der jeweiligen Harmonisierungsvorschrift

00:33:36: drin.

00:33:37: Mit Lesen kommen wir dann ganz gut weiter.

00:33:39: Und die zweite Klasse, die zweite Kategorie von Hochrisikokésystemen sind Hochrisikokésysteme,

00:33:45: die in Absatz 2...

00:33:47: Wie du machst, was man eigentlich nicht machen soll als Jurist, er macht alles aus dem Kopf,

00:33:52: das finde ich eigentlich etwas meintruckend.

00:33:54: Aber...

00:33:55: Artikel 6 Absatz 2, ja genau.

00:33:59: Ja.

00:34:00: In Kombination mit Anhang 3.

00:34:02: Und das sind, das ist das wohl eher spannende Feld, weil es früher in Kraft tritt und es

00:34:11: umfasst im Unternehmen konkret, beispielsweise Systeme, die im Rahmen von Human Resources

00:34:16: eingesetzt werden, um einen Bewerbungsprozess irgendwie Zugang zu einem Beruf zu fördern.

00:34:21: Und beispielsweise auch Sachen wie Kreditvergabe, Banken und Zugang zu Versicherungen, Lebensversicherungen

00:34:34: etc.

00:34:35: Ja.

00:34:36: Also, so, jetzt nehmen wir mal, wir hätten, man würde traurig feststellen, dass sein Késystem

00:34:41: ein Hochrisikosystem ist.

00:34:43: Wie geht, was folgt da draus, was müssen wir noch machen?

00:34:46: Also erstens, man, keine Panik.

00:34:48: Hochrisiko hört sich schlimm an, die meisten Pflichten hört sich schlimm an.

00:34:54: Aber als nächstes, wenn ich jetzt festgestellt habe, ich habe ein Hochrisikosystem.

00:34:58: Übrigens, es gibt in Artikel 6 auch Ausnahmen.

00:35:02: Also selbst wenn ich jetzt in Artikel 6 Absatz 2 bin, gibt es Möglichkeiten, dass ich unter

00:35:08: eine Ausnahme falle und dann doch kein Hochrisikosystem bin.

00:35:12: Aber wenn ich ein Hochrisikosystem habe, muss ich schauen, was meine Rolle ist nach

00:35:17: der Crate-Verordnung.

00:35:18: Also welche Art von Akteur ich bin, das ist der Wort laut der Verordnung Akteure.

00:35:23: Und die werden in Artikel 3 alle definiert und die wohl wichtigsten, in den meisten

00:35:30: Fällen, werden sein der Anbieter auf deiner Seite und der Betreiber auf der anderen Seite.

00:35:35: Anbieter ist derjenige, der ein Késystem entwickeln lässt oder entwickelt und dann

00:35:41: im eigenen Namen Verkehr bringt.

00:35:43: Und der Betreiber ist im Endeffekt bei keinem Grund schreiben als der Nutzer.

00:35:47: Er nimmt das Késystem und setzt es ein.

00:35:50: Und zwar für eigene berufliche Zwecke und nicht für private Zwecke.

00:35:56: Ja, der Versuch eines Beispiels.

00:36:00: Also wir bauen einen GPT, den wir der Verträge prüfen können.

00:36:06: Top, wo noch alle suchen.

00:36:08: Ja, Effizienzsteigerung in der Rechtsberatung.

00:36:12: Wenn wir diesen GPT für unsere eigenen Zwecke hier in der Kanzlei einsetzen, versus wir

00:36:20: veröffentlichen den und stellen den Mandanten zur Verfügung, macht das schon Unterschied.

00:36:24: Also abgesagt davon, dass es wahrscheinlich kein Hochrisiko ist.

00:36:27: Aber ich wollte jetzt kurz hinaus auf das Thema Nutzerbetreiber.

00:36:31: Wenn wir das selbst bauen und nur intern einsetzen, sind wir trotzdem Anbieter.

00:36:36: Also es kommt jetzt nicht darauf an, dass wir es woanders einsetzen, sondern es kommt darauf

00:36:40: an, dass wir das im Endeffekt unter eigenem Namen, eigener Marke irgendwie in Betrieb

00:36:46: nehmen oder in Verkehr bringen.

00:36:48: Alle unsere GPTs haben eigene Namen, sehr schöne Namen.

00:36:51: Ich sage jetzt, dass es etwas, womit man sich noch vertieft auseinandersetzen muss,

00:36:56: wenn ich jetzt auf Chat GPT bin und einen Account habe, der mir die Möglichkeit erlaubt,

00:37:01: auf Chat GPT diese Custom GPTs zu bauen.

00:37:04: Das ist jetzt die Frage, ob jetzt die Custom GPTs eigenständige Késysteme sind.

00:37:09: Wenn ja, und mein Name drunter steht, müsste man wohl auch sagen, dass ich dann auch Anbieter davon bin.

00:37:15: Und dann würde mich auch die Pflichten treffen.

00:37:18: Entsprechend davon, wie jetzt dieses eigene Mini GPT-Késystem kategorisiert es nach Risiko.

00:37:25: Nächste Beispiel nehmen wir dann auch ein echtes Hochrisikosystem.

00:37:29: Dann gucken wir mal ins Arbeitsrecht oder in die HR-Abteilungen und diese Systeme,

00:37:34: die dort dann möglicherweise tatsächlich schon zum Einsatz kommen,

00:37:39: auch dazu dann in der Folge 62 mehr, wo es tatsächlich darum geht,

00:37:44: um die Hochrisikosysteme im HR-Bereich an sogar, ja,

00:37:50: sowohl der Stefan Brink als auch die Marlininander haben da einen Schwerpunkt drauf,

00:37:54: also reinhören, sobald die neue Folge draußen ist.

00:37:58: Also nochmal die, ich hatte dich schon wieder oder brocken,

00:38:03: aber die sozusagen gesagt, man muss dann halt gucken, bin ich Anbieter oder nur Nutzer.

00:38:09: In gesetzlichen Fall, ich wäre Anbieter, welche Pflichten treffen mich denn dann?

00:38:14: Ja, das hängt davon ab, welche Risikoklassik ich habe.

00:38:18: Und man kann auch sagen, es hängt ein bisschen davon ab, wo ich in der Kette bin.

00:38:22: Aber das umfasst, es sind alle Leitpflichten, insbesondere bei Hochrisikosystemen,

00:38:27: sind das technische Maßnahmen, die ich ergreifen muss, um Sicherheit herzustellen,

00:38:31: um die Bedeutungsmaßnahmen.

00:38:34: Es ist wirklich sehr viel, was auf einem zukommt, auf den ersten Blick.

00:38:38: Klar, ich muss dann auch gucken, muss ich vielleicht bestimmte Prüfungen durchnehmen,

00:38:44: wenn ich festgestellt habe, dass ich in Anführungszeichen kein Hochrisikoklassystem bin,

00:38:49: weil ich die Ausnahme aus Absatz 3 habe, dann habe ich trotzdem Dokumentationspflichten.

00:38:55: Ich habe Pflichten sicherzustellen, dass ich jemand in der Loop an vielen, vielen Stellen ist.

00:39:00: Das heißt, dass es menschliche Aufsicht ist.

00:39:04: Es ist viel und es hört sich auch alles sehr anstrengend an, aber es steht nicht im luftleeren Raum.

00:39:11: Die Pflichten, die ich da habe, können andocken an bereits bestehende Systeme,

00:39:15: die ich implementiert habe für Compliance im Unternehmen.

00:39:18: Also wenn ich jetzt festgestellt habe, oh Gott, ich bin Anbieter von einem Hochrisikoklassystem

00:39:25: und ich habe diese ganzen, ganz vielen Pflichten, dann müsste ich eigentlich im nächsten Schritt

00:39:30: eine Gap-Analyse machen und gucken, was habe ich eigentlich schon, beispielsweise im Zuge der DSGVO oben gesetzt.

00:39:36: Und wo kann ich jetzt meine KI anheften und so kleinen Brücken bauen,

00:39:40: damit es jetzt nicht ein kompletter, separater zweiter Strang ist an Sachen?

00:39:45: Genau, über die verschiedene Möglichkeiten KI Governance.

00:39:49: Sprechen wir gleich, kommt jetzt hier auch um mit dem Anschluss in den Talks hier mit Rebecca Weiß und mit Fabio Wilia

00:39:58: und auch mit Marlene Schreiber, wo wir uns genau damit befassen, wie setzt man denn jetzt so ein KI Governance auf.

00:40:05: Und da ist natürlich das Thema die Behandlung interner Hochrisikosysteme ein.

00:40:11: Wenn ich feststelle, ich habe zwar KI, aber kein Hochrisikosystem, welche Pflichten bleiben dann noch übrig?

00:40:16: Ja, da kommen wir hin. Wenn wir jetzt weder Hochrisiko noch verboten sind, dann gibt es immer noch die irgendwie mit geringem Risiko

00:40:26: und die werden so ein bisschen aufgelistet in Artikel 50.

00:40:30: Und da sind bestimmte...

00:40:32: Wir sind die verboten bei fünf, die Hochrisiko bei sechs und die anderen bei 50.

00:40:37: Ja, und die anderen heißen auch nicht geringes Risiko oder so, die heißen eigentlich unermittleres Risiko.

00:40:43: Das ist einfach Transparenzpflichten nach Artikel 50.

00:40:46: Und diese Transparenzpflichten sagen auf diese Klausel besagt, dass beispielsweise,

00:40:53: das typische Beispiel ist, wenn jetzt das KI-System vorgesehen ist für die direkte Interaktion mit natürlichen Personen,

00:40:59: dann muss Transparenz bestehen, dass mit KI interagiert wird.

00:41:03: Also das sind die Pflichten und das wäre in dem Sinne das mittlere Risiko,

00:41:08: die direkte Interaktion mit den Menschen.

00:41:11: Aber auch da gibt es für jede Transparenzpflicht umfassende Ausnahmen,

00:41:16: sodass man nicht immer sofort alles irgendwie offenhalten muss.

00:41:21: Das soll ja auch nicht zu einfach sein.

00:41:23: Ja, stimmt.

00:41:24: Und wenn wir auch da raus sind, dann haben wir eigentlich einen Anführungszeichen kein Risiko.

00:41:29: Wir sagen so ein bisschen minimales Risiko, weil auch in dem Fall Pflichten bestehen.

00:41:33: Die Pflicht zur KI-Kompetenz besteht unabhängig vom Risiko.

00:41:41: Wenn KI-System eingesetzt wird, muss man diese sicherstellen.

00:41:45: Genau. Also merke wer versucht der Zusammenfassung, wenn ihr KI-System schon einsetzt in euren Unternehmen,

00:41:52: dann habt ihr eine Aufgabe sehr schnell herauszufinden, ob es möglicherweise ein Verboten des KI-Systems sein wird.

00:41:58: Die wahrscheinlich ja sehr gering.

00:42:00: Wenn ihr nicht gerade so Scoring-Bereich, da kannst du mal ein, zwei Sachen geben.

00:42:04: Wenn ihr politisch Poli-Sign in die Richtung, aber auch für die Proatwirtschaft gibt es da ein, zwei Sachen,

00:42:09: wo man reinschauen sollte.

00:42:10: Es könnte sein, dass ihr ein Hochrisikosystem betreibt, dann habt ihr viel zu tun.

00:42:16: Und ansonsten ist man dort bei den Transparenzpflichten.

00:42:20: Da muss man sich mit befassen, man muss dokumentieren, aber das ist alles nichts, was nicht händelbar wäre.

00:42:26: Angesichts dessen, dass die Verbreitung von KI mit Sicherheit zunehmen wird,

00:42:31: werden wir auch immer mehr Systeme sehen, die dann da in die eine oder andere Kategorie fallen.

00:42:37: Empfiehlt es sich auf jeden Fall, sich damit zu befassen, eine vernünftige Governance aufzusetzen,

00:42:42: um da nicht durchrutscht.

00:42:45: Gut, vielleicht als Letztes, wie du noch, wenn ich das alles nicht mache,

00:42:49: haben wir dann auch die dicken Bußgelder, wie bei der DSGVO, oder welche Folgen gibt es so?

00:42:55: Wir haben da die dicken Bußgelder, die sogar teilweise dicker sind.

00:42:59: Ein ähnliches System, bei dem es vom jahres, weltweiten Jahresumsatz abhängt,

00:43:06: oder von konkreten Summen, je nachdem, was höher ist, wobei auch hier es ankommt,

00:43:14: die in der KV-Ornung aufgezählt sind, alles höchststrafen sind.

00:43:19: Beispiel, das allerhöchste, was auch von zukommen würde, wenn wir jetzt verbotene Cray-Systeme einsetzen würden,

00:43:26: ist bis zu 35 Millionen Euro oder bis zu 7% des weltweiten Jahresumsatzes.

00:43:33: Und das ist ja mal besonders saftig.

00:43:37: Eine Ansage, ja, sollte man sich schon überlegen, ob man so ein System trotzdem betreiben möchte.

00:43:41: Ja, und das ist auch hier gestaffelt so ein bisschen nach den jeweiligen Systemen.

00:43:47: Also verbotene Systeme, 35 Millionen, eine mittlere Stufe umfasst alle Pflichten,

00:43:56: die hochrisikokei-Systeme betreffen, aber auch Transparenzpflichten betreffen.

00:44:00: Und weitere Pflichten, die geht bis zu 15 Millionen und bis zu 3%.

00:44:07: Also ist dann so abgestuft, nach einigen Bisschen, die dann gar nicht mehr so richtig sanktioniert sind,

00:44:12: dieses KI-Compliance, Literacy-Thema, also Artikel 4, der dann sozusagen mehr eine allgemeine Pflicht ist.

00:44:23: Prima, jetzt haben wir unser Ziel erreicht, hier in 20 Minuten einmal den AI-Akt durchzurattern.

00:44:30: Die Entwicklung ist da erst am Anfang.

00:44:35: Wie gesagt, wir haben natürlich die Mandate und in der Mandatsarbeit,

00:44:38: irgendwo lernt man so viel wie bei der Mandatsarbeit bei neuen Sachen.

00:44:41: Das ist schon so.

00:44:43: Aber es ist schon Zeit, sich damit zu befassen, oder?

00:44:47: Auf jeden Fall.

00:44:49: Weil insbesondere, ich würde sagen, in jedem Unternehmen Karriere eingesetzt wird.

00:44:54: Und zwar ob bewusst oder unbewusst.

00:44:56: Also man muss sich irgendwie ran trauen an das Thema.

00:44:58: Genau.

00:44:59: Ja, wie man sich da ran traut, bespreche ich gleich mit den Kolleginnen und Kollegen.

00:45:03: Lieber wie du, vielen Dank, dass du hier warst.

00:45:05: Jetzt nach dem anstrengenden Vortrag auch noch hier bei mir am Podcast Mikro.

00:45:09: Und ich prophezeie mal, dass wir noch die eine oder andere KI-lastige Folge mit dir hier aufnehmen werden.

00:45:15: Vielen Dank.

00:45:16: Ich würde mich freuen, danke auch.

00:45:18: Bei mir sitzt eine Juristin-Kollegin, nämlich Rebecca Weiß, macht KI-Governance bei Microsoft.

00:45:25: Du bist, wenn ich dich kurz vorstellen darf, oder hallo erstmal, hallo Rebecca, auch hier,

00:45:30: an meinem Podcast Mikro.

00:45:32: Genau, du bist, habe ich gerade schon gesagt, Juristin hast in Deutschland, in der Schweiz und im UK studiert.

00:45:37: Warst, wenn ich das so sagen darf, ungefähr 100 Jahre beim Bitcoin für alles, was digital ist und unter anderem der Datenschutz zuständig.

00:45:47: Bist jetzt aber seit einem knappen Jahr Senior Manager in Government Affairs bei Microsoft hier in Berlin.

00:45:53: Hat ein bisschen für Furore gesorgt, glaube ich, der Wechsel.

00:45:56: Viele, die viel und gut mit dir zusammengearbeitet haben beim Bitcoin, ja, fanden das da große Fußstapfen hinterlassen worden sind.

00:46:03: Aber macht Spaß bei Microsoft?

00:46:06: Ja, auf jeden Fall.

00:46:07: Also freut mich natürlich auch zu hören, dass die früheren Fußstapfen auch groß waren, ist ja aber ganz nett.

00:46:13: Aber ja, net hat.

00:46:14: Also ich wollte vor allem mehr zu KI arbeiten und ja, da war der Weg zu Microsoft dann quasi so ein bisschen vorbestimmt.

00:46:20: Liegt auf der Hand.

00:46:21: Genau, und damit sind wir auch schon mittendrin im Thema.

00:46:23: Wir wollen ja ein bisschen sprechen über KI-Governance.

00:46:25: Das ist jetzt auch gleich dein Thema für unser Audience hier.

00:46:29: Und Microsoft hat ja mindestens mal zwei Rollen in dem Zusammenhang.

00:46:34: Sozusagen einerseits seid ihr selber KI-Nutzer, nehme ich mal an, das manche von euch mit KI arbeiten.

00:46:40: Und ihr habt sozusagen ein eigenes Governance-Thema und andererseits seid ihr natürlich Provider und viele unser Mandanten und viele Unternehmen da draußen nutzen eure Produkte, die eben auf KI basieren, KI einsetzen.

00:46:52: Was schön zu hören.

00:46:53: Ja, ich glaube ich mal.

00:46:54: Insofern sollten wir vielleicht über Weides kurz sprechen.

00:46:58: Vielleicht als erstes ja, und dann aus Sicht als sehr großen Unternehmens.

00:47:02: Wie geht ihr KI-Governance an bei euch?

00:47:05: Was macht ihr?

00:47:06: Wie macht man das?

00:47:07: Wie macht man KI-Governance?

00:47:09: Cool Frage.

00:47:10: Vielleicht zu dem ersten Teil, also wir selber als KI-Nutzer, man soll ja eigentlich ein Podcast zum offenen Überraschenden Antworten geben.

00:47:16: Überraschend wäre jetzt, wenn ich sage, ja, nee KI machen wir alle nicht.

00:47:19: Wir glauben nicht dran.

00:47:20: Wie gesagt, es funktioniert einfach nicht.

00:47:22: Aber es ist natürlich wirklich genau das Gegenteil der Fall.

00:47:25: Also bei uns arbeitet jeder jeden Tag an und mit KI, was das Ganze natürlich super spannend macht.

00:47:31: Wenn du so willst, immer so ein bisschen, der Kastomer-Zero auch für unsere eigenen Produkte, also auch noch so in Test-Phasen, in den Rollout-Phasen.

00:47:39: Das heißt, wir können eine ganze Menge schon vorher machen.

00:47:43: Deswegen sammelt gerade jeder von uns auch schon seit einer ganzen Weile lauter Co-Pilot-Erfahrung, Bout-Agence.

00:47:49: Also das ist insofern total spannend und drumherum also um den ganzen Rollout allein bei uns.

00:47:55: Und die Nutzung von KI bei uns gibt es natürlich eine ganze Reihe Prozesse, Schulungen, auch ein bisschen je nach Rolle.

00:48:03: Ich bin ja hier in Deutschland einer der zuständigen Ansprechpartnerinnen quasi auch für responsible AI.

00:48:08: Da gab es ja noch mal so Sonderschulungen.

00:48:10: Also da sieht man schon, dass sich da quasi eine eigene Governance-Struktur auch schon drumherum bildet.

00:48:16: Und dann klar, so wie du sagst, aus Providersicht natürlich noch mal viel größer gedacht für alle möglichen Anwendungsfälle, die wir mit KI halt sehen.

00:48:24: Weil KI ist letztlich nichts anderes als die nächste General Purpose Technology.

00:48:28: Das heißt eine für alles, ein bisschen wie Elektrizität, Buchdruck, also vergleichbar.

00:48:35: Und deswegen sind die Einsatzfelder natürlich riesengroß.

00:48:41: Was so unsere Governance-Struktur dahinter angeht, ist natürlich irgendwie das gute.

00:48:45: Wir reden jetzt natürlich seit Monaten vor allem immer über den AI-Akt.

00:48:49: Und wir arbeiten ja aber nicht an und mit KI erst, wenn der AI-Akt irgendwann zu geltend beginnt.

00:48:55: Wir haben die Systeme jetzt und seit vielen Jahren gibt es schon im Einsatz.

00:48:58: Und verkaufen natürlich auch die entsprechenden Produkte und Services.

00:49:01: Und haben deswegen in den vergangenen Jahren, also auch bevor es die Regulierung gab,

00:49:05: ein relativ umfangreiches Governance-System da gebaut, das nennt sich bei uns Responsible AI.

00:49:11: Mit einer eigenen, sag ich mal, Departmentelstruktur, kannst du so sagen.

00:49:16: Es gibt richtig so ein Office of Responsible AI.

00:49:19: Da sind mittlerweile 400 Personen beschäftigt, ein Drittel in Vollzeit.

00:49:25: Die anderen schon auch so, dass das Responsible AI quasi ein ihrer Kennaufgaben ist.

00:49:32: Und dann gibt es noch so lauter Personen herum.

00:49:35: Also wie mich jetzt, also quasi lokal, so Ansprechpartner.

00:49:39: Und dann innerhalb dieser Office-Struktur gibt es dann eine Abteilung,

00:49:46: die sich vor allem mit so ethischen Fragestiftungen,

00:49:48: eine, die sich vor allem aufs Engineering konzentriert.

00:49:50: Also da sieht man schon so ein bisschen so eine Dreiteilung.

00:49:53: Und da werden, sag ich mal, die ganzen Richtlinien erarbeitet.

00:49:57: Da werden die ganzen Engineering-Strukturen aufgesetzt.

00:49:59: Und vor allem eben auch sichergestellt, dass wir so transparent arbeiten, wie wir können.

00:50:06: Also auch Richtung, ja, aber auch nach außen.

00:50:09: Also es gibt seit mehreren Jahren auch schon den Responsible AI-Standard.

00:50:14: Und der ist seit einiger Zeit so quasi auch voll, voll öfter.

00:50:18: Also sowohl der Standard als auch die ganzen Tools, die da drunter hängen, weil der Standard

00:50:23: basiert auf unseren Sex-Responsible AI-Prinzipien und dann dann ist es eine Fairness, Privacy,

00:50:29: Inclusiveness, Sicherheit usw.

00:50:31: Und also allein so mit sechs Prinzipien kann jetzt wahrscheinlich so ein Netzprinzipien

00:50:36: haben.

00:50:37: Ja, genau, ist immer total nett, aber was heißt das jetzt genau?

00:50:39: Und deswegen liegen dann noch mal 17 Ziele darunter und darunter nochmal 90 Tools und

00:50:44: darunter nochmal 38 Governance Recommendations.

00:50:47: Das kann man sowohl als Kunde natürlich auch direkt benutzen, aber dadurch, dass diese

00:50:54: ganzen Ressourcen für alle öffentlich gestellt sind, kann da auch jeder sich daran orientieren,

00:50:58: wenn er möchte oder zumindest mal im Blick dran werfen, auch wenn er jetzt kein Microsoft-Produkt

00:51:02: im Einsatz hat.

00:51:03: Und das wäre natürlich schön, wenn das jeder macht.

00:51:05: Aber wir haben schon den Ansatz hier so transparent wie möglich, diese Reise zu beschreiben,

00:51:11: auf der man da ist, weil responsible AI und generell KI ist ja nichts, was man jetzt so

00:51:16: einmal macht und dann sagt man nächste Woche Dienstag auf wunderbar, jetzt bin ich fertig,

00:51:19: zack, nächstes Thema so ein bisschen wie bei Data Governance, damit ist man ja letztlich

00:51:23: auch nie so ganz fertig.

00:51:25: Insofern, ja, es ist ein iterativer Prozess, aber mit einer ganzen Reihe Materialien und

00:51:29: ich glaube, dieser transparente Ansatz hilft dann auch noch außen.

00:51:32: Wenn ihr jetzt, nehmen wir mal bei euch intern, gut, jetzt wird es nicht so sein, dass ihr

00:51:37: irgendjemanden Idee hat mit KI und dann klopft er jetzt bei euch an.

00:51:42: Aber generell ist es sozusagen so, dass alle, die mit KI Entwicklung zu tun haben, sich

00:51:46: an diese Prinzipien halten und wenn sie dann Fragen haben, ist was fair oder nicht, da kann

00:51:51: man unterschiedliche Ermeidungen sein, dann würde man sich sozusagen an diese Einheit

00:51:54: wenden und sagen, ist das in Ordnung, wenn wir so machen, sollten wir es lieber so machen

00:51:59: oder wie ich mir das vorstellen kann.

00:52:00: Genau, also du hast quasi immer den Standard und auch die Risk assessment als Ausgangspunkt

00:52:05: und wenn du dann auf Fälle stößt, wo du denkst, die sind besonders sensibel zum Beispiel,

00:52:11: also gerade so bei besonders sensitiven Use-Cases gibt es Eskalationsmöglichkeiten, so dass

00:52:16: du dann weitere Teams einbindest, um vor allem sicherzustellen, dass also die Balance am

00:52:22: Ende immer wieder hergestellt werden kann und alle Argumente einfließen, die halt bei der

00:52:26: Bewertung eine Rolle spielen.

00:52:27: Das ist ja, also ich sage mal, das Spannende an KI ist ja die Vielseitigkeit, aber das

00:52:31: ist auf der Risk Assessment Seite natürlich auch eine Herausforderung für alle.

00:52:35: Also ob jetzt wir als Juristen oder eben natürlich auch so die Kollegen aus dem Engineering.

00:52:39: Und das heißt ja letztlich, dass du immer wieder in Situationen oder auch Bewertungsfragen

00:52:47: hineinläufst, wo du dir nicht ganz sicher bist, ob du die abschließend bewerten kannst,

00:52:51: ob du alle Informationen hast und da spielt dann vor allem so diese Interdisziplinarität

00:52:57: der Teams echt eine große Rolle.

00:52:59: Das heißt, als ihr euch diese Ziele gegeben habt, habt ihr euch da schon an dem AI-Act

00:53:05: oder das, was ist damals drohte zu werden orientiert oder sind die quasi stehen die

00:53:10: daneben und ihr guckt jetzt, also wäre ja ein bisschen komisch, wenn es jetzt völlig

00:53:14: diametral entgegenstehen würde, aber vielleicht kann man ja da sozusagen an einer oder anderen

00:53:18: Stelle abweichen Entscheidungen haben.

00:53:20: Wie nah ist es dran an dem, was uns der AI-Act sagt?

00:53:23: Also unsere Responsible AI Struktur ist quasi älter als die ersten AI-Act Vorschläge.

00:53:31: Aber es ist so, wenn man sich das jetzt so nebeneinander anguckt, eigentlich immer eine

00:53:37: ähnliche Zielrichtung gehabt, nämlich Risiken bewertbar zu machen, besonders sensitive Cases

00:53:43: klassifizieren zu können, viel über Risikomitigierung nachzudenken und einfach so Maßnahmen-Mapping

00:53:48: zu ermöglichen.

00:53:49: Und der jetztige Responsible AI Struktur, der also zurzeit auch veröffentlicht ist, der

00:53:53: berücksichtigt schon den Vorschlag vom AI-Act, noch nicht eine vollständige, die finale Version,

00:54:00: der wir uns momentan natürlich selber im Aufbau der Kompliance-Strecke befinden.

00:54:05: Also wir sind jetzt natürlich mittendrin im Prozess, sowohl nach innen als auch nach

00:54:10: außen die Komplanen-Maßnahmen aufzusetzen.

00:54:13: Das hat auch, ich meine, das hat regulatorische Fragen, das hat natürlich auch Fragen rund

00:54:17: um Technik und Engineering und hat auch noch eine ganze Reihe politische Dimensionen, weil

00:54:22: ja unterhalb vom AI-Act noch so rund 60 Secondary Legislations kommen.

00:54:26: Also insofern ist auch das ja, also allein auf der regulatorischen Seite immer noch ein

00:54:31: Prozess, also nur weil wir den AI-Act haben, haben wir ja noch nicht das ganze Regelungswerk.

00:54:35: Und jetzt sage ich mal in dieser Komplanen-Aufbau-Phase gehen wir in einem gestaffelten Vorgang,

00:54:44: quasi an die Sache ran.

00:54:46: Also ich meine, der AI-Act selber hat ja auch diese gestaffelten Geltungsfristen und natürlich,

00:54:52: wie denke ich mal, andere auch konzentrieren wir uns im Moment auf die früheste Frist, das

00:54:55: ist ja Februar 25, also vor allem die ganzen verbotenen Systeme und Einsatzfelder und genau,

00:55:02: gehen jetzt vor allem daraus und also veröffentlichen das und natürlich auch entsprechend der Guidance.

00:55:08: Gut, das hast du ja schon gesagt, dass das insgesamt ein iterative Prozess ist und wir

00:55:12: jetzt nicht KI-Garmin ins Aufsetzen, Haken ran machen und wieder vor langen zehn Jahren,

00:55:16: das ist klar, dass es nicht funktioniert und dass ihr jetzt sozusagen danach schafft oder

00:55:21: wenn jetzt, ja, delegierte Verordnungen kommen oder whatever, auch nur der EZA irgendwas

00:55:32: sagt zur Personbezug, also den Datenschutz-Ausschuss, ja, dann wird es ja nicht nochmal ran gehen

00:55:38: müssen und danach ziehen sozusagen.

00:55:41: Das ist sozusagen wie euer Governance-Projekt aufsetzt und höre schon sozusagen, dass das

00:55:47: gar nicht so unterschiedlich ist zu dem oder das sozusagen schon eure Maßnahmen ist, eure

00:55:52: Kunden zu unterstützen dabei, weil du kannst dir vorstellen, ja, eines der, wenn wir hier

00:55:57: von AI-Projekt reden bei Mandanten, ist es halt ganz oft, wir wollen MSCorePilot einführen,

00:56:03: ja, und dürfen wir das eigentlich.

00:56:05: Was ist euer Ansatz, Kunden dabei jetzt sozusagen zu unterstützen?

00:56:11: Weil ich hab natürlich Interesse daran, dass daraus kommt, Risiko ist tragbar.

00:56:15: Ja, ich wollte mal gerade fragen, was ist denn eure Antwort, wenn die Mandanten nicht

00:56:19: sagen.

00:56:20: Ja, komm doch mal, was die Fragen.

00:56:21: Ja, das kommt doch an, was die Fragen ist auch schön.

00:56:23: Ich dachte, jetzt kommt das, es kommt doch an.

00:56:25: Also in der Tat, weil letztlich ist es ja sowieso so, und das ist ja auch der AI-Ex strukturiert,

00:56:29: dass du immer oder in vielen Konstellationen so entlang vom AI-Text der geteilte Verantwortlichkeiten

00:56:36: vorfindest.

00:56:37: Also ich finde gerade so im Bereich der Transparenz wird es relativ deutlich, in dem Moment wo

00:56:43: auf der Kundenseite, also bei denjenigen, die das KI-System einsetzen, bestimmte Transparenz-Anforderungen

00:56:50: gestellt werden und die das Innere des Modells zum Beispiel betreffen, müssen ja bestimmte

00:56:58: Informationen auch vom Provider geliefert werden.

00:57:01: Also ich finde, hier sieht man ganz schön, dass es immer auch geteilte Verantwortlichkeiten

00:57:04: sind.

00:57:05: Dann geht es natürlich auch viel darum, wie die Zweckbestimmung formuliert wird.

00:57:10: Also für welche Zwecke kann das KI-Tool, kann das KI-System eingesetzt werden?

00:57:15: Auch da findest du im Prinzip ja wie so eine Art dialogische Situation zwischen Provider

00:57:20: und Kunden vor.

00:57:22: Und das, was wir bisher, also vor allem so an Reports und rund um unseren Response-Beyer

00:57:28: Eistandard veröffentlicht haben, zeigt schon eine ganze Menge auf, woran man sich jetzt

00:57:33: schon orientieren kann.

00:57:35: Weil wir natürlich den Ansatz haben und deswegen machen wir es tatsächlich auch vollständig

00:57:39: öffentlich und nicht nur in Anführungszeichen unseren Kunden gegenüber hier so transparent

00:57:45: wie möglich auch für unsere Systeme zu sein.

00:57:48: KI hat am Ende des Tages auch immer eine ganze Menge mit Vertrauen zu tun und Vertrauen

00:57:56: stellt man unserer Meinung nach schon her, wenn man einfach auch erklärt, was man tut,

00:58:00: wenn man transparent darüber ist, was ein System leisten kann und was es auch nicht leisten

00:58:04: kann und vor allem auch sicherstellt, dass jeder in die Lage versetzt wird zu erkennen,

00:58:08: dass er sich zum Beispiel gerade mit einem KI-System befasst oder unterhält im untechnischen

00:58:14: Sinne.

00:58:15: Und genau, also insofern denke ich sind so diese Transparenzberichte ein ganz guter

00:58:20: Ausgangspunkt und nochmal, die KI-Complaints ist eben letztlich dieser gestaffelter Ansatz

00:58:27: und mit jeder weiteren Stufe wird es zusätzliche Bekanntmachung geben und auch jetzt ist es

00:58:33: ja schon so, also gerade unser Co-Pilot und zum Beispiel auch Azure OpenAI.

00:58:38: Also das System ist jetzt ja auch schon nach unserem Responsible AI Standard gebaut.

00:58:42: Insofern hat man da eine relativ umfangreiche Ressource, die man schon konsultieren kann,

00:58:47: um sich auch selber vorzubereiten.

00:58:48: Genau.

00:58:49: Weil ich verstehe, was du beschreibst.

00:58:51: Natürlich will man, wenn man hier ein Modell oder ein System quasi einkauft, die entsprechende

00:58:57: Information auch möglichst frühzeitig haben.

00:58:59: Genau, ja, ist mir ja darauf angewiesen, weil die Leute in den Unternehmen, deren Compliance-Leute

00:59:04: fragen, ob das jetzt eigentlich geht, da sind ja nicht nur die Datenschützer, dann dabei

00:59:08: ja vielleicht noch zum Roundup sozusagen.

00:59:13: Jetzt habt ihr eure Teams, euer großes Responsible AI Team mit sozusagen Almin in die einzelnen

00:59:20: Abteilungen, wenn ich es richtig verstanden habe.

00:59:22: Jetzt kann das jetzt nicht jedes Unternehmen haben, weil auch nicht jedes Unternehmen einfach

00:59:27: AI verkaufen möchte oder verkauft.

00:59:30: Hast du eine Meinung dazu, wie man das bei einem Mittelständler macht, die jetzt irgendwie

00:59:36: KI dran glaubendes auch machen wollen?

00:59:40: Aber wie, was sagt man denen, wenn die fragen, wie setzen wir so ein Covenant-Projekt auf?

00:59:47: Also da spielen sicherlich immer verschiedene Faktoren eine Rolle.

00:59:51: Größe des Unternehmens kann einer sein.

00:59:54: Wobei auch da der Ansatz vom AI auf Anwendungsfelder und vor allem auch auf Risiken zu gucken,

01:00:02: wahrscheinlich ein guter Anknüpfungspunkt ist.

01:00:05: Und also je mehr Abteilungen potentiell in meine KI-Projekte einbezogen sind, um so mehr

01:00:13: Beteiligung und auch Feedback ist sicherlich sinnvoll einzuziehen.

01:00:18: Ich finde auch immer, man sieht das ein bisschen an der Struktur, zum Beispiel vom Artikel

01:00:25: 4, wo es um die KI-Kompetenz geht.

01:00:27: Weil der geht ja davon aus, dass du als Betreiber oder Anbieter von KI-System deine Mitarbeitenden

01:00:34: nach besten Kräften mit KI-Kompetenz ausstatten sollst.

01:00:38: Dafür sorgen soll es, dass sie also Kompetenz in die KI-Systeme zu bedienen.

01:00:42: Und der Artikel macht tatsächlich eine Unterscheidung, wie sich derjenige mit dem KI-System befasst

01:00:48: und natürlich macht es eine Unterscheidung, ob ich das System selber designe, ob ich

01:00:52: beim Model Training helfe oder ob ich ausschließlich die Applikation benutze.

01:00:58: Und ich glaube, wenn dieser Ansatz die Governance-Struktur mit beeinflusst, ist das sicherlich eine

01:01:06: ganz gute Richtschuhe.

01:01:08: Am Ende des Tages ist es, glaube ich, bei vielen eine Ressourcenfrage und mein Eindruck ist

01:01:15: das mindestens genauso wichtig wie die KI-Gavonance-Frage eigentlich die Frage ist, wie gut bin ich

01:01:20: als Unternehmen rund um Data-Gavonance aufgestellt?

01:01:23: Weil ich meine, ich kann das beste und schönste Microsoft-KI-Produkt oder den KI-Service kaufen,

01:01:28: wenn die Data-Gavonance, sag ich mal, unstrukturiert ist oder nicht so richtig holistisch im Unternehmen

01:01:35: hinterlegt ist, wird die KI ohnehin nicht das leisten können, was sie eigentlich leisten

01:01:39: könnte?

01:01:40: Ich bin im Prinzip auch ein Verlust so an Effizienz und an Produktivität und was ich sonst noch

01:01:45: damit erreichen kann.

01:01:46: Und dann stellen sich immer noch aufweise vor Gefragen.

01:01:50: Also deswegen ist wahrscheinlich so bei der Frage, setze ich jetzt und wie setze ich die

01:01:54: KI-Gavonance auf mindestens mitzudenken, wie habe ich denn eigentlich meine Data-Gavonance

01:01:58: aufgesetzt, wie habe ich denn da alle bezogen?

01:02:00: Und wenn ich da feststehe, dass der Klaus macht aus der IT, dann ist es möglicherweise ein

01:02:05: Ansatz, dass es fast zu früh über KI-Gavonance zu sprechen, sondern dann sollte man sich erst

01:02:08: mal Gedanken machen, was wollen wir eigentlich machen und über welche Daten wollen wir

01:02:11: denn die KI rüberjagen.

01:02:12: Ja, absolut.

01:02:13: Und was sind das für Daten?

01:02:14: Das ist prima.

01:02:15: Rebecca, ich würde jetzt gerne noch eine Weile weiter reden, wir hätten bestimmt noch

01:02:21: noch viele Themen, aber du musst jetzt gleich deinen Vortrag halten.

01:02:25: Das ist KI-Gavonance, dann wollen wir noch ein kleines Panel haben und uns auch, genau,

01:02:31: zu Artikel 4 auch nochmal austauschen.

01:02:33: Vielen Dank, dass du jetzt auch bei mir warst kurz vorher und viel Spaß bei euch.

01:02:37: Vielen Dank dir.

01:02:39: An unserem heutigen KI-Tag habe ich inzwischen deinen Nachmittag erreicht und bei mir sitzt

01:02:45: der Fabio Wilia von Merantics Momentum.

01:02:48: Wenn wir gleich nochmal ein bisschen darüber sprechen, was ihr eigentlich macht.

01:02:52: Erst mal Hallo Fabio, schön, dass du da bist.

01:02:54: Hallo, vielen Dank für die Einladung.

01:02:55: Genau, du bist kein Jurist, auch wenn man das deinem Vortrag gerade nicht angemerkt hat

01:02:59: und es soll ein Lob sein.

01:03:01: Ja, du hast ein Hund gestichtet, wenn ich es richtig verstanden habe, studiert.

01:03:05: Vor vielen, vielen Jahren.

01:03:07: In Leipzig, Freiburg, in Polen und China war es auch noch zwischendurch.

01:03:10: Und heilig schon gesagt, bis jetzt leitet es die Strategieabteilung bei Merantics Momentum,

01:03:17: die AI Strategy-Abteilung und ihr beratet bei der Integration von KI-Lösungen, bei KI-Anwendungen.

01:03:25: Und ja, heute dein Thema war schlanke Governance-Prozesseprojekte.

01:03:32: Wir haben ja schon die Rebecca Weiß von Microsoft gehört, wo die Projekte natürlich,

01:03:37: jedenfalls wenn sie in Haus sind, bei denen ein bisschen groß ist, größer sind.

01:03:40: Das kann und sollte sich nicht jedes Unternehmen leisten.

01:03:42: Deshalb umso besser, dass wir heute mal von dir hören, wie man das vielleicht auch aufsetzen kann

01:03:48: und was da so die Themen sind.

01:03:50: Bevor wir damit einsteigen, vielleicht sagst du noch drei Sätze zu Merantics für die Leute, die wir euch noch nicht kennen.

01:03:58: Ja, sehr gerne.

01:04:00: Merantics ist eines der größten KI-Eukosysteme in Europa.

01:04:04: Wir sitzen hier in Berlin, als erstmal in Kubatwoch von KI Produkt Start-ups und auch als Investor bekannt.

01:04:13: Und ich komme von Merantics Momentum, also einer Tochterfirma, die sich vor allem eigentlich die Aufgabe verschrieben hat,

01:04:20: KI in die Breite der Wirtschaft zu bringen.

01:04:24: Das heißt auch, die wirklich an die einzelnen Gegebenheiten in der einzelnen Branche,

01:04:29: auf dem Shopfloor, im Gewerbe oder in der Dienstleistung anzupassen und da wirklich einen Mehrwert zu schaffen.

01:04:35: Und das ist, sag ich mal so, die schwierigste Aufgabe, die man sich raussuchen kann, wirklich KI einsetzen zu wollen.

01:04:44: Und das machen wir seit fünf Jahren erfolgreich, würde ich sagen, aber es ist auf jeden Fall eine Challenge.

01:04:51: Und in dem Zuge-Beschäftigungsfil damit, wie man eigentlich ein richtiges KI-System aufsetzt,

01:04:56: auch Leute überzeugt, da rein zu investieren.

01:04:59: Und jetzt eben jüngst auch die Frage, wie ich gleichzeitig die Governance aufsetzen kann,

01:05:03: damit das System einem nicht um die Ohren fliegt, aber auch die Leute in der Geschäftsführung oder diejenigen, die das abnicken müssen,

01:05:10: nicht sagen, oh je, das ist mir zu kostspielig oder zu kompliziert, das mache ich lieber nicht.

01:05:14: Da versuchen wir die richtigen Antworten zu finden.

01:05:17: Also es ist ja absoluter Zielkonflikt, einerseits, wenn man das Projekt zum Fliegen bringen,

01:05:22: andererseits, wenn man die Governance dazu haben und gleichzeitig soll die Governance das Projekt nicht totmachen,

01:05:27: aber ausreichend sein, um jedenfalls mal mit den grundlegenden Komplienzvorgaben sich da zu befassen.

01:05:36: Im Herantiks vielleicht noch Anmerkung von mir.

01:05:38: Ich habe im letzten Jahr auch bei unserem KI-Tag zwei Folgen aufgenommen und da war der Victor von Essen da,

01:05:42: so ein bisschen euer Legal Arm auf einem Herantiksgründung, den ich richtig im Kopf habe,

01:05:47: der wäre auch spannend gewesen, mit ihm nochmal zu sprechen und seine Ideen zu seinem juristischen KI-Start-Up vom letzten Jahr

01:05:57: wahrscheinlich ziemlich von dem, was er jetzt macht, von rein vertikal hin zu dann eben doch der horizontalen Juror Engine

01:06:03: und eine Beobachtung, die wir alle machen, dass das schon nochmal schneller geht, zum Teil jedenfalls

01:06:09: und man gute Ergebnisse erzielt, als wir das vielleicht noch vor einem Jahr gedacht haben,

01:06:13: bei eben nicht General Purpose AI, sondern eben spezifischen Anwendungen für einzelne Cases.

01:06:19: Jetzt wäre das ja sozusagen ein Beispiel, aber du hast gerade auch schon eins in deiner Präsentation gehabt,

01:06:25: für KI Governance vielleicht, ja, was ist euer Ansatz, wie geht es sozusagen an so ein Projekt ran,

01:06:33: wobei das ja, wenn ich das nicht verstehe, bei euch ein Zeitaspekt ist.

01:06:38: Eigentlich geht es ja bei euch um die Implementierung, eine vernünftige und wie man,

01:06:42: und jetzt sozusagen deiner Erfahrung, wie man da jetzt das Governance-Time mitmacht.

01:06:46: Ja, absolut. Du hast erwähnt, es ist eigentlich ein Gegensatz, also klassischerweise aus der Technologiewelt

01:06:53: und gerade dann sozusagen das Modenz von Modenz nimmt, der in der KI-Welt möchte man schnell was hacky auf die Beine stellen,

01:07:00: gucken, ist die Hypothese machbar, technisch und kriegt man dann auch ein bisschen Kässterm um herum,

01:07:05: sozusagen dann ein produktives System voraus zu planen, ein bisschen größer aufzubauen

01:07:09: und auch da iterativ, also agil zu arbeiten, in der Regel eher was kaputt machen zu wollen,

01:07:14: um daran zu lernen, als von vorn heraus sozusagen sich alle Aspekte und Fragen zu stellen,

01:07:20: die man auf dem Weg dahin beantworten kann.

01:07:23: Und dieser Ansatz eigentlich sehr schnell und auch iterativ zu arbeiten, ja, könnte man sagen,

01:07:28: beißt sich mit dem von oben aufgestülpten Governance-Auflagen, die man also dann erfüllen muss,

01:07:34: und sich vorher eigentlich schon gewahr werden muss, was dieses System im Endeffekt leisten soll

01:07:40: oder vor allem auch nicht leisten soll und was dann dafür für Konsequenzen rausfolgen.

01:07:46: Und mein Ansatz ist, als jemand der Unternehmen, Organisation und die Verwaltung sowohl berät,

01:07:52: wie man mit KI anfangen kann oder KI sinnvoll und auch machbar und für einen Mehrwert in die Organisation einbringen kann,

01:08:00: aber auch natürlich sehe, wie unsere Entwicklerinnen und Entwickler arbeiten, ist mein Wunsch eigentlich, das zusammenzuführen.

01:08:07: Das heißt, ich habe mir angeschaut, was eigentlich die KI-Fordung, die AI von uns fordert, als Entwickler

01:08:14: und auch als jemand, der als Provider in der System weitergibt an den Endnutzer

01:08:19: und mir dazu klar machen zu wollen, wie viel erfüllen wir eigentlich von diesen Auflagen heute schon,

01:08:28: indem wir sauber arbeiten, wenn wir zum Beispiel über die Designserationen, Tückungsstufen von KI-Systemen dokumentieren.

01:08:36: Und wenn wir das noch nicht so tun, wie wir das tun sollen, wie können wir das zusammenbringen.

01:08:41: Und das kann man eigentlich dann relativ gut überlappen, indem man sagt,

01:08:45: wenn ich ein neues KI-Projekt aufbauen, ein neues System aufbauen möchte, mache ich mir Gedanken, was soll das tun,

01:08:50: welches Problem soll das bewerten, was kriege ich dafür ein Mehrwert raus,

01:08:53: wie kann ich die Nutzung besser eingrenzen, damit die besser wird und auch die Nutzer, Schulen zum Beispiel, das Tool richtig einzusetzen.

01:09:01: Bis hin zur Entwicklung, dann da die Stufen einzustellen, wie kann ich das performanter machen, technisch besser machen, feiner schleifen,

01:09:08: weil ich ein anderes Modell benutzen, weil das Performance leistet und dann in den Betrieb zu bringen.

01:09:14: Und wenn ich diese vielen verschiedenen Schritte übertrage,

01:09:17: in eigentlich die Auflagen gute Governance herzustellen, würde ich sagen, genauso machen wir uns Gedanken über den Intent, den Purpose von den Systemen vorher,

01:09:25: im Sinne der KI-Fordnungen, machen wir uns Gedanken, wie wollen wir dann das Design bauen, um zum Beispiel Hochrisiko ja oder nein zu sagen.

01:09:33: Wenn wir das Risiko mitigieren können, durch technische Faktoren ist das toll, aber auch durch archäktonische oder Faktoren des Purpose in dem System.

01:09:41: Also, den Nutzen vielleicht ein bisschen einzuschränken, dadurch eine Risikostufe geringer zu werden.

01:09:45: Und so geht das dann weiter ein bisschen der Entwicklung.

01:09:48: Ich sozusagen die Dokumentation aufbaue und im Betrieb schaue, dass ich vom Controlling her auch die komplizienten Arfe vorherstelle.

01:09:55: Vielleicht da kurz eingehakt, jetzt AI-Akt, verschiedene Risikostufen.

01:10:00: Ihr kennt alle diese Pyramide und es macht eben, ob man das gut findet oder nicht,

01:10:04: aber es macht eben einen riesigen Unterschied, ob man die Schwelle zum Hochrisikosystem überschritten hat oder nicht.

01:10:09: Wenn nein, ein bisschen Transparenzanforderung, Dokumentationspflicht natürlich, ja, man muss darauf achten, dass es auch so bleibt, dass es im low risk System ist.

01:10:19: Aber und dein Ansatz ist sozusagen zu erkennen, hey, wir laufen hier in die Gefahr, ein Hochrisikosystem zu sein, aber das muss ja gar nicht sein.

01:10:30: Wenn wir dieses Oräane ändern, zum Beispiel keine endgültigen Entscheidungen treffen lassen oder ja, man macht es mal auch sonst, man treffen kann, um sozusagen aus einem high risken low risk System zu machen.

01:10:43: Ja, das würde ich sagen. Ich möchte nicht sagen, dass man jedes high risk System sozusagen in den low risk umsetzen muss.

01:10:49: Kann man schon, denn er hat es halt nur nicht den wünschenden Effekt aus.

01:10:51: Exakt, exakt. Was man erreichen muss, sozusagen eine Erklarheit zu haben, wie gehe ich mit einem bestimmten KI-Anmeldungsfall um.

01:10:59: Erst mal überpänkt davon, welche Risikogruppe das betreffen wird.

01:11:04: Also, einen Prozess aufzubauen mit bestimmten Exklamationsstufen und vielleicht Expertinnen und Experten, die man in der Organisation aufbaut, die dann auch eingeschaltet werden, um eine Entscheidung zu treffen.

01:11:14: Und auch wiederum Feedback geben an die Entwickler oder an das Procurement, den Dienstleister besser zu beauftragen.

01:11:21: Das muss also sozusagen aufgebaut werden, aber gleichzeitig muss dieses System adaptiv sein.

01:11:27: Also beispielsweise adaptiv auf die eigene Risikorversität.

01:11:32: Also bin ich jemand, der eher high risk, high reward gehen möchte und ein tolles System einführen möchte, wo ich mehr Compliance herstellen möchte.

01:11:40: Aber mich vielleicht ein bisschen weniger, ich glaube schon, das kriegen wir hin.

01:11:43: Oder bin ich eher eine Geschäftsführerin, die vielleicht eher da Risiko eindämmen möchte. Beide Wege sind legitime.

01:11:51: Und gleichzeitig sind wir natürlich auch daran interessiert, die Governance an die Befindlichkeiten der Organisation anzupassen.

01:12:02: Also reden wir über einen Enterprise, da kann man da viel, viel, viel, viel aufbauen.

01:12:06: Und da gibt es ja auch die Liegeldepartementskriptowieso schon. Reden wir mit einem KMU oder einem kleineren Konzern.

01:12:13: Dann müssen wir schauen, wie kümmern wir das dann auch so aufbauen, dass der Kunde oder die Organisation davon nicht überrollt wird.

01:12:19: Aber das ist nach wie vor sinnvoll und machbar für den Kunden aufzubauen ist.

01:12:24: Vielleicht mal ein Beispiel, nehmen wir mal so einen kleineren Kunden, wie uns, 80 Leute, wir wollen jetzt hier KI nutzen, nutzen wir schon, verschiedentlich.

01:12:34: Ja, wir haben auch Vitorio, der vorhin vorgetragen ist, unser AI-Officer.

01:12:39: Aber jetzt beschäftigen wir uns einfach als Samaritarzarbeiter natürlich sehr viel damit.

01:12:44: Wir haben ein bisschen den Anrück davon, wir beraten ja selber, was KI-Garvernance angeht.

01:12:48: Was würdest du da sagen, wie hängt man so was auf?

01:12:53: Und zwar gibt es ja Gerät auch in unseren Diskussionen, um ein bisschen durcheinander nach dem Ort,

01:13:00: man hat ein Projekt, das man jetzt gerne angehen möchte und dafür die Governance-Struktur schaffen.

01:13:04: Das ist das, was du jetzt gesagt hast, versus wir haben ein Governance-System, wo jedes neue KI-Anwendung sich irgendwie einordnet.

01:13:12: Nimm mal letztes, wie würde man das in so einem kleineren Unternehmen angehen, aufhängen?

01:13:18: Was würdest du da sagen?

01:13:20: Also ich würde sagen, im allerersten Schritt eigentlich in der Iteration nach guten Anlungsfällen für Künstlitegenz oder Machine Learning,

01:13:28: würde ich mich nicht sozusagen keine Scheuklappen aufsetzen.

01:13:31: Das heißt, wenn ich im Brainstorming bin, klar, je mehr Fahre man sammelt, nimmt man auch die Compliance-Fragen schon mit in die erste Iteration.

01:13:38: Aber ich würde erst mal mehr Gedanken machen, wo drückt der Schuh im allerersten Sinne,

01:13:42: oder wo kann ich mir noch Probleme, die ich heute noch gar nicht analog lösen kann, herbeiziehen, um Überlösungen nachzudenken.

01:13:49: Um auch klar sich nicht verspären, interessante Lösungen anzusprechen, die man vielleicht aus Compliance,

01:13:56: aber könnte auch aus technischer Machbarkeit oder sowas, nicht erst mal ganz zutreffend sein mögen.

01:14:03: Und wenn man das geschafft hat, kann man evaluieren, priorisieren nach dem Business Case,

01:14:08: was kann ich mir dafür in Kosten nutzen und Mehrwertrechnung machen, von der technischen Machbarkeit und eben dann auch von der Compliance-Sicht.

01:14:15: Also sozusagen mit Experten und Experten, wie man sich einkaufen kann oder in Haus bildet, so eine Einschätzung zu treffen,

01:14:21: um dann eigentlich den richtigen Anwendungsfall zu wählen, den man auch dann unter erst mal einer groben Betrachtung der Compliance-Auflagen betrachtet hat.

01:14:31: Und wenn man sich dafür entscheidet, sollte man schon vor sich Gedanken gemacht haben,

01:14:36: wer sind die Personen in der Organisation, die dann zum Beispiel angesprochen werden, aber auch entscheiden müssen.

01:14:42: Und wenn sie das nicht können, externe Hilfe zum Beispiel sich suchen, ja oder nein zu sagen oder ja vielleicht zu sagen,

01:14:49: wenn man das oder das anpasst, dann möchten wir diesen Weg gehen, auch mit einem Anwendungsfall, der zum Beispiel wahrscheinlich ein Hochrisikosystem ist.

01:14:57: Und ja mit so einer Autorität sozusagen intern oder vielleicht auch externe gekauft, dann die Entwicklungsarbeit zu beeinflussen

01:15:04: und auch zu kontrollieren, dass das in die richtige Richtung geht, die man da vorhin auch den Rahmen gesteckt hat.

01:15:10: Das ist der Aufbau und danach können die gleichen Personen oder jemand anderes, sich dann in der Kontrolle auch des Betriebes schauen,

01:15:16: dass die Lösung so funktioniert, wie man das in dem Konzept sich auch darauf sich geeinigt hat.

01:15:22: Also ich habe jetzt heute hier am Rande der, unseres KI-Tag ist da schon mit den anderen gesprochen.

01:15:28: Ja und das ist ja schon immer, oder es kann sein ein bisschen ein Moloch, je größer die Einheit, umso schwieriger.

01:15:34: Ja also ich bin jetzt hier der KI-Beauftragte, hat mir einer Teilnehmer erzählt, das hat aber jetzt aber eineinhalb Jahre gedauert

01:15:40: und so richtig haben wir bis jetzt auch noch nichts geschafft, weil wir erstmal dabei waren, jetzt die Leute zu bestimmen

01:15:49: und das wollten irgendwie zwei werden und zwei wollten, dass es das gar nicht gibt.

01:15:52: Und ja, da hatten da irgendwelche Labels sich schon ausgedacht, dass sie komplett ohne KI auskommen, weil das alles Toffizzeug sei

01:16:00: und da kommt es ins Spiel, was du gerade schon gesagt hast sozusagen, helfen dabei, die richtige Ansprechpunkte zu finden

01:16:07: und die Leute auch zu überzeugen, das ist ja auch noch ein, jenseits der reinen Governance, ein wichtiger Punkt.

01:16:11: Ja absolut, also viele Beratungsprojekte, die wir heute anfangen, eigentlich seit den letzten so zwei Jahren, als seit dem KI durch GPT,

01:16:19: aber auch andere Phänomene, halt einfach in der Presse, in allen Enden und Enden, auf eine Reinprassel zum guten und zum schlechten.

01:16:26: Viele Projekte starten heute eigentlich eher mit der Frage, es gibt vielleicht eine Person, ob jetzt Head of IT oder vielleicht auch der CFO,

01:16:35: der sagt, ich würde gerne meinen Board, meine Geschäftsflugung, davon überzeugen, dass das eine gute Investition ist oder zumindest mal, dass wir damit beschäftigen sollten.

01:16:44: Und da ist dann die Frage zum Beispiel an uns gestellt, könnt ihr mein eigenes Unternehmen und meine eigene Organisation überzeugen,

01:16:51: mit guten Andungsfällen aus eurer Branche, vielleicht sogar ein bisschen zugeschön auf den einzelnen Kunden,

01:16:57: aber natürlich auch auf die Fragen und Bedenken und Skepsisse der einzelnen anderen Stakeholder einzugehen.

01:17:04: Und das ist eine sehr interessante Aufgabe, weil man natürlich nicht nur durch die technische Machbarkeit punkten kann,

01:17:10: sondern vor allem auch die Sorgen einzuholen.

01:17:15: Und wenn wir das dann schaffen, dann können wir den Bein von ganz oben heraus generieren, was in der Regel in unserer Erfahrung natürlich der wesentliche Treiber ist,

01:17:25: wie wirklich eine Transformation oder zumindest eine Adoption, eine Integration von KI in kleiner oder großem Unternehmen.

01:17:31: Ist übrigens auch ein bisschen meine Beobachtung.

01:17:33: Ich würde mal sagen, ein Viertel der KI-Projekte, die wir hier haben, sind Digitalisierungprojekte.

01:17:40: Da ist dann vielleicht irgendwo auch KI mit drin, aber eigentlich haben die ihre Prozesse das erste Mal seit Jahren angefasst

01:17:46: und erkannt, dass sie es wohl nicht machen sollten, ohne den KI-Aspekt mitzudenken.

01:17:51: Und das ist dann meistens ein oder zwei Treiberinnen in den Unternehmen, die dann da keine Arbeit leisten müssen.

01:17:58: Und immer anlaufen gegen dem, naja, das haben wir bis jetzt immer so gemacht und hat doch gut funktioniert.

01:18:03: Das ist sozusagen der Switch.

01:18:05: Ja, sehr gut.

01:18:08: Vielleicht, ich habe es jetzt schon zweimal gesagt, was ist und vielleicht so ein bisschen in Richtung Abschluss, was ist das Schlange an dem Prozess?

01:18:17: Also wie kann man schaffen, dass es, ja, du hast irgendwo gesagt, vorhin, das muss alles nicht mega komplex sein.

01:18:24: Wie schafft man es so ein Projekt händelbar zu halten und die, ja, das eben nicht passiert, was wir gerade schon zweimal besprochen hatten,

01:18:32: dass die Compliance einerdrückt oder eben so aufwendig wird, dass der Case dann gar keiner mehr ist?

01:18:38: Ja, also ich will es nicht analysieren.

01:18:41: Natürlich ist Governance und Compliance eine große Aufgabe und hat auch sehr vieler Spezifikationen zu erfüllen.

01:18:48: Aber mein Plädoyer ist und mein Wunsch ist, dass die Compliance-Auflagen oder die vermeintlich sozusagen ponzellen Auflagen,

01:18:58: die einem in der Presse oder noch schlimmer auf Social Media suggeriert werden, nicht unbedingt das sind, was man im Endeffilm muss.

01:19:05: Das heißt, dass das eigentlich nicht noch zu einem Investitionshindernis wird.

01:19:08: Wenn man sich über die Frage, wollen wir hier mit KI was anfangen oder nicht, da nochmal draufbrückt.

01:19:15: Und da würde ich den Anarzt fahren, vor allem unsere Kunden und Positelinnen Kunden sehr früh mitzunehmen

01:19:23: und das auch sehr gut zu erklären, was man erwarten muss und was man erwarten kann

01:19:30: und wo wir uns auch nicht sicher sind, um dann auch klar die Abwirkung zu schaffen.

01:19:34: Weil sowohl in der KI-Entwicklung, die wir normalerweise im Weg,

01:19:38: wir sind uns selten 100% sicher, dass wir dieses Problem wirklich lösen können, auch wenn wir das vielleicht felsenfest so verkaufen.

01:19:47: Und genauso ist das bei der Governance.

01:19:50: Wir haben immer noch sehr viele Stellschrauben, ein KI-System, die eine oder andere Richtung zu drehen

01:19:55: und dann mehr oder weniger Compliance-Auflagen herzustellen, immer im Vergleich, was kriegt man dabei raus aus dem System.

01:20:04: Und das ist unsere, sozusagen persönliche, große Aufgabe, aber Herr Steffert treten,

01:20:10: die gleiche Aufgabe würde sich auch jedes Unternehmen stellen, wenn sie abwägen wollen, da rein zu investieren oder nicht.

01:20:16: Von daher, Schlank heißt immer an die tatsächlichen Probleme, der Kunden orientiert.

01:20:24: Viele, die allermeisten, werden gar kein Hochrisikosystem brauchen oder wollen,

01:20:30: vielleicht wollen sie es, aber wir können erklären, dass sie es nicht brauchen.

01:20:32: Dann ist das schon mal gelöst.

01:20:34: Und diejenigen, die sich wirklich entscheiden für Hochrisikosysteme, können wir dann so weit informieren und Frameworks in die Hand geben,

01:20:42: dass zwar mehr Arbeit bedeutet, aber auch die Qualität der Systeme steigt,

01:20:50: indem wir die besseren Fragen im Anfang stellen, was das eigentlich wirklich bewirken soll

01:20:55: und wie wir daraus nutzen sehen können, anzunehmen.

01:20:57: Da schließt sich jetzt ein bisschen der Kreis zu dem Talk von Maria Börner, die auch am Anfang dieses Podcasts schon gesagt hat,

01:21:06: dass ihr Ansatz nach dem Motto "Löst jetzt die KI jedes Problem?" und da ist halt auch die Antwort "Nein!"

01:21:14: Oder es ist eh nicht nötig, immer.

01:21:16: Und genau wie die KI nicht nötig ist, ist es nicht immer nötig, ein Hochrisikosystem zu haben.

01:21:20: Ich habe diese Woche zwei Minigutachten rausgeschickt zu der Frage, also die Ursprungsfrage,

01:21:28: weil es ist ein Hochrisikosystem und stellt sich raus nicht mehr AI.

01:21:31: Also nach der KI-Definition, die im AI ekt, dass man, und dann sinkt natürlich auch der Compliance auf,

01:21:40: natürlich muss das Datenflussrechtlich in Ordnung sein und aus allen anderen natürlich stellen sich Haftungsfragen trotzdem.

01:21:45: Das ist ja auch etwas, was wir diskutiert haben. Die KI-Compliance ist nicht gleich bedeutend mit KI-Verordnungskompliance,

01:21:52: aber es ändert natürlich schon ein bisschen das Herangehen.

01:21:57: Prima Fabio, vielen Dank.

01:21:59: Danke dir.

01:22:00: Das war ein guter, flotter Einblick darin und bestärkt mich auch in dem, was ich einfach sehe,

01:22:04: dass es nicht immer nur tut und was wir übrigens völlig parallel bei der DSGVO gesehen haben.

01:22:09: 100 Mann-Teams, DSGVO-Compliance-Versus, naja, wir gucken erst mal, zwei Banken und natürlich,

01:22:19: wir haben die völlig unterschiedlich investiert und auch die zweite Bank hat, weil ich weiß, noch kein Bußgeld bekommen.

01:22:25: Das kann man, wie du sagst, es ist ein bisschen Risk-App-Eptite-Frage, es ist ein bisschen Herangehensfrage,

01:22:30: wie man sich noch außen darstellen möchte und da gibt es wahrscheinlich keinen richtig unfalsch.

01:22:35: Ich würde nur applaudieren, man soll sich mit dem Thema auseinandersetzen, mit den Experten und Experten sprechen.

01:22:41: Ich glaube, die sitzen hier auf beiden Seiten des Tisches und sich dann ein eigenes Bild machen

01:22:46: und das dann auch differenziert abseits von Social Media und der Tageszeitung vielleicht bilden.

01:22:51: Das ist ein gutes Schlusswort, ja, es ist alles nicht ganz so schlimm, wie es uns hier oder da so gerät wird.

01:22:57: Prima, vielen Dank Fabio, auch für deinen Talk vorhin und unsere kleine Panel-Diskussion,

01:23:02: dass du jetzt auch noch hier bei mir vorbeigeschaut hast.

01:23:04: Sehr gerne, vielen Dank.

01:23:06: Bei mir fast am Ende unseres KI-Tages bei Herting-Rechtsanwälte am 28. November 2024

01:23:15: sitzt Marlene Schreiber, die auch den Abschluss unserer Folge 1, Folge 61, unseres kleinen Podcast macht.

01:23:24: Hallo Marlene.

01:23:25: Hallo Martin.

01:23:26: Wir haben, wie ihr wisst, mit der Rebecca Weiß gesprochen, wir haben mit Fabio Wilja gesprochen,

01:23:32: die jeweils ihre Sicht auf die Dinge zu KI Governance und ein bisschen zu KI-Kompetenz dargelegt haben.

01:23:38: Und jetzt wollen wir das nochmal so ein bisschen aus unserer praktischen Brille, ja, Jura-Brille beleuchten

01:23:44: und so wie wir das eben auch downstairs gemacht haben, die Frage an dich, Marlene,

01:23:51: wie sieht denn so dein, unser typisches KI Governance-Projekt aus, wenn man überhaupt von Typizität sprechen kann?

01:23:59: Ja, tatsächlich unterscheidet sich das natürlich je nach Unternehmen, haben die schon was, wie weit sind die, wie umfangreich und so weiter.

01:24:06: Aber tatsächlich kann man schon so ein gewisses Vorgehen rausarbeiten.

01:24:14: Und ehrlich gesagt, muss ich gerade ein bisschen schmunzeln, als du meintest, aus unserer justizischen Brille,

01:24:18: weil die ersten beiden Fragen, die wir da immer stellen, eigentlich ziemlich unjuristische sind.

01:24:23: Wir starten eigentlich immer mit der Frage, was habt ihr denn für KI-Systeme, für KI-Anwendung bei euch?

01:24:29: Denn in der Regel oder häufig kommen ja Mandanten zu uns mit einer Anwendung und wollen die geprüft haben

01:24:35: oder es kommt die Rechtsabteilung und sagt, wir müssen hier mal was machen oder Datenschutz.

01:24:41: Wir haben gelernt, dass es sehr hilfreich ist, wenn man tatsächlich mit den Mandanten gemeinsam mal im Unternehmen von Fachbereich zu Fachbereich tingelt

01:24:51: und mal fragt, was wendet ihr eigentlich an, weil überraschenderweise die Geschäftsleitung oder die Rechtsabteilung gar nicht alle KI-Tools,

01:24:59: alle KI-Systeme kennen.

01:25:00: Web-Shutton-KI.

01:25:01: Genau, Shutton-KI ist das Stichwort dazu.

01:25:04: Und wenn man das gemacht hat, wenn man weiß, was wird eigentlich im Unternehmen alles genutzt oder entwickelt, was haben die Leute vor,

01:25:11: ist die zweite Frage immer noch kein Juristische.

01:25:13: Sie ist nämlich viel mehr, braucht ihr das eigentlich?

01:25:16: Beziehungsweise wofür braucht ihr das eigentlich?

01:25:19: Also ein bisschen Bewusstsein dafür zu schaffen, dass KI nicht um das KI-Willens eingeführt und implementiert werden sollte,

01:25:27: sondern dass man sich bei allen Systemen und Anwendungen fragen sollte, brauchen wir das wirklich oder zu welchem Sekt brauchen wir das?

01:25:32: Und wenn wir die zwei Fragen erklärt haben, dann kann es endlich juristisch werden?

01:25:36: Hier vielleicht ist ja die Rückkopplung zu dem, was die Maria Berner eingangs dieser Folge gesagt hat und heute Morgen in der Kino gesagt hat,

01:25:42: dass es eben, ja, ihre Frage war ja, KI die Lösung für alle Probleme, dass es Probleme gibt, wo es keinen Sinn macht, KI drauf zu werfen

01:25:50: und dann vielleicht, bis auch aus der juristischer Sicht dann manchmal sinnvoll ist, das dann auch nicht zu tun.

01:25:55: Genau, oder es gibt gar kein Problem, das man dann mit KI lösen will.

01:25:59: Auch die Möglichkeit gibt es.

01:26:00: Aber wenn wir ein Problem haben, von dem wir glauben, das mit KI lösen zu können oder weniger wir, sondern mehr die Mandanten.

01:26:07: Fügst du, wenn ich hin und redest jetzt allen ihre KI-Lösungen?

01:26:09: Nein, nein, gar nicht. Ich setze mir einen Impuls.

01:26:13: Ich frage nur mal nach, ob darüber sich schon Gedanken gemacht wurde.

01:26:17: In der Regel ist das ja so und dann können die das auch gut erklären und dann macht es ja auch Sinn.

01:26:21: Aber so ein KI-Compliance-Projekt, das frisst Kapazitäten, das frisst Zeit und das sollte man dann eben auch nur machen,

01:26:28: wenn es nötig ist und bezogen auf die Tools, wo es nötig ist.

01:26:32: Genau, also wenn wir das gemacht haben, wenn wir also rausgefunden haben, ja, wir haben KI-Systeme,

01:26:37: wir wissen auch welche und wir wissen auch, warum wir die haben, dann macht es tatsächlich Sinn, sozusagen in die juristische Prüfung zu gehen,

01:26:44: nämlich einmal zu gucken, ist das denn wirklich auch KI im Sinne der KI-Verordnung oder das AI-Acts?

01:26:50: Welche Risikoklasse ist das?

01:26:52: Ja, haben wir hier nur Risiko, KI-Systeme oder nur ein geringeres Risiko, was sich das natürlich enorm auswirkt auf die Maßnahmen,

01:27:03: auf die Pflichten, die die Unternehmen haben, treuere Hörer und Hörer deines Podcasts, wissen das schon.

01:27:09: Ja, und wenn wir das gemacht haben, dann müssen wir uns natürlich auch noch angucken, welche Rolle hat das Unternehmen.

01:27:16: Also was für eine Art von Akteur ist das Unternehmen im Rahmen dieser Wertschöpfungskette der KI, sind die Betreiber,

01:27:24: sind die Anbieter, sind die Importeure und so weiter, weil es eben auch einen erheblichen Einfluss hat auf die Pflichten, die sie treffen.

01:27:31: Ich würde sagen, das ist so die große, grobe Vorprüfung, die man machen muss, um zu wissen, welche Pflichten bestehen denn eigentlich

01:27:39: und dann kann man sozusagen die zweite Phase gehen und diese Pflichten einfach mal aufschreiben, sich ein Katalog erstellen,

01:27:47: vielleicht auch schon so eine Art Vorsortierung machen, also was sind denn wirklich wichtige Pflichten?

01:27:52: Wir arbeiten da gerne mit so einem Ampelsystem, dass wir sagen, also das sind die Pflichten, da hängen zum Beispiel besonders hohe Bußgelder dran

01:27:58: oder das besonders leicht ersichtlich, ob die umgesetzt wurden, auch von außen von Bewerbern oder Aufsichtsbehörden.

01:28:04: Was sind vielleicht eher so orange Pflichten oder gelbe Pflichten? Man sagen kann, da haben wir ja auch schon vielleicht was oder da muss man vielleicht nochmal nachbessern

01:28:15: oder die sind vielleicht nicht ganz so wichtig und dann eben grüne, wo man sagt, ja super, haben wir schon.

01:28:20: Und das ist auch ein ganz, ganz wichtiger Punkt zu gucken, was haben wir denn schon?

01:28:23: Also viele Mannanten kommen zu uns und sind sehr, sehr skeptisch oder haben irgendwie so ein bisschen Ladehämmung da mit so einem Projekt zu starten,

01:28:33: weil sie das Gefühl haben, jetzt müssen wir irgendwie hier ganz neue Prozesse aus dem Boden stampfen und alles from scratch neu aufbauen.

01:28:39: So ist es ja nicht. Also viele Unternehmen, gerade die zum Beispiel im Datenschutz gut aufgestellt sind, die in Cyberfragen gut aufgestellt sind,

01:28:46: die haben natürlich schon Prozesse, die haben schon Maßnahmen ergriffen, wo man eben schauen kann, wenn man die so neben den Pflichtenkatalog legt und schaut,

01:28:55: was haben wir denn schon oder wo können wir zumindest drauf aufbauen, was können wir vielleicht noch ein bisschen erweitern.

01:29:00: Und dann bleibt am Ende vielleicht eine Liste übrig, die ist gar nicht mehr so lang und die ist auch gar nicht mehr so erschreckend,

01:29:05: wie das vielleicht am Anfang wirkt. Und damit kann man dann eben anfangen. Also dann kann man anfangen, die umzusetzen.

01:29:11: Da muss man vielleicht tatsächlich interne Kontosysteme einbauen oder Prozesse ergänzen, Kompetenzen schaffen.

01:29:19: Ganz wichtig sind natürlich die Dokumentationen, also all diese Prüfungen, die man davor nehmen muss, die muss man natürlich dokumentieren.

01:29:25: KI-Richtlinien sind in der Regel ein Thema, wenn wir kompliziert sein wollen, müssen wir wissen, an was wir uns denn halten

01:29:33: und gehen, falls es auch Verträge anzupassen oder zu ergänzen oder zu schließen.

01:29:37: Jetzt wird es doch relativ lang.

01:29:38: Ja, jetzt wird es doch relativ langsamer.

01:29:40: Es ist eigentlich eingestiegen bis zu mit alles in der Alleshalbzeit so wild und dann braucht überhaupt das KI-System, was er da nutzt.

01:29:46: Jetzt kommt es dann doch relativ viel.

01:29:49: Aber es betrifft ja vor allem Hochrisikosysteme. Da hat uns der Fabio schon gesagt, man kann auch mal gucken, ob vielleicht mit ein, zwei Handgriffen das dann doch kein Hochrisikosystem mehr ist.

01:30:01: Man kann das Risiko verringern, kann dann doch nicht so viele Pflichten treffen.

01:30:06: Aber alle Punkte, die du jetzt genannt hast, sind ja, also Verträge haben wir auch im Datenschutz geändert.

01:30:12: Ganz genau.

01:30:13: Ja, das ist etwas, was wir so machen müssen, Reviews machen und so wird es wahrscheinlich auch sein.

01:30:18: Ja, auf jeden Fall.

01:30:19: Also, ja, das hört sich erstmal viel an.

01:30:21: Gebe ich zu, es ist aber, glaube ich, wirklich, wirklich handelbar, weil wir tatsächlich erwarten, dass wir eben in der überwiegenden Anzahl von Fällen gar nicht in den Hochrisikobereich kommen.

01:30:32: Aber es gibt eben eine ganze Menge Grenzfälle, auch weil viele Bereiche einfach noch aussegungsbedürftig sind und wir noch nicht hundertprozentig wissen, wohin da die Reise geht.

01:30:40: Und das muss man einfach begründen können, warum man sich dann für die eine oder andere Seite entschieden hat.

01:30:45: Und das sollte man eben dann auch tun.

01:30:47: Und es ist schon in Ansätzen vergleichbar mit DSGVO-Prozessen, Projekten, die wir früher gemacht haben.

01:30:53: Aber wie gesagt, wir fangen eben nicht von ganz von vorne an.

01:30:56: Ja.

01:30:57: Jetzt hat so ein Seitenstrang aufgemacht, das Thema KI-Kompetenz schaffen.

01:31:02: Da gibt es eine Norm.

01:31:04: Richtig, Artikel 4.

01:31:06: Genau, im AI-Eck.

01:31:07: Was steht da drin und wie geht man das an?

01:31:12: Ja.

01:31:13: Da steht vor allem drin, dass Unternehmen, die KI-Systeme nutzen oder betreiben, Maßnahmen ergreifen müssen, um, ich glaube, das heißt, nach besten Kräften sicherzustellen,

01:31:24: dass ihre Mitarbeitenden oder andere Personen, die in ihrem Auftrag mit dem Betrieb oder eben der Nutzung von KI-Systemen fast sind, über ein ausreichendes Maß an KI-Kompetenz verfügen.

01:31:35: Nach besten Kräften aber ausreichend ist es nicht ausreichend, es ist nicht ausreichend, es ist früher eine 4 gewesen.

01:31:40: Ja, es ist eine mögliche Interpretation, aber es ist schon ein Punkt dran.

01:31:45: Also was soll nach besten Kräften sein, was ist ausreichend?

01:31:48: Ich sage mal, Fragen 3, Kollegen kriegen vier Antworten.

01:31:52: Man kann das schon so ein bisschen, also ja, es ist ein auslegungsbedürftiger Artikel, gar keine Frage.

01:31:58: Da werden wir auch noch viel darüber streiten oder diskutieren müssen.

01:32:02: Man kann aber so ein paar Sachen oder ein paar Anforderungen auch aus den Erwägungsgründen schon ziehen, was das umfassen soll.

01:32:09: Ja, also es eben, es muss ein technisches Know-how da sein, ein technisches Verständnis von den technischen Elementen, mit denen ich es dazu tun habe.

01:32:20: Und zwar von dem spezifischen KI-System, über das wir dann sprechen.

01:32:24: Ich muss Know-how haben zur korrekten Anwendung der KI-Systeme entlang der Wertschöpfungskette.

01:32:29: Und ich muss eben auch die rechtlichen Anforderungen zur Einhaltung und Durchsetzung des AI-Acts bei mir im Unternehmen haben.

01:32:37: Und jedenfalls bei Letzterem kommst du ins Spiel und schulst.

01:32:40: Komm ich ins Spiel, dafür braucht es auch nicht in jedem Fall Juristen, also für die Schulung dann vielleicht schon,

01:32:48: aber ich meine jetzt im Unternehmen, wenn ich bei mir im Unternehmen KI-Kompetenz schaffe,

01:32:51: aber ich muss eben bei den Mitarbeitenden, die da mit diesen Systemen zu tun haben, dafür sorgen,

01:32:57: dass sie in diesen drei Bereichen vernünftig aufgestellt sind, je nachdem wo sie eben eingesetzt sind und mit was für KI-Systeme ich das zu tun habe.

01:33:05: Sehr gut, da schließt sich noch so ein bisschen eine Frage an, die wir auch mit den anderen beiden diskutiert haben in unserem Panel gerade.

01:33:13: Nämlich, wo siedeln wir jetzt KI-Kompetenz an? Wie macht man das jetzt eigentlich im Unternehmen?

01:33:19: Jetzt hast du schon gesagt, ja also Nachtartikel 4, wenn ich es riech verstehe, Anbieter und Betreiber, das ist mal eine Gemeindepflicht.

01:33:27: Dann sagt man so ein bisschen, naja, alle, die da mit jetzt wirklich zu tun haben, sollten irgendwie literal genug sein.

01:33:33: Aber wie, was würdest du empfehlen oder kann man überhaupt was empfehlen, wer denn jetzt eigentlich den KI-Hut aufhaben soll?

01:33:41: Ja, also genau, es können und sollten ja nicht alle, also ich glaube alle, man sollte bei allen Mitarbeitenden da so eine gewisse Awareness schaffen

01:33:51: und muss dann gucken, wen müssen wir denn besonders schulen und da müssen wir dann natürlich auch immer schauen, das sagt der Artikel 4 auch.

01:33:58: Ja, es gibt keine One-Fits-All-Lösung, es gibt ja nicht die eine Schulung und dann kannst du dem Mitarbeitenden, den du da geschult hast, den Hut aussetzen und dann ist es fertig,

01:34:06: sondern wir müssen auch immer gucken, die Menschen, die mit dem KI-System zu tun haben, welche Vorkenntnisse oder Erfahrungen haben die schon,

01:34:12: welche Ausbildung haben die, was ist der Kontext, in dem das KI-System eingesetzt wird

01:34:17: und was sind auch die Personen oder Personengruppen, bei denen das KI-System eingesetzt wird.

01:34:22: Nichtsdestotrotz, wenn ich mir im Unternehmen angucke, wie baue ich diese KI-Kompetenz auf

01:34:27: und wie schaffe ich auch das Eng verbunden mit der Frage, wie schaffe ich Compliance im Unternehmen,

01:34:33: dann kann das durchaus Sinn machen da einer Person den Hut aufzusetzen, ob wir den jetzt KI beauftragten oder AI-Office oder wie auch immer nennen, ja, völlig egal.

01:34:42: Ein Kompetenzcenter.

01:34:44: Ja, auch das ist, KI-Manager, es gibt ganz viele, ich habe ganz viele tolle Begriffe schon gehört, die müssen zum Unternehmen passen und zu der Rolle.

01:34:53: Aber wichtig ist vielleicht schon noch, weil das Missverständnis gibt es jetzt schon gelegentlich, es gibt auch nach Artikel 4 keine Pflicht für Unternehmen,

01:35:01: einen KI-Beauftragten zu benennen, ja, also anders als wir das aus dem Datenschutz kennen, wo es unter bestimmten Voraussetzungen den Datenschutzbeauftragten geben muss, das gibt es hier nicht.

01:35:08: Unsere Erfahrung zeigt aber, wenn wir KI komplementieren wollen im Unternehmen, dann macht das Sinn da ein Team zu bilden,

01:35:17: dass die verschiedenen Bereiche abdecken kann und da zumindest eine Person zu haben, die den Überblick hat und die auch in allen Bereichen über ausreichend Kenntnisse verfügt,

01:35:27: um einschätzen zu können, welche Risiken haben wir da und in welchen Schulungsbedarf haben wir da auch bei den Mitarbeitenden,

01:35:33: da sozusagen den Überblick zu haben und auch nach Möglichkeit direkt an die Chefführung zu reporten, weil das ist halt schon wichtig.

01:35:41: Also das ist eine Geschäftsführeraufgabe für KI-Kompetenz zu sorgen, das ist nicht was, was ich irgendeinem Mitarbeiter gebe und sag viel Spaß damit,

01:35:49: machen was willst, sondern das ist wirklich eine Geschäftsführeraufgabe, die im Zweifel auch, wenn sie nicht ausgeführt wird, mit einer entsprechenden Haftung verbunden ist.

01:35:56: Genau, jetzt hat es sozusagen noch Gelegenheit für den Werbeblock, weil wir unterstützen ja sowohl nicht unseren Schulungsvorschlag,

01:36:08: den wir da haben, als auch einfach bei der Implementierung in den Unternehmen, vielleicht sagst du dazu noch zum Abschlussbrei setze,

01:36:15: welche Möglichkeiten es da gibt, dass wir da unterstützen.

01:36:19: Richtig, also wir unterstützen natürlich immer gern bei punktuellen Fragen, wir helfen aber auch gern dabei so ein KI-Projekt,

01:36:25: auch zu setzen und im Unternehmen dann mit umzusetzen.

01:36:30: Das kann sowohl die Projektplanung umfassen als auch natürlich die rechtliche Prüfung und die Schulung von Mitarbeitenden.

01:36:38: Bei der Schulung auch da gibt es von einzelnen Themen, wenn Rechtsabteilungen sagen, wir haben da schon super know-how,

01:36:46: aber zu der Frage haben wir jetzt noch nichts, bis hin zur kompletten Schulung, sowohl des juristischen Teils als auch gemeinsam mit Blackboard haben wir

01:36:54: ein Schulungsprogramm aufgesetzt, das sozusagen auch den technischen und den hands-on Bereich abdeckt, wo wir also wirklich lernen,

01:37:03: wie setzen wir es im Unternehmen um, was ist mit den Change-Prozessen, wie können wir das hier tatsächlich vernünftig umsetzen und so weiter.

01:37:10: Also da glaube ich haben wir eine ganze Bandbreite von Dingen, die wir anbieten können und die uns natürlich auch eine Menge Spaß machen.

01:37:16: Also das ist, ja was weißt du ja, wofür ich sehr brenne, wo unser Team für brennt, wo wir wirklich ganz, ganz toll dabei helfen können.

01:37:23: Unternehmen da in dem Bereich auch besser zu machen.

01:37:26: Und ich glaube, der Fabio hat es vorhin gesagt, auch auf dem Hennel oder in seinem Vortrag, dass Unternehmen empfinden das erstmal als Zumutung und als Belastung, das verstehe ich auch.

01:37:38: Ich glaube aber wirklich, dass wir hier jetzt wieder ein Fall haben mit dem AI-Akt auch, den man als große Chance als Unternehmen sehen kann, sich da super aufzustellen

01:37:47: und damit nicht nur die eigenen Prozesse effizienter und besser zu machen und Produkte besser zu machen, sondern sich da auch ein Wettbewerbsvorteil zu verschaffen.

01:37:53: Und dabei sind wir gerne weltlich.

01:37:56: Ich finde Schlusswort. Rebecca hatte ja noch gesagt, man verstehe dann wirklich mal besser da als vorher und es sei Unterschied zu den DSGVO-Projekten, wo das eigentlich wirklich nur Compliance war.

01:38:05: Was wahrscheinlich auch nicht immer stimmt, wenn man anschließend eine vernünftige Datenstruktur hat, war da auch schon viel gekommen.

01:38:11: Naja, Folge 61 von Hertingfm der Podcast für Rechte Technologie und Medien ist damit im Kasten.

01:38:21: Yay!

01:38:23: Ihr habt mitbekommen, dass das Folge 1 von 2 zu unserem KI-Tag ist.

01:38:28: Wenn ihr sicher sein wollt, dass ihr die zweite Folge nicht verpasst, dann abonniert, falls ihr es nicht ohnehin schon getan habt.

01:38:34: Und sonst hört einfach rein, wann in den nächsten Tagen auch die zweite Folge herauskommen.

01:38:39: Vielen Dank, Marlene, dass du jetzt hier auch noch mal bei mir warst.

01:38:42: Sehr gerne. Ich flitze da mal wieder schnell zurück und wünsche Ihnen noch viel Spaß bei den weiteren.

01:38:46: Kommt gleich mit, sie ist kurz Pause, glaube ich.

01:38:48: Und allen anderen bis demnächst. Ciao, ciao.

01:38:52: [Musik]

01:39:02: [Musik]

01:39:12: [Musik]

01:39:32: [Musik]

01:39:42: [Musik]

01:39:52: [Musik]

01:40:02: [Musik]

01:40:12: [Musik]

01:40:22: [Musik]

01:40:32: [Musik]

Über diesen Podcast

Im Podcast HÄRTING.fm Der Podcast für Recht, Technologie und Medien beschäftigen sich die Co-Hosts mit Neuigkeiten aus unseren Rechtsgebieten: Es geht um IT und IP, Medien und Technologie, Datenschutz und E-Commerce.

Gemeinsam mit wechselnden Co-Hosts aus der Kanzlei begrüßt Martin Schirmbacher in jeder Folge einen Gesprächspartner, den oder die wir zu ihrem oder seinem Schwerpunktthema befragen und uns und Euch ein wenig über ihre oder seine Spezialgebiete informieren. In jede Folge steigen wir mit einem kleinen Gespräch zu aktuellen Themen aus unserer Mandantenberatung ein.

von und mit Dr. Martin Schirmbacher

Abonnieren

Follow us