00:00:00: [Musik]
00:00:20: Einen wunderschönen guten Tag und herzlich willkommen zu Folge 62 von
00:00:23: Herting als MD der Podcast für Recht, Technologie und Medien.
00:00:27: Und es geht heute in Folge 2 unseres kleinen Specials zum KI-Tag um eben jenen, um den KI-Tag.
00:00:34: Und bei mir ist wie es gewohnt seit Marlene Schreiber, hallo Marlene.
00:00:36: Hallo Martin.
00:00:38: Du wolltest uns ganz kurz sagen, was verpasst hat, wer in Folge 61 nicht zugehört hat?
00:00:45: In Folge 61, da hast du mit der wunderbaren Maria Börner gesprochen.
00:00:50: Über die wichtige Frage, ob KI die Lösung aller Probleme ist und mit weiteren tollen Gästen wie
00:00:56: Toriel Liemoff, Rebekah Weiß, Fabio Viglia ging es um den AI-Akt und um die Frage, wie wir KI-Governance
00:01:03: herstellen können. Und da durfte ich auch meinen Beitrag leisten.
00:01:07: Du warst da tatsächlich der kröne Abschluss und bist schon wieder hier.
00:01:10: Richtig, ich bin kurz hier quasi nur um euch allen hallo zu sagen und dann wieder schnell zurück zum KI-Tag zu flitzen,
00:01:18: während du Martin heute vor allem über Datenschutz, also KI und Datenschutz und KI und Beschäftigten Datenschutz
00:01:26: sprechen wirst, mit Thomas Fuchs und Stefan Brink, aber auch mit der Kollegin Marlene
00:01:31: Inander über Kollektivarbeitsrecht, mit dem Kollegen Fabian Reinholtz über IP und dann kommt
00:01:37: ja noch Martin Rage, der mit dir bei Bias sprechen will.
00:01:40: Genau, das ist das einzige, was jetzt nicht richtig rechtlich ist.
00:01:44: Da freue ich mich aber auch schon darüber, wie kommt eigentlich zu Bias, das KI-System und er uns ein bisschen
00:01:52: erläutert, was er mit uns beim KI-Tag veranstaltet hat, nämlich ein KI-System trainiert.
00:01:58: Und ja, auf geht die wilde Fahrt, viel Spaß dabei.
00:02:01: Ja, dann überlasse ich dich mal deinem Schicksal und spring wieder runter.
00:02:04: Bei mir sitzt der Datenschutzbeauftragte der Freien und Hanselstadt Hamburg, der Thomas Fuchs.
00:02:12: Schön, dass Sie jetzt auch an meinen Mikro gekommen sind hier.
00:02:14: Vielen Dank für die Einladung, freue mich jetzt zusammen.
00:02:16: Den Datenschützern muss ich Sie nicht groß vorstellen.
00:02:19: Ja, Sie sind Jurist, Sie sind seit 2021 schon ein Hamburg-Schagbeauftragter für den Datenschuss
00:02:25: und die Informationsfreiheit.
00:02:26: Sie waren vorher Direktor der Medienanstalt in Hamburg-Schleswig-Holstein, haben also auch ein bisschen
00:02:32: Behördenerfahrung, was ja manche andere Datenschützer nicht so haben oder Datenschützbeauftragter nicht so haben.
00:02:37: Genau, und wie gesagt, haben gerade eine dreiviertel Stunde zu den Datenschutzrechtlichen Fragen
00:02:44: bei der KI-Verwendung gesprochen und wir wollen jetzt mal ein bisschen zusammenfassen, was Sie da so erzählt haben.
00:02:50: Sie haben sich, möchte ich sagen, relativ früh aus der Deckung gewagt und schon 2023 ziemlich am Anfang zu LLM Chatbots
00:02:56: was geschrieben und so ein bisschen Guidelines gegeben und das jetzt sozusagen immer weiter erweitert und verfeinert.
00:03:05: Ja, aus der Praxis, ja so was wird natürlich sehr geschätzt, das wissen Sie.
00:03:11: Und ich glaube, wir können gleich in mediasries gehen und reinspringen und mit der wesentlichen Frage
00:03:17: KI-Training mit personenbezogenen Daten, was sagt denn da die DSGVO?
00:03:23: Ja, in der Tat ist das ja die große Frage, über die wir gerade diskutieren, auch auf europaweiter Ebene,
00:03:30: weil bisher wir ja noch nicht wirklich festgestellt haben, nach welchen Kriterien das gehen kann.
00:03:38: Ich glaube, man muss jetzt mal grundsätzlich unterscheiden, ob das KI-Training durch eine öffentliche Stelle oder durch ein Unternehmen durchgeführt wird.
00:03:44: Bei öffentlichen Stellen braucht ich immer eine gesetzliche Grundlage, das ist jetzt auch in unserer Beratung der Hamburger Verwaltung ein großes Thema.
00:03:51: Und bei Unternehmen kommt eben im Wesentlichen das rechtliche Interesse oder wenn ich Vertragsbeziehungen habe, der Vertrag in Betracht.
00:03:57: Ganz theoretisch natürlich die Einwilligung, aber wie Sie wissen, wenn ich massenhaft Daten erheben will für große Sprachmodelle,
00:04:03: ist die Einwilligung höchstwahrscheinlich kein taugliches Modell.
00:04:07: Und über diese Themen müssen wir jetzt in Europa bis Ende des Jahres eine erste Einigung krezieren.
00:04:13: Okay, warum bis Ende des Jahres?
00:04:15: Weil es ein sogenanntes Opinienverfahren nach Artikel 64 Absatz 2 der DSGVO gerade stattfindet,
00:04:22: das heißt, der EZDA ist von der irischen Aussichtsbehörde gefragt worden,
00:04:26: wie bewertet ihr folgende Fragen eben unter anderem die,
00:04:29: könnte das berechtigte Interesse eine Rechtsgrundlage für das Trainieren von KI-Modellen sein und wenn ja,
00:04:34: unter welchen Voraussetzungen und da gibt es gewisse Fristen in der DSGVO und sehr somit die Voll-Ausschöpfung,
00:04:41: ist der Stichtag der Breitungsgangste 12. ironischerweise ein Tag vor Weihnachten.
00:04:45: Aber deswegen sind wir jetzt in der Hochtuern dabei in verschiedenen Subgroups diese irischen Fragen im Kontext des EZDA zu beantworten.
00:04:52: Super, besser als der 1., 12., da hat man nämlich das Weihnachtsfest noch versaut, aber man muss vorher fertig sein.
00:04:58: Genau, und vielleicht kommen wir gleich nochmal zurück auf die Frage,
00:05:03: unter welchen Voraussetzungen Sie jetzt insbesondere meinen, dass der berechtigte Interesse greifen mag.
00:05:09: Vielleicht gehen wir aber erst mal kurz ein auf Beispiele aus der Praxis.
00:05:12: Man denkt, wenn man irgendwie LLM hört und Datenschutz immer an die großen Amerikaner und Schädt-GBT, OpenAI und so weiter,
00:05:20: haben Sie denn Anfragen von Unternehmen oder öffentlich Hand hatten Sie gerade schon erwähnt in Ihrer Praxis?
00:05:26: Wir haben jetzt gerade viel von der öffentlichen Hand im weitesten Sinne.
00:05:29: Vielleicht ist ein sehr hübsches Beispiel, ist das Universitätsklinikum Eppendorf, das ist das UKN Hamburg, unsere große Universitätsklinik.
00:05:37: Die haben ein sehr schönes Modell entwickelt, in dem Sie 7 Millionen Patientendaten aus Entlassungsbriefen verarbeitet haben in einem Sprachmodell.
00:05:46: Und jetzt eine KI-generierte Entlassungsbriefsystematik entwickelt haben, die wohl auch sehr gut funktioniert,
00:05:53: haben wir das auch selber einmal angeguckt.
00:05:55: Aber das ist natürlich fraglos, die Verarbeitung von personenbezogenen Daten.
00:05:59: Vielleicht auch Gesundheitsdaten, möglicherweise.
00:06:01: Wir haben eben auch gesund, obwohl auch Gesundheitsdaten, genau, das ist bei Erlassungsbriefen nicht ganz ausgeschlossen.
00:06:06: Wir haben so ein bisschen pseudonymisiert, aber sicherlich nicht so, wie wir uns als Datenschützer Anonymisierung vorstellen.
00:06:14: Und da war heute die erste Frage, wie gehen wir mit den Rechtsgrundlagen um?
00:06:17: Und da gibt es Gott sei Dank im Hamburger Krankenhausgesetz, was relativ innovativ ist, eine so große Forschungsklausel, unter der dieses Training gefassbar war.
00:06:25: Wie wir überhaupt merken, dass das KI-Training zu Forschungszwecken doch relativ leicht darstellbar ist.
00:06:33: Und das entspricht ja auch der DSGVO, die in vielen Stellen auch Forschungspräfile gehen hat.
00:06:37: Insofern funktioniert das an der Stelle ganz gut.
00:06:40: Ein zweites Beispiel vielleicht haben wir aus dem Polizeibereich, der gibt es ja Kamerüberwachung von öffentlichen Räumen.
00:06:47: Das ist in Hamburg vor allen Dingen der Hauptbahnhof.
00:06:50: Und da ist die Idee, auch KI-Kameras einzusetzen, die sozusagen trainiert wurden darauf,
00:06:56: bestimmte Bewegungsmuster zu erkennen, aus denen vielleicht Polizeiche Gefahren entstehen können.
00:07:01: Und da stellt sich auch die Frage, darf man dieses Modell mit den Daten von Hamburger Bürgerinnen und Bürgern, die über dem Platz laufen, einfach so trainieren?
00:07:08: Und darf man?
00:07:10: Wir haben gesagt, das dürft ihr nicht.
00:07:12: Die Polizei lustigeweise auch gesagt, wir haben eine Forschungsklausel im Polizeigesetz.
00:07:15: Wir haben gesagt, das macht ihr ja nicht so Forschung, das macht ihr ja für Anwendung und Sicherheit so in Ordnung.
00:07:20: Und deswegen wird jetzt hoffentlich in zwei Wochen im Polizeigesetz eine neue KI-Training-Datenverarbeitungsklausel ins Gesetz geschrieben.
00:07:29: Und dann haben wir eine Rechtsgrundlage anhand dessen wir dann auch gucken können, ob der Einsatz verhältnismäßig ist.
00:07:33: Schönes Beispiel, ich sage mal, das passt aber für einen ehrlichen Weg.
00:07:37: Also, dass man jetzt eben sagt, ihr seid öffentlicher Hand, da haben wir es mit dem Bericht in Interessen nicht so, sondern ihr braucht eine Rechtsgrundlage.
00:07:43: Und über die kann man dann eben in einer Bürgerschaft streiten.
00:07:48: Das finde ich den entscheidenden Punkt.
00:07:50: Ich kriege das Thema damit nämlich in die Gesellschaft, jenseits soweit sie in der Bürgerschaft repräsentiert ist.
00:07:56: Das heißt, ich muss demokratisch legitimiert darüber diskutieren, will ich das?
00:08:00: Zu welchen Zwecken will ich das?
00:08:01: Mit welchen Rahmenbedingungen will ich das?
00:08:02: Und genau deswegen ist die gesetzliche Grundlage für öffentliche Stellen, glaube ich, auch genau der richtige Ort.
00:08:07: Weil ich nur dann die Rahmenbedingungen auch in Diskurs entstehen lassen kann.
00:08:10: Es ist jetzt für so ein Projekt, leuchtet mir das unmittelbar ein.
00:08:15: Wir bereiten ja noch auch so die anderen Träger aus der öffentlichen Hand.
00:08:18: Die sind natürlich dann manchmal ein bisschen, weil die haben es halt nicht so leicht, dass sie dann Druck machen können, dass so eine Klausel ins Gesetz kommt.
00:08:24: Wenn die doch eigentlich nur was machen wollen, was die Privaten alle machen, so nach dem Motto, da ist dann manchmal ein bisschen mühsam.
00:08:30: Aber an so einer Stelle finde ich es eigentlich mal ein gutes Beispiel dafür, dass das eigentlich Sinn macht, das so zu machen.
00:08:35: Und dann werden sie aus privaten, werden sie da auch gefragt nach Rat oder gibt es da sogar oder gibt es vielleicht sogar ein Rückkehrverfahren?
00:08:44: Vielleicht wahrscheinlich nicht, aber Fälle, die sie da haben?
00:08:46: Also jetzt nur bezogen auf Hamburg-Unternehmen eigentlich eher wenige.
00:08:51: Also wir beraten so ein bisschen und sagen, worauf man achten muss.
00:08:54: Das ist, glaube ich, in dem Kontext, wo ich Modelle entwickle, die ich in meinem Unternehmenszwecke einsetze.
00:09:02: Meistens ganz gut überberechtiges Interesse auch darstellbar hat, so mal dass dann ja oft auch Kundendaten sind, die ich dann weiter verarbeite.
00:09:08: Wo ich auch gute Möglichkeiten habe, durch die Vertragsbeziehung zum Beispiel zu informieren und Transparenz herzustellen.
00:09:15: Insofern sind die großen Fragen eigentlich eher das Trainieren der Journal-Purpose-Modelle, wo klar ist, dass nicht alle drei Milliarden Menschen, deren Daten gescraped wurden, in irgendeiner Form informiert oder gefragt werden konnten.
00:09:30: Die da möglicherweise einen Widersprucherecht haben, aber das müssen wir dann auch auf geschickte Art und Weise vorher versuchen auszuüben.
00:09:37: Sonst wird es wahrscheinlich auch schwierig.
00:09:39: Wobei man muss Meter lassen, die haben es ja versucht.
00:09:41: Also als Meter, dass Training von Lama durch die Social-Media-Daten der europäischen Nutze starten wollte, haben sie ja in der Tat auf die Widerungsmöglichkeit hingewiesen, die auch technisch eingeräumt.
00:09:53: Also wie gesagt bei First Party Data ist das sogar vorstellbar, auch technologisch schaffbar.
00:09:58: Und das ist eben eine der Fälle, die die Grundlage für die Fragen, die ihr schon auf sich spürte, waren, weil man jetzt eben gucken muss, was kann die Rechtsgrundlage dafür sein, dass ich eben zum Beispiel Social-Media-Daten auch aus vergangenen Jahren nutze, um ein Journal-Purpose-AI-Modell wie Lama zu trainieren.
00:10:16: Ja.
00:10:18: Ja und irgendwie, also wenn man daran glaubt und wenn man findet, dass das eine gute Sache ist mit der KI, dann muss man es ja auch irgendwie machen können oder was halt, ja, kann dann illegal sein oder nicht, aber dann spricht schon viel dafür, dass es da einen Weg geben sollte.
00:10:30: Deswegen ist jetzt interessanterweise aufgetaucht, dass ein ganz wichtiges Thema der ZEK der Verarbeitung ist.
00:10:37: Darüber diskutieren wir jetzt aktuell.
00:10:38: Typischer Verlauf ist man über was nachdenken, sondern da kommt eine andere Frage auf.
00:10:43: Was ist eigentlich der Purpose vom Training mit Personen mit so einem Daten im Kontext von KI?
00:10:49: Ist es das Erstellungsmodell als solches oder geht es eben darüber hinaus?
00:10:56: Also gibt es auch einen gesellschaftlichen Nutzen, gibt es einen ökonomischen Nutzen, wahrscheinlich Metatrick zum Beispiel vor, dass sie mit europäischen Daten trainieren wollen, damit ihre Modelle nicht zu Amerikanisch sind.
00:11:07: Also es ist also wichtig, um Diversität herzustellen.
00:11:10: Also dieser Aspekt wollen wir das nicht irgendwie eigentlich alle politisch oder gesellschaftlich.
00:11:14: Da kommt in dieser Zweckdiskussion jetzt interessanterweise rein.
00:11:18: Die Zweckdiskussion und das Thema mögliche Zweckänderung kommt ja auch noch von anderen Stellen, nämlich wenn die Daten, wie zum Beispiel in Social Media, mal erhoben worden sind, dann sind sie ja nicht erhoben worden, um irgendwann in 10 Jahren damit mal KI-Modelle zu trainieren, die man damals vielleicht noch gar nicht so auf dem Schirm hatte.
00:11:34: Was sagen Sie dazu? Also kann man sich da irgendwie behilfen oder muss man einfach nochmal neu informieren oder wie das könnte man da raten?
00:11:42: Also das ist jetzt muss man sagen ein laufendes Verfahren in Deutschland, wozu sich die Opinien bildet.
00:11:47: Also mein Bild ist der Einsatz von Nutzerdaten im sozialen Netzwerken wie Instagram oder Facebook zur Verbesserung der Netzwerktätigkeit durch KI, den halte ich für unproblematisch.
00:12:02: Aber den Einsatz von diesen Nutzerdaten zum Trainieren eines General Purpose AI Modells, was dann auch auf Open Source quasi zugänglich ist, das wird schon schwierig mit der Vorhersieberkeit der Zweckänderung für den Social Media Nutzer jedenfalls rückwirkend.
00:12:18: Also deswegen haben wir jetzt im Mittel gesagt, könnt ihr nicht sagen, jetzt Stichtag ab jetzt muss jeder Facebook-Nutzer wissen, seine Daten werden auch für Lama verarbeitet.
00:12:28: Aber dass meine Bilder und Pause von vor sieben Jahren irgendwie in dieses Modell reinfließen, da habe ich schon ein Störgefühl.
00:12:34: Ja, wir haben genau das Mikro von einem Jahr schon mal einen KI-Tag gemacht, aber der Professor Keber da auch hier bei mir am Podcast Mikro und da haben wir noch und das Thema Informationspflicht und Betroffenenrechte, so ein bisschen der da müssen wir unser Ordnungsgrund kümmern, aber da haben wir jetzt noch keine Lösung.
00:12:53: Ja, es ist spannend, dass sich da eben auch eine Entwicklung ergibt und natürlich sind die Metas und die Googles, die eben First Party Data haben in einer insofern privilegierten Position, als dass sie die Leute ja theoretisch sogar fragen könnten, aber aber ihnen jedenfalls mal Informationen mitgeben können und
00:13:08: Wiederspruchs recht einrom können, was man eben nicht hat, wenn man irgendwie jemand ist, der ein tolles Modell bauen will, aber eigentlich keine eigenen Kunden hat.
00:13:14: Das ist natürlich schon ein Vorteil.
00:13:18: So, jetzt haben wir schon gesprochen über die Refertigung und natürlich gibt es klare Konstellationen, wo personenbezogene Daten verarbeitet werden.
00:13:26: Sie haben welche genannt.
00:13:28: Wir haben in der Beratung jetzt eigentlich ständig Sachen.
00:13:31: Jetzt sind jetzt stellt sich aber eine weitere Frage und das ist ja wohl als die Hamburger Thesen sozusagen schon publik geworden und wird diskutiert.
00:13:41: Ja, sagen wir mal dazu in Satz, Sie haben auch da relativ klare Meinungen geäußert dazu, insbesondere zu der Frage, sind da überhaupt personenbezogene Daten noch drin, also dass man mit personenbezogene Daten trainiert.
00:13:54: Ist das ein, aber was ist das mit KI-Modell, KI-System, welchen Personenbezug haben die denn vielleicht noch?
00:14:00: Sie haben ja eben gesagt, Herr Kemmer war letztes Jahr da und hat gesagt, wir haben aber betroffen, recht mal gucken, wir werden das machen.
00:14:07: Und wir haben im ersten Hälfte des Jahres festgestellt, es gibt eigentlich den Elefanten im Raum, um den wir alle sozusagen so ein bisschen rumgeschlichen sind, nämlich die Frage, enthalten die Modelle eigentlich überhaupt personenbezogene Daten.
00:14:22: Das ist nie so auf den Punkt aus unserer Sicht ausgesprochen worden.
00:14:26: Und deswegen sind wir im Tat im Juli mit den Hamburger Thesen rausgekommen, weil wenn man ein bisschen tiefer reingeht, das Thema auch technisch tiefer reingeht.
00:14:36: Man simpel gesagt feststellen muss, große Sprachmodelle sind keine Datenspeicher, wie wir sie immer vor Augen haben, wenn wir über Datenschutz reden, sondern im Modell durchlaufen diese personenbezogene Daten eine Transformation.
00:14:50: Die Wörter werden teilweise ja sozusagen zerhackt in sogenannte Tokens und am Schluss haben wir eigentlich Wahrscheinlichkeitsbeziehungen von Wortfragmenten.
00:14:58: Also ich habe die Wahrscheinlichkeit, dass nach einem Wort ein bestimmtes zweites Wort folgt und diese Wahrscheinlichkeitsbeziehungen sind eben was anderes als das Speicheln von personenbezogenen Daten.
00:15:10: Und das ist eine relativ interessante Erkenntnis, weil ich dadurch eigentlich in der Konsequenz sagen muss, das personenbezogenen Modell selber enthält keine bezogenen Daten.
00:15:22: Und das hat dann folgen, würde ich gleich noch reden können, für die betroffenen Rechte, für die Übertragbarkeit des Modells.
00:15:28: Und ist glaube ich deswegen ein sehr wichtiger Blickwechsel, den wir versucht haben, die Diskussion zu bringen.
00:15:32: Also, good news für alle, die so mit KI Modellen arbeiten wollen, dass sie erst mal sagen, also ja, es fließen dort personenbezogenen Daten ein, aber das Modell selbst enthält eben keine personenbezogenen Daten mehr.
00:15:51: Ja, Leute, mit denen ich da sprech sagen, naja, aber wenn sie reingekommen ist, wir haben ja jetzt nicht eine Anonymisierung, oder dann gibt es ja auch immer wieder so Beispiele, wenn ich irgendwie mit einem Buch trainiere und dann irgendwie nach gezielt sozusagen so prompte, dass dann auch Namen ausgeworfen werden, die in den Buch auftauchen, das kann doch dann nur so sein, dass die Daten da immer noch drin sind.
00:16:17: Was sagen Sie denen?
00:16:19: Ja, also wir haben auch gemerkt in der Diskussion, dass es so ein bisschen kontrointuitiv ist, dass man in der Tat das Gefühl hat, da fliegt, kommt Daten rein, da kommt Daten raus, also müssen in der Mitte auch Daten drin sein.
00:16:29: Ändert aber nichts daran, dass eben die personenbezogenen Daten im Modell verändert werden, wie gesagt, zu Wahrscheinlichkeitsbeziehungen und dann ist wieder durch das Prompting in dem Kontext, in dem System herauskommen und dann im System selber aber in der Tat personenbezogenen Daten entstehen.
00:16:49: Ich glaube, die Unterscheidung zwischen Modell und System ist die entscheidende Setzung, die wir auch in die Debatte gebracht haben.
00:16:57: Also GPT 4.0 ist das Modell, das trainierte Modell.
00:17:01: Das hat ein Filter und ein Prompting und eine Ausgabe.
00:17:20: Genau, also wenn ich bei ein eigenes Rackbustle und über API auf das Modell setze, dann habe ich für mich ein System entwickelt und dann, wenn ich dann in dem System personenbezogenen Daten verarbeite oder durch mein Prompting so bezogen Daten erhalte, dann gilt natürlich für das, was ich dann tue, komplett die DSGVU.
00:17:36: Aber das Modell als Seuch ist erst mal datenschutzagnostisch.
00:17:40: Ganz hübsches Beispiel ist vielleicht die Frage, wenn ich CHETCHY BITTY frage, trinkt Markus Söder gerne Bier, dann sagt CHETCHY BITTY, ja, der Beispiel ist über den Markus Söder trinkt gerne Bier.
00:17:52: Das selber können Sie auch machen mit Nicole, Sarkozy und Wein trinken.
00:17:57: Und die Aussagen sind falsch, also Sarkozy ist bekennender Antialkoholiker und Söder trinkt auch leber Apfelsaftschorle aus dem Bierglas.
00:18:06: Und die Frage wäre jetzt, kann Markus Söder diese falsche Aussage im Modell berichtigen lassen?
00:18:13: Und das funktioniert eben nicht, weil nicht im Modell die Aussage gespeichert ist, Markus Söder trinkt Bier, sondern im Modell ist die Wahrscheinlichkeit enthalten, dass ein bayerischer Ministerpräsident wohl Bier trinkt.
00:18:26: Schon immer so gewesen.
00:18:27: Schon immer so gewesen, genau, das gehört einfach zur Volkskultur.
00:18:30: Insofern ist sogar aus der Modelllogik heraus der Satz gar nicht falsch, sondern er ist sozusagen wahrscheinlich.
00:18:35: Und dann zu sagen, es gibt eine Berichtigungs- oder gar einen Löschungsanspruch der Person Markus Söder gegen das Modell, was diese Wahrscheinlichkeit vorhält.
00:18:44: Das passt eben nicht zusammen.
00:18:46: Und das muss man jetzt, glaube ich, klar machen.
00:18:48: Es hat keinen Sinn auf die LLM-Architektur jetzt die DSGVO irgendwie rüberzustülpen und sie passend zu machen, sondern ich glaube, dass es dann sauberer zu sagen,
00:18:56: lass das Modell in Ruhe, bei so einem Bezugstechnisch, aber konzentriere die Betroffenenrechte in DSGVO, die erhalten bleiben, dann auf die Ausgabe im Systemkontext.
00:19:07: Das hilft auch dem Datenschutz eher, weil dann der Betroffene auch weiß an wen er sich wenden soll und wo die Berichtigungsansprüche auch Sinn machen.
00:19:13: Denn Markus Söder ist es ja auch egal, welche Absturkte wahrscheinlich keine Modell drin ist, ihn interessiert, was passiert mit der falschen Aussage, die da entsteht.
00:19:22: Okay, gut, ob er jetzt dagegen vorgehen wird, wissen wir nicht.
00:19:25: Aber auf jeden Fall spannend.
00:19:28: Und wenn man es jetzt auf ihre Wahrscheinlichkeitsrechnung zurückführt, man könnte dann möglicherweise sagen, dass der Personbezug im Erstgegebensten in die Wahrscheinlichkeit eins ist.
00:19:35: Und das ist eben nicht in so einem Modell, sondern man kann eben, das merkt man ja nur jeden Tag beim Promten und die KI-Skeptiker sehen sich dann bestätigt, dass ja so viele Sachen kommen, die nicht stimmen,
00:19:46: wie Markus Söder, weil es eben keine Suchmaschine ist, die auf irgendwelche Dokumente zurückgreift, die wahr oder falsch sein können, sondern weil es eben ein normales Netz ist, wo damit so gerechnet wird.
00:19:59: Ja, die Frage, also das wäre natürlich, es hat ihr Modell, ihre Thesen haben den Charme, dass es vergleicht, was klar ist.
00:20:08: Wir müssen uns um das Modell nicht kümmern.
00:20:10: Natürlich könnte man auch wieder, muss man natürlich auf die Einzelheiten schauen.
00:20:14: Und es wird bestimmte Modelle geben, wo man das anders sehen muss, weil sie eben nicht so gut sind, nicht so groß sind, aber in aller Regel.
00:20:21: Und dann aber, was eben kein Freibrief ist, das habe ich jetzt schon vereinzelt von Mandanten, wieder, "Ach, selbst der Datensuchbeauftrag, das gilt hier alles gar nicht, ist ihm quatsch."
00:20:30: Man muss ihm schon logischerweise an seinen Systemen anknüpfen und dann auch damit leben, dass Leute auskommen, Ansprüche, Löschansprüche oder einfach Geld machen.
00:20:38: Ja, man kann sogar sagen, es ist sogar teilweise fast schlimmer.
00:20:41: Also ich kann mich nicht damit rausreden, dass das falsche Ergebnis ja aus dem Modell gekommen ist und deswegen tag ich keine Verantwortung dafür, sondern ich bin eben als Systemanwender vollständig verantwortlich.
00:20:52: Auch für die, dann jetzt auch für die Richtigkeit der Person mit solchen Daten, die ich verarbeite.
00:20:56: Insofern finde ich, macht es eben die Verantwortung sehr viel genauer und im Gegenteil, irgendwie für den Deployer sogar fast höher, als wenn ich der Meinung wäre, auch der Modellbetreiber hat noch irgendwelche darin schon rechtlichen Pflichten.
00:21:10: Ja, gut, da haben wir natürlich das Thema Haftung für KI, dass ich sozusagen als der am Ende verantwortlich bin dafür.
00:21:19: Irgendwann auch ganz andere Sachen als jetzt Datenschutz, deiner Rolle spielen.
00:21:23: Ja, das machen wir, sehen wir in unseren Schulungen dann halt auch immer auf eine Münder, "Ja, aber wie können wir denn da verantwortlich sein? Das ist doch hier OpenAI oder Homeover Cloud.
00:21:32: Das können wir ja gar nichts dafür, aber das ist natürlich dann schon falsch. Also da muss man dann eben schon sagen, dass man da die Verantwortung trägt und sich dann eben auch mit den Ansprüchen auseinersetzen muss.
00:21:41: Absolut, ja.
00:21:42: Sehr gut. Vielleicht als letztes, Sie hatten schon den Ezzer angesprochen, jetzt sind Iotesen im Raum für die, ich für Sympathiehege, ja wir haben hier Binnenpluralismus, andere sind es skeptisch waren es im Hause.
00:21:55: Ja, aber wenn sich das durchsetzt, wäre das natürlich erstmal eine gut greifbar und gut darstellbar, so wie es jetzt gerade besser als ich es hätte hier können dargestellt haben.
00:22:07: Aber was wird denn der Ezzer sagen? Dann können Sie jetzt natürlich, ja.
00:22:11: Ja, also ich, wie gesagt, die Thesen waren jetzt Diskussionsgrundlage gedacht, deswegen muss sie, glaube ich, in einigen Stellen auch so ein bisschen zugespitzt sein.
00:22:18: Und sie haben sich natürlich oft die uns momentan bekannten großen Sprachmodelle mäßlich konzentriert.
00:22:24: Ich glaube, der nächste Schritt wird sein und das wird der Ezzer jetzt auch ein bisschen einleiten, dass wir nochmal Differenzierter drauf gucken müssen.
00:22:31: Also natürlich wird es KI-Modelle geben, wo die Aussagen so nicht zu treffen.
00:22:36: Ich kann mir sogar sozusagen KI-Modelle vorstellen, die zu dem Zweck erstellt werden, Personen bezogelten Daten auszugeben.
00:22:43: Dann habe ich mir völlig anderen Kontext, in dem ich das bewerten muss.
00:22:47: Also ich werde sehr auf den Purpose ankommen.
00:22:49: Also wozu ist das so ein Welle gedacht, welche welche Aufgabe hat es?
00:22:53: Insofern werden Differenzierungen kommen, das ist ja auch gut.
00:22:57: Und dann, wo ich ziemlich zuversichtlich bin, ist aber, dass die Frage der betroffenen Rechte, dass wir die eher sozusagen pragmatisch im Kontext von Output,
00:23:08: Filteringen und weitere Verarbeitung im späteren Verlauf konzentrieren müssen.
00:23:13: Da bin ich ganz zuversichtlich, dass ich das durchsetzt, weil doch alle merken, dass es eben nicht passt, mit dem Lösch ansprechen, beispielsweise ins Modell zu gehen.
00:23:21: Insofern glaube ich, es wird sehr differenziert werden.
00:23:24: Und mein Ziel wäre dann auch im nächsten Frühjahr sozusagen von dem Hintergrund der Ezzer-Opinion,
00:23:30: sozusagen diese Hamburger Tesen nochmal so zum Weiterzug zu entwickeln und dann noch so ein bisschen spezifischer zu haben.
00:23:35: Aber das ist jetzt nicht nur, das ist mir immer wichtig zu sagen, die Tesen sollen jetzt nicht nur irgendwie pragmatisch gut sein, sondern ich glaube auch, dass es wirklich im Kern richtig ist.
00:23:45: Ich glaube, es ist wirklich wichtig, auf eine innovative Technik nicht aus einer DSGVO-Brille nur zu gucken, sondern die Unterschiede auch anzukennen, die wir hier haben.
00:23:54: Und letzter Satz zu, wir haben ja eine KI-Verordnung und es gibt KI-Modellregulierung in der KI-Verordnung.
00:24:02: Insofern ist es doch gar keine Rechtslücke, sondern alle Anforderungen an Transparenz und fairest Training sind im AI-Akt geregelt.
00:24:12: Und insofern ist es, glaube ich, sogar regulatorisch sauber zu sagen, lasst das Modell in Ruhe, was die DSGVO anbelangt, aber guck es dir unter AI-Akt-Gesichtsfunken gut an.
00:24:22: Prima, Herr Vux. Vielen Dank. Da könnte man jetzt auch viel darauf antworten.
00:24:25: Unsere, hier, mir von mir vorgegebene Zeit ist vorbei, aber man merkt, dass sie das für richtig halten.
00:24:31: Das finde ich auch sehr wichtig, dass man, dass es ihnen auch nicht nur darum geht, der jetzt hier mal einen rauszuhauen und zu sagen, wir tun hier was und sind gar nicht immer die großen Bremse, sondern dass sie eben auch das für richtig halten.
00:24:41: Ich wünsche ihnen viel Erfolg, dass sie sich dermöglichst weit durchsetzen können in den europäischen Beratungen mit den Kollegen.
00:24:46: Und ja, dass man differenzieren muss, ist klar, das ist nun mal auch ein komplexes Unterfangen und ein komplexes System und nicht jedes Modell ist gleich, aber und im nächsten Jahr werden wir wieder über andere Sachen sprechen, aber wenn sie sich in diese Richtung entwickelt, wäre das sicherlich nicht schlecht.
00:25:03: Vielen Dank, dass Sie jetzt hier nochmal zu mir gekommen sind, dass Sie hier bei unserem KI-Tag waren.
00:25:07: Sehr gerne, hat Spaß gemacht. Vielen Dank.
00:25:08: Vielen Dank. Danke schön.
00:25:11: So, es ist inzwischen dunkel in Berlin am KI-Tag und bei mir sitzt Dr. Stefan Brink, den Datenschützenden muss ich dich lieber Stefan nicht groß vorstellen.
00:25:21: Du warst sehr lange Landesbeauftragter für den Datenschutz und die Informationsfreiheit in Baden-Württemberg und davor schon, was dann vielleicht schon manche nicht mehr wissen, in Rheinland-Pfalz bei der Entschlussaufsichtsbehörde tätig.
00:25:32: Du, man möchte fast sagen, betreibst einen weiteren der Podcast und der Kanzlei-Beteiligung, nämlich den Pink Podcast, wo ihr euch was ich tatsächlich schon fast auswendig kann, weil ich immer den höre, sobald heraus ist, mit den Fragen des Rechts des Rechtsstaats und unserer Verfassung beschäftigt und aber immer auch den Blick auf den Datenschutz und die Informationsfreiheit habt.
00:25:55: Wer jetzt hier über den KI-Tag oder warum er immer reingeraten ist, schaut doch mal und nach dem Pink Podcast Follow the Rightsstaats und da findet ihr immer Stefans und Nikos ja fast wöchentliche in beeindruckender Schlagzahl erscheinenden Episoden zu den genannten Themen.
00:26:13: Seid ihr nicht mehr Landesdatenschutzbeauftragter bist, hast du ein Institut, was sich mit der Digitalisierung der Arbeitswelt beschäftigt, ist wieder und ja, bis in dieser Funktion, auch heute hier hast erzählt, ein bisschen über die Schnittstelle zwischen digitaler Arbeitswelt und Datenschutz, nämlich über KI und beschäftigten Datenschutz und darüber würde ich ganz gerne mit dir heute auch noch mal ein bisschen reden.
00:26:40: Ja, schön, dass du jetzt auch hier noch schnell zu mir ans Mikro besprungen bist.
00:26:43: Ich freue mich sehr und freue mich auf das Thema, weil es wirklich ein gutes Thema ist.
00:26:48: Es gibt kaum Bereiche, wo sich künstliche Intelligenz und Datenschutz so nahekommen im Moment wie im Bereich der Beschäftigung, also der Bewerbung, zum Teil auch der Weisung, der Beendigung möglicherweise des Beschäftigungsverhältnisses.
00:27:05: Da sind viele Fantasien im Moment unterwegs und die Frage ist immer, was sagt die KI-Verordnung dazu und geht das eigentlich datenschutzrechtlich?
00:27:13: Genau, und bevor er dazu kommt, vielleicht, du hattest aber ganz lustige Beispiele oder Lustigeaussichte betroffenen und Beschäftigten möglicherweise nicht mehr ganz so lustig.
00:27:21: Welche Anwendungen gibt es denn eigentlich schon für KI im HR-Kontext?
00:27:26: Also verbreitet sind ganz offensichtlich KI-Anwendungen bei der Bewerbauswahl, das vorsortiert wird.
00:27:33: Ich habe also ein sehr großes Bewerberfeld und HR möchte sich jetzt nicht durch jede einzelne Akte durchfühlen.
00:27:39: Weil man ja schon froh ist, wenn du das heutzutage der Fall bist, was soll das mir stehen sein?
00:27:43: Es kommt einem vor wie aus einem anderen Jahrhunderts.
00:27:45: Ich sage auch mal, es gibt wirklich so große Bewerberfelder, aber die Software scheint zu laufen.
00:27:50: Da geht es darum, dass man nicht mehr selbst mit der ganzen Manpower von HR in die Bewerbungsgespräche reinmarschiert, sondern dass man sortiert.
00:28:01: Sei es, dass man entweder Video gestützte Bewerbungsgespräche macht, bei denen dann auch tatsächlich kein vertretertes Arbeitgeber mehr am Tisch sitzt,
00:28:11: oder dass sogar Videos eingeschickt werden, die ausgewertet werden, da traut man der KI sehr viel zu.
00:28:18: Also insbesondere abgestimmt auf die jeweilige Ausschreibung sehr zielgenau sagen zu können, das ist ein Kandidat oder das ist auf keinen Fall ein Kandidat.
00:28:26: Und das ist schon sowohl unter dem Gesicht der KI-Verordnung relevant, weil die Anwendung von KI im beschäftigten Kontext immer ein starkes Indiz für hoch-uch-uch Risikosysteme ist.
00:28:43: Da würde mich auch das Training interessieren, wie man da das Training macht, das KI erkennen soll, das kann ja nur an echtem Beschäftigten trainiert werden.
00:28:52: Es wird einem in dem Bereich wahnsinnig viel versprochen, was die KI alles könnte, so wie uns in Corona-Zeiten versprochen wurde, die KI könnte Studenten bei Betrugsversuchen detektieren,
00:29:06: in dem einfach geschaut wird, wie bewegen die sich, was sind so für Geräusche im Zimmer, wurde dann messerscharf geschlossen, ah, Betrugsversuch, ja oder nein.
00:29:17: Und so ähnlich ist es auch bei der Bewerberauswahl, dass man meint, anhand des Sprachflusses, anhand der Füllwörter, anhand des Zögerns, der Sprechgeschwindigkeit,
00:29:27: irgendwie Aussagen darüber zu treffen, ist er ein guter Kandidat, ist er geeignet, wo hat er Stärken, wo hat er Schwächen, also da wird dann bei einzelnen Anbieter gleich nach einem 10-minütigen Videointerview
00:29:40: ein vollständiges Persönlichkeitsbild ausgeworfen, wo man aus meiner Sicht schon die Frage stellen muss, wie verlässlich ist das eigentlich, wie plausibel ist das, dass eine Technik sowas kann.
00:29:53: Ja, ja, kommt mir auch erstmal um.
00:29:55: Ja, klar, wie bevor, aber gut, ich bin ehrlich gesagt ein bisschen vorsichtig geworden, weil es die Einschätzung angeht, weil ja schon auch tolle Sachen möglich sind, die sich dann bestätigt daraus gesteckt haben.
00:30:08: Aber in verhältnismäßig leichter überschaubaren Bereichen, zum Beispiel im Rahmen der Sprachmodelle, dass man menschliche Sprache zerlegen kann und unter Wahrscheinlichkeitsgesichtspunkten relativ gut rausbekommt, was ist denn jetzt das nächste Wort?
00:30:22: Das glaube ich, aber Menschen lesen wirklich Körpersprache, Sprachduktus, das ist schon so ähnlich wie in früheren Jahren wirklich glaubten oder einige glaubten, anhand von grafologischen Gutachten Bewerber sortieren zu können, wo wir heute auch sagen, das ist huckus pokus, das ist totaler Quatsch nur, weil der Unterstrich beim F zu groß war, ist das jetzt kein schlechter Marketingmensch.
00:30:46: Sondern man muss auch da immer die Frage stellen, ist das belegbar, dass die Datenverarbeitung, die dort stattfindet, auch zu einem verwertbaren Ergebnis führt?
00:30:55: Und wenn das nicht der Fall ist, dann sind wir sofort datenschutzrechtlich raus, das scheitert dann am Erfolgligkeitsgrundsatz.
00:31:00: Weil es nicht notwendig ist, weil es Quatsch ist.
00:31:02: So, weil es Quatsch ist, war es nicht notwendig, also Datenschutzverstand.
00:31:05: Ist sozusagen nicht nur AI-Washing, sondern auch noch eine unsw. Datenverarbeitung.
00:31:09: So, es kriegt man gleich noch mitgeliefert.
00:31:11: Genau, jetzt gibt es bestimmt noch Beispiele, du hattest eines ganz instruktiv, jedenfalls eine Tatsartikel, die ich mir gemerkt hatte, sozusagen AI bei der Arbeitsverhältnisse, bei der Bewertung von Arbeitsverhältnissen und sicherlich auch irgendwelche Tools, die dabei helfen sollen, herauszufinden, ob man kündigen sollte oder nicht.
00:31:31: Genau.
00:31:32: Ich will eine leider eine relativ große Rolle bei den Plattformarbeitern, auch brauchen wir nur mal in Richtung Liferando zu gucken, dass dort inzwischen eine Dauerüberwachung läuft.
00:31:45: Wo fährt denn der Fahrradfahrer so lang mit seiner Pizza?
00:31:49: Er wäre nicht besser links rumgefahren, dass auf die Kunden geachtet wird, die Kunden auch selbst tracken können, dass da Feedback vom Kunden kommt, wie zufrieden war.
00:32:01: Und das sind alles Datenpunkte, die gesammelt werden, wo dann am Ende die KI Vorschläge macht, welche Mitarbeiter gut beformt haben, welche weniger gut waren und welche im Zerfall auf freigesetzt werden können.
00:32:12: Dass das schon so gehandhabt wird, ich sage nicht, dass es funktioniert, aber dass es so gehandhabt wird, sehen wir an Berichten aus den USA.
00:32:20: Das sind Aspekte, die aus meiner Sicht in Europa so datenschutzrechtlich nicht zulässig wären.
00:32:26: Die sind ganz offensichtlich Teil einer Dauerüberwachung, das ist unzulässig.
00:32:32: Du darfst natürlich im Arbeitsverhältnis auch stichprobenartig kontrollieren, aber das dauerhaft zu tun ist ganz offensichtlich unverhältnismäßig und hat auch ganz klare, abschreckende Wirkung auf den einzelnen Beschäftigten.
00:32:44: Weil wir hier dann schon auf einer Ebene vor einsteigen, die KI kommt erst danach, die Dauerüberwachung, die haben wir hier schon im Problem mit der Datenerhebung.
00:32:53: Und natürlich, wenn die Daten erstmal da sind, dass man da eine KI drüber schickt, um zu gucken, ob man da irgendwelche Muster erkennen kann, liegt da nah, aber hier ist sozusagen, wie wir es mal aus deutscher Arbeit und datenschutzrechtlicher Brille schon viel früher Schluss.
00:33:08: So ist es.
00:33:09: Jetzt wieder schon bei der rechtlichen Bewertung, also du hast gesagt, es ist eine, was stattfindet und auch wenn man ein KI-System drüber schickt über bestehende Daten, sei es Bewerbungsschreiben etc., ist es eine Datenverarbeitung und da erzähle ich jetzt wahrscheinlich niemandem was Neues, dass dir eine Rechtfertigung bedarf.
00:33:32: Jetzt wäre es ja schön, wenn die sich aus der KI-Verordnung ergeben, aber da kannst du wahrscheinlich kurz ein Prozess machen.
00:33:38: So ist es, dafür ist die KI-Verordnung nicht da.
00:33:40: Sie ist eine Produkt-Sicherheits-Verordnung, die aber datenschutzrechtlich gesehen keine Rechtsgrundlage liefern kann.
00:33:48: Das ist überhaupt nicht ihre Zielsetzung.
00:33:49: Deswegen tritt sie ja auch aus, drücklich zurück, wenn die datenschutz-Grundverordnung einschlägig ist.
00:33:54: Also wenn im Rahmen des Fütterns der KI-Training oder der Anwendung personenbezogene Daten verarbeitet werden, dann müssen wir in die Grundverordnung schauen.
00:34:03: Und dann schauen wir auf den Artikel 6 und da finden wir natürlich Grundlagen auch für den Einsatz von KI.
00:34:09: Da ist alles denkbar zunächst mal von der Einwägigung bis hin zu 6.1f, also den berechtigten Interesse, die dann mehr oder weniger sinnvoll genutzt werden können.
00:34:19: Einwägung ist wahrscheinlich nicht nachhaltig, zu anfällig, auch für Widerruf.
00:34:22: Also bleibt vieles im KI-Bereich wahrscheinlich am Punkt 6.1f hängen und damit kann man es probieren, damit kann man arbeiten.
00:34:30: Und damit ist die Datenschutz-Grundverordnung also in dem Bereich, würde ich sagen, keine KI-Bremse.
00:34:39: Da wird es dann eher kritisch in den Bereichen der Transparenz.
00:34:43: Auch bei Artikel 6.1.1.1.1 aber grundsätzlich muss der Datenverarbeiter natürlich klarmachen, wie die Datenverarbeitung läuft, welche Zwecke er verfolgt und auf welche Art und Weise die Daten verarbeitet werden.
00:34:56: Da sind viele, die KI-Modelle sowieso, aber auch die Anwendung für die arbeitgeberne Blackbox.
00:35:04: Sie wissen auch nicht so genau, was da passiert.
00:35:06: Es wird schwierig, die Transparenzpflichten zu erfüllen, wenn man sie aber nicht so ganz genau weiß, was da passiert.
00:35:10: Man ist sehr abhängig, das kennen wir schon in anderen Bereichen.
00:35:13: Was weiß ich bei der traditionellen Bürosoftware.
00:35:16: Das letztlich der Arbeitgeber gar nicht mehr so genau erklären kann, was da eigentlich vor sich geht.
00:35:20: Trotzdem setzt das ein, trotzdem fühlt er sich auch angewiesen auf diese Anwendung und auch auf KI wird er sich angewiesen fühlen.
00:35:28: Wir haben es ja hier nicht mit einem Freiheitsprozess zu tun, wo der Arbeitgeber sagt, ich glaube wir nehmen KI oder wir tun es nicht.
00:35:36: Sondern bei den Effizienzgewinnen, die dort offensichtlich zuholen sind, ist der Arbeitgeber mehr oder weniger darauf angewiesen, die Produkte einzusetzen, die seine Konkurrenz auch einsetzt.
00:35:46: Und dann steht da wieder Oxfam Berg vor genau der Fragestellung, wie funktioniert das Ding eigentlich?
00:35:52: Kann ich das den Beschäftigten erklären?
00:35:54: Und das kann einen vielen Bereichen nicht.
00:35:56: Und damit haben wir die erste massive Hürde der Datenschutzgrundverordnung im Bereich der Transparenz.
00:36:02: Ja. Und dann hattest du gesagt, die zweite Hürde ist dann auch keine aus der KI-Verordnung stammende Hürde, sondern eine originäre Datenschutzhürde.
00:36:12: Ja, wenn alles was hingeht in Richtung automatisierte Entscheidungsfindung und dann sind wir den ja die hübten Hörer und Hörer kennst bei Artikel 22, den man bei vielen, vielen Anwendungen bei uns in der Praxis, wenn es ums Werbescoring geht, zum Beispiel immer ein bisschen wegwischen kann, weil naja, es ist ja keine richtige Beeinträchtigung und nicht Maßnahme, gleicher Wirkung wie ein Vertragsschluss etc.
00:36:34: Bloß wenn es so ist, dass eine Entscheidung getroffen wird, dann schon, oder?
00:36:38: Na das ist dann eindeutig. Wenn den Beschäftigungsverhältnis über die Einstellungen, über die Abmahnung, über die Beförderung, über die Entlassung entschieden wird, und zwar wenn das die KI machen würde, dann wären wir im 22 drin, da haben wir das Verbot der automatisierten Entscheidung bei rechtlich belangvollen Fragestellungen.
00:36:58: Das heißt, da wird dann letztlich aus Datenschutz sich die Verpflichtung herausgelesen, dass immer noch mal eine menschliche Instanz dazwischen geschaltet sein muss und wir wissen seit der Entscheidung des Europäischen Gerichtshofs zu Schufer, dass diese Maßgeblichkeit der automatisierten Entscheidungen nicht allein dadurch ausgeschlossen werden kann,
00:37:22: dass ab und zu mal ein Mensch auf die Ergebnisse der KI schaut und kalibriert kann das noch sein, kann das nicht sein, sondern da hat der EUGH den Bereich des maßgeblichen wesentlich ausgeweitet.
00:37:33: Das wird sich letztlich, damit müssen wir uns jedenfalls auseinandersetzen, als eine massive K.I. Bremse herausstellen. Wenn der Artikel 22 zur Anwendung kommt, dann werden die Effizienzgewinne, die wir uns vom Einsatz der KI versprechen, in weiten Bereichen wieder dadurch verloren gehen, dass wir Menschen mit substanzieller Entscheidungsmacht zwischen die KI und die Entscheidungsstellen machen.
00:37:59: Ich wollte gerade sagen, dass wir so tun, als würde da noch jemand drauf gucken, reicht dann eben nicht, wenn das mal jemand challenge.
00:38:05: Das ist auch vernünftig. Die Einsätze von KI, die wir bisher sehen, zum Beispiel im richterlichen Bereich in den USA, ist sehr gut untersucht und dokumentiert die Frage, KI-gestützte Vorschläge für Bewährungsentscheidungen durch Richter.
00:38:20: Die Ergebnisse sind immer dieselben. Am Anfang sieht die Richter misstrauisch und gucken sich die Vorschläge genau an und sobald sie gesehen haben, das ist gar nicht so schlecht, was daraus kommt, winken sie es nur noch durch.
00:38:31: Und dann hast du die Biasis drin, die man so vermuten mag.
00:38:35: Die man vermutet und gleichzeitig wechselt der Mensch seine Funktion, er ist gar nicht mehr der Entscheider, sondern er ist nur noch der, der kontrollbereit ist, aber das nicht immer unbedingt auch umsetzen muss.
00:38:48: Und das ist genau das, was der 22 verhindern will. Er will nicht, dass am Ende die Blechbüchse der Automat über uns entscheidet, sondern das soll immer in jedem einzelnen Mensch sein.
00:38:58: Gut, jetzt ist zu hoffen, dass bei den allermeisten, ich sage jetzt hier, gucke immer noch auf Beendigung des Arbeitsverhältnisses, ob bei den allermeisten Fällen das tatsächlich gewährleistet ist, dass da jetzt niemand automatisch kündigt wird oder semiautomatisch durchwinken.
00:39:13: Aber natürlich, wenn bei einem, wie du es für einen Plattformarbeiter, wo die mehr oder weniger austauschbar sind, bis die Drohne kommt, dann auch noch abnimmt, dass dann jemandem Fahrrad fahren muss, da ist es jedenfalls mal aus Amerika gar nicht so undenkbar.
00:39:30: Das wird dann einfach nicht mehr erscheinen müssen, kriegen eine WhatsApp oder eine Nachricht in der hauseigenen App und bis zum nächsten Mal.
00:39:39: Dann wird es dann einfach nicht mehr gesperrt für die App und dann hast du es. Das hoffen wir nicht, das ist ein bisschen dystopisch fast.
00:39:46: Aber da haben wir den Artikel 22, DSGVO wohlgemerkt und dann haben wir eben im Beschäftigtenverhältnis nochmal eine besondere Nähe natürlich, wo es dann eben vielleicht auch eine Abregungsentscheidung anders ausgehen mag.
00:39:58: Als anderswo andererseits hat man eben, das ist dann auch der Vorteil gegenüber anderen Situationen, wo KI zum Einsatz kommt, einen Vertrassverhältnis mit dem Beschäftigten.
00:40:06: Ich sage nicht, dass man jetzt den 6&B nutzen soll, aber man hat wenigstens die Möglichkeit, bestimmte Dinge zu regeln. Man kann für Transparenz sorgen, man kann um Einwilligung bitten, auch wenn du die Nachteile, die die Einwilligung hast, schon aufgelöst.
00:40:16: Und man kann Betriebsvereinbarung schließen. Das ist ein sehr guter, übrigens gerade auch unter Transparenzgesichtspunkten.
00:40:21: Ein sehr wichtiger, guter Schritt. Wenn ich den Betriebsrat schon mal erklären kann, was ich vorhabe und wie KI dabei hilft, dann habe ich schon einen wesentlichen Schritt getan, um für die Belegschaft insgesamt eine transparente Situation herzustellen.
00:40:33: Und dann kann ich im Rahmen der BV natürlich all die problematischen Dinge ansprechen, Leistungsverhaltenskontrolle, auch genau diese Frage automatisierte Entscheidungen, ja oder nein.
00:40:42: Wo wollen wir das, wo wollen wir das nicht? Und schon haben wir jedenfalls eine bessere transparentere Grundlage für die Datenverarbeitung, als wir sie vorher hatten.
00:40:52: Sehr gut. Das ist ein gutes Schlusswort, weil es überleitet zu dem kleinen Teil der Folge, den ich mit der Marlinie einander aufnehme, gleich zum Kollektivarbeitsrecht.
00:41:02: Stefan, vielen Dank, dass du zwischen deinem Vortrag und die Deutsche Bahn hier noch schnell das Postkast immer geschoben hast.
00:41:09: Sehr gerne. Es war sehr erhellend, mein Vortrag sowieso. Ja und bis demnächst wieder auf meinem Ohr jedenfalls mal hier im Büro.
00:41:17: Vielen Dank.
00:41:18: So, nach Stefan Brink sitzt jetzt bei mir Marlinie Nander. Hallo liebe Marlinie. Hallo.
00:41:25: Schön, dass du hier auch dich an meinen Podcast Mikro begeben hast, um ein bisschen zu erzählen, was du gerade beim unserem KI-Tag schon erzählt hast.
00:41:35: Es geht um kollektives Arbeitsrecht. Bevor wir dazu kommen, ganz kurze Vorstellung.
00:41:39: Du hast Überraschung Jurastudiert in Hamburg und Berlin.
00:41:43: Du warst beim MPI, warst auch mal in Haus, beim großen Telco und dann bei der Kommission.
00:41:49: Du warst 18 Jahre bei den Kollegen von Charles Rechtsanwälti hier in Berlin tätig und bist jetzt erfreudigerweise seit Mitte diesen Jahres auf Council bei uns.
00:41:58: Anwältin, Fachanwältin für IT-Recht und hast auch den Kurs fürs Arbeitsrecht gemacht.
00:42:05: Also sehr prädestiniert dafür an der Schnittstelle von IT und Arbeitsrecht hier heute Auskunftsarteilen. Das stimmt hoffentlich alles so.
00:42:12: Das stimmt so weit. Vielen Dank. Ich habe dann doch die Fachanwaltsprüfung fürs Arbeitsrecht gemacht, aber die Zulassung habe ich mir dann nie direkt geholt.
00:42:21: Die Fälle sind auch in anderen Fachanwaltschaften. Manchmal ist das Problem nicht so sehr die Fälle, sondern sie einzureichen und zusammen.
00:42:27: Das wollte ich sagen. Die Fälle habe ich alle zusammen seit Jahren. Aber die Fleißarbeit, das mal alles fertig zu machen und einzureichen, ist ein ganz anderes Thema.
00:42:33: I know the feeling.
00:42:35: Genau. Kollektives Arbeitsrecht. Vielleicht für die Arbeitsrecht ist hier ein bisschen ein Novum in diesem Podcast.
00:42:43: Wir machen ja durchaus andere Sachen als rein, IT. Aber vielleicht steigen wir mal ein bisschen softer ein.
00:42:51: Was ist überhaupt das kollektive Arbeitsrecht und dann kommen wir dazu, was es mit KI zu tun hat?
00:42:55: Ja, gerne. Tatsächlich war das auch Thema beim KI-Tag so ein bisschen. Ich habe das im Publikum gehört. Das ist ein bisschen ein kollektives Arbeitsrecht.
00:43:02: Was soll das denn jetzt? Müssen wir uns das anhören?
00:43:05: Wir versorgen jetzt die Laune und helfen uns vom Kaffee ab.
00:43:07: Genau. Wir versorgen jetzt die Laune. Korrekt. Und genauso bin ich dann auch eingestiegen, dass ich gesagt habe, ich erzähle mal ein bisschen was darüber.
00:43:12: Und dann können die Leute am Ende selber entscheiden, ob es für sie relevant ist.
00:43:15: Und ich glaube, am Ende des Tages wage ich die These aufzustellen. Doch es ist für viele relevant selbst.
00:43:21: Und am Ende des Tages, wenn man keinen Betriebsrat hat und in dem Sinne nicht vom kollektiven Arbeitsrecht direkt betroffen ist,
00:43:27: sind doch viele Punkte drin, die einfach sehr, sehr sinnstifend sind für ein vertrauensvolles Miteinander zwischen Arbeitnehmern und Arbeitgebern.
00:43:35: Unabhängig davon, ob es Gremien gibt oder nicht.
00:43:37: Genau. Also kollektiv Arbeitsrecht sozusagen als Kontrapunkt, als Gegenteil zu dem Individualarbeitsrecht, wo es halt um den Arbeitsvertrag und Kündigung oder Beschäftigungsverhältnisbegründung geht.
00:43:47: Es betrifft die direkte Beziehung eines einzelnen Arbeitnehmers zu seinem Arbeitgeber.
00:43:51: Und das kollektive Arbeitsrecht beschäftigt sich eben einerseits mit Tarifverträgen, also mit Vereinigungen auf Arbeitgeberseite und Arbeitnehmerseite.
00:44:02: Es betrifft die betriebliche Mitbestimmung, die wird meistens ja ausgeübt durch Betriebsräte, die sich in den Unternehmen bilden.
00:44:10: Und am Ende des Tages idealerweise schließt man Betriebsvereinbarungen, die an vielen Stellen doch für sehr, sehr viel Rechtssicherheit sorgen können in dem Verhältnis Arbeitgeber, Arbeitnehmer.
00:44:21: Der Arbeitgeber hat mehr Rechtssicherheit, weil er weiß, bis wohin kann er Widerspruchstreiter einfach mal agieren, ohne sich ständig auseinander zu setzen zu müssen.
00:44:30: Der Arbeitnehmer oder die Arbeitnehmervertretung sorgt dafür, dass sich die Arbeitnehmer mitgenommen fühlen, auch an den Stellen, wo es einfach auch mal um Kommunikation geht.
00:44:39: Obwohl ich die Arbeitgeberseite regle, oder nur Arbeitgeberseiten verteufele, ich betriebsräte überhaupt nicht, denn wenn das gut läuft, kann man eine ganze Menge auch zusammen erreichen.
00:44:50: Das war ja so ein bisschen das Fazit aus dem, was Herr Stephan Brink gerade noch erzählt hat, nach dem Motto "Vieles geht halt nicht einfach ohne Einwilligung, aber Einwilligung einzuholen ist halt mühsam".
00:45:00: Da kann dann in so eine Betriebsvereinbarung helfen.
00:45:03: Jetzt sagst du, naja, ja, kann helfen, was wir schon gesagt haben, und wenn man das vernünftig regelt, das ist dann natürlich fast die Goldlösung, weil dann Rechtssicherheit herrscht, welche Möglichkeiten der Arbeitgeber da hat, ob es wo oder gehen kann.
00:45:18: Jetzt gibt es aber sozusagen noch die, ich will nicht sagen die Kehrseite, aber der andere Weg in die Betriebsvereinbarung, dass es ja sozusagen mitbestimmungspflichtig ist.
00:45:27: Also das ist sozusagen, wenn man der Arbeitgeber aus schon aus arbeitsrechtlicher Sicht, kollektiv-arbeitsrechtlicher Sicht, bestimmte Dinge nicht machen darf, ohne damit in entsprechenden Gräben jengesprochen zu haben.
00:45:37: Das ist völlig richtig, und das ist tatsächlich am Ende des Tages auch der Knackpunkt in dieser ganzen Thematik.
00:45:44: Es gibt das Betriebsverfassungsgesetz, das sieht eine Reihe von Bestimmung vor, wo ein zwingendes Mitbestimmungsrecht, ein zwingendes Informationsrecht, was auch immer, wie auch immer, so an welcher Stelle ausgestaltet ist, aber es gibt eine ganze Menge Vorgaben, die ein Arbeitgeber einfach zu beachten hat.
00:46:02: Und dann kommen wir zur Schnittstelle zu IT und am Ende auch KI.
00:46:06: Es gibt zum Beispiel ein Mitbestimmungsrecht im Bereich der betrieblichen Ordnung.
00:46:10: Es gibt seit dem Betriebsgerät dem Modernisierungsgesetz, es gibt sogar spezifische Vorgaben zu KI, in dem Sinne, wenn Auswahlrichtlinien erarbeitet werden, Mithilfe von KI, dann gibt es ein zwingendes Mitbestimmungsrecht.
00:46:24: Zentrale Vorschrift ist 87 Absatz 1 Nummer 6, Betriebsverfassungsgesetz, wo drin steht, die Einführung von technischen Maßnahmen, soweit sie eine Leistungs- und Verhaltenskontrolle ermöglichen.
00:46:37: Und tatsächlich ist das von den Arbeitsgerichten auch verschärft worden, dahingehend, dass man sagt, naja, die muss es nicht nur ermöglichen, es reicht, wenn sie überhaupt dazu geeignet ist.
00:46:45: Und damit ist man in sehr, sehr vielen Bereichen sehr, sehr schnell, ohne das zu wissen häufig tatsächlich die Arbeitgeber.
00:46:52: Wir haben gestern, ist der Begriff "Shutton Software" gefallen.
00:46:56: Es gibt eine ganze Menge in vielen Betrieben, wo Systeme eingeführt wurden, ohne den Betriebsrat mit einzubeziehen, was aber tatsächlich in dem Fall rechtswidrig ist.
00:47:09: Jetzt als Nicht-Arbeitsrechtler komm ich seit 47 Fragen in den Kopf geschossen.
00:47:13: Ich versuche mal zu sortieren die erste, sicherlich also sozusagen diese Überleistungskontrolle, Überwachungsmöglichkeiten.
00:47:23: Wo fängt das an? Also ist eine Zeiterfassung automatisch? Ist die schon eine Überwachung? Ist die Mitbestimmungspflichtig?
00:47:29: Wir werden ja nicht nur über Videokameras sprechen.
00:47:32: Nein, tatsächlich sind Videokameras, ich glaube da ist es so offensichtlich, dass man überhaupt nicht diskutiert, aber eine Zeiterfassung ganz klar ermöglicht nicht nur Leistungs- und Verhaltenskontrolle, sondern dient ja auch ein Stück weit dazu.
00:47:44: Deswegen muss man das auch nicht alles verteufeln, also auch eine Verhaltenskontrolle kann ja auch was Positives haben. Es gibt Ticketsysteme, es gibt HR-Systeme, wo man sagen kann, naja, wenn man sieht, wie viele Tickets zum Beispiel ein Mitarbeiter bearbeitet in einer bestimmten Zeit,
00:48:01: das sagt ja auch was aus, nicht nur darüber ist er jetzt fleißig oder ist er faul, kann ja auch was darüber aussagen, ist da eine totale Arbeitsüberlastung im Team.
00:48:10: Also das muss ja nicht immer alles nur negativ sein, sondern das ermöglicht ja auch mal ein bisschen Überblick, was ist eigentlich so los in einigen Bereichen.
00:48:17: Aber das sind dann eben die Punkte, wir sind definitiv in der Mitbestimmungspflicht, wo man dann eben wieder durch eine gute und vertrauensvolle Kommunikation den Betriebsrat auch abholen muss.
00:48:27: Manchmal will man die Arbeitnehmer ein Stück weit kontrollieren, überwachen. Auch das ist ja im begrenzten Maße, sofern es fair verläuft, auch legitim.
00:48:35: Haben ja vielleicht auch die Kolleginnen und Kollegen Interesse daran.
00:48:38: Das wollte ich sagen, das kann ja auch nicht sein, dass man Loperformat hat und das geht dann zulasten der restlichen Teammitglieder.
00:48:45: Da muss man dann, muss sich der Betriebsrat dann an der Stelle auch immer fragen, wie ihn will er denn eigentlich schützen.
00:48:50: Diejenigen, die gut mitziehen oder die einen oder die einen, die sagt, ich habe jetzt gerade mal gar keine Lust.
00:48:56: Es ist wirklich immer ein zweischneidiges, wenn wir bei den Tickets, es ist so schön plakativ, es lässt sich an so ein Ticketsystem so schön darstellen.
00:49:04: Wobei, wir kennen ja alle Tickets, ja, es gibt ja auch kleine und große Tickets.
00:49:10: Aber gut, da wird man ja dann nochmal einen extra Blick darauf.
00:49:13: Auf jeden Fall. Diese Betriebsvereinwahrung zu Ticketsystemen sind extrem lang.
00:49:17: Okay, weil die so detailiert sind.
00:49:19: Ja, weil man tatsächlich sagt, na ja gut.
00:49:21: Ja, man darf reingucken. Die Frage ist ja wieder wer guckt rein, der direkte Vorgesetzte des Management.
00:49:26: Das sind alles Zugriffsfragen. Dann darf ich da reingucken, nur im Sinne von Mengenauswertung.
00:49:33: Darf ich da reingucken im Bezug auf Zeit. Darf ich daraus personelle Maßnahmen ableiten?
00:49:41: Das sind alles Fragen, die werden dann geregelt.
00:49:43: Wenn wir jetzt an KI-Systeme oder den Einsatz von KI denken im Unternehmen, was ist da jetzt mitbestimmungspflichtig?
00:49:52: Können wir das so pauschal sagen? Oder welche Beispiele nähern wir uns so?
00:49:57: Es gibt ein ganz spannendes Beispiel, Klassiker ChatGPT. Da gibt es eine Entscheidung tatsächlich von Anfang des Jahres.
00:50:07: Also relativ jung, vom Arbeitsgericht Hamburg.
00:50:09: Die mussten sich auseinandersetzen mit dem Fall, dass ein Arbeitgeber ursprünglich überhaupt nicht wollte,
00:50:15: dass seine Mitarbeiter mit ChatGPT arbeiten. Hat also auch den Browser-Zugriff gesperrt.
00:50:19: War gar nicht abrufbar und hat dann irgendwann für sich erkannt, naja, eigentlich finde ich, ist es ja doch eine ganz gute Idee.
00:50:26: Es erleichtet meinen Mitarbeitern ja auch die Arbeit. Ich will das aber bei mir gar nicht haben,
00:50:30: sondern wenn die eigene Accounts haben oder sich das über den Browser aufrufen, dann sollen sie es bitte tun.
00:50:34: Was ich aber möchte ist, ich will es wissen. Also ich erlasse sozusagen eine Arbeitsanweisung,
00:50:41: bis ich sage, okay, sie müssen angeben, wenn sie damit gearbeitet haben.
00:50:44: Und ich glaube, ein paar Regelungen zum Datenschutz standen da dann auch noch drin, dass man eben nicht die Betriebs- und Geschäftsgeheimnisse,
00:50:50: wenn man da einen Textentwurf da, sorgenfrei, copy-paste mit reinsetzt.
00:50:55: So, daraufhin hat der Betriebsrat gesagt, Moment mal, in dem Moment, wo du hier eine Arbeitsanweisung erlässt,
00:51:02: dann ist das definitiv mal ein Eingriff in die betriebliche Ordnung.
00:51:05: Da dürfen wir auf jeden Fall schon mal mitbestimmen.
00:51:08: Zweitens, GPD, technische Einrichtung.
00:51:12: Wir haben hier auch ein Mitbestimmungsrecht, weil hier eine technische Einrichtung zum Tragen kommt,
00:51:17: die natürlich in dem Sinne dann auch wieder geeignet ist für Leistungs- und Verhaltenskontrollen,
00:51:21: wenn ich den Mitarbeiter verpflichte, zu sagen, ich habe damit gearbeitet.
00:51:24: Okay.
00:51:25: So, das war der Streit. Der Arbeitgeber hat gesagt, nee, sehe ich anders.
00:51:29: Und tatsächlich hat der Arbeitgeber recht bekommen.
00:51:32: Was mehreren Gründen erst mal hat man gesagt, es liegt hier keine Mitbestimmung in dem Sinne erst mal vor,
00:51:38: weil es die betriebliche Ordnung erst mal nicht betrifft, sondern es ist mitbestimmungsfreies Arbeitsverhalten.
00:51:46: Und zentraler Punkt, das ist, glaube ich, mit das Wichtigste.
00:51:49: Es hat ja eben gerade keine Integration von KI auf den IT-System des Arbeitgebers stattgefunden,
00:51:55: sondern es stand den Mitarbeitern völlig frei, das selber aufzurufen.
00:51:58: Also diese Browser-Sperre, die vorher natürlich beim Arbeitgeber vorhanden war, die wurde aufgehoben.
00:52:02: Und das stand den Mitarbeiter total frei, will er es nutzen oder will er es nicht nutzen.
00:52:06: Und dritter zentraler Punkt, der Arbeitgeber hatte hier auch keinerlei Zugriff auf irgendwelche Daten.
00:52:10: Also der konnte gar nichts kontrollieren.
00:52:12: Weder wie lange, in welchem Umfang wurde damit gearbeitet oder sonst was.
00:52:16: Und das hat das Arbeitsgericht sehr klar formuliert und verdeutlicht, das reicht nicht.
00:52:22: Das reicht nicht für eine Mitbestimmung.
00:52:24: Ja.
00:52:25: Ein Stück weit muss der Arbeitnehmer hier auch selber frei sein, das einfach zu entscheiden, wie will ich das machen?
00:52:29: Ich meine, am Ende kann man es vergleichen, mit der eine macht erst mal handschriftliche Notizen,
00:52:33: der andere schreibt gleich los und also ein bisschen einfach Arbeitsverhalten erstmal muss ein Stück weit auch frei bleiben.
00:52:40: Ja, okay.
00:52:41: Wie fragen wir mehr?
00:52:43: Aber auch nur noch einmal, weil es ist für mich und vielleicht die anderen nicht Arbeitsrechtler aufdrängt.
00:52:48: Was heißt denn, wenn es jetzt mitbestimmungspflichtig gewesen wäre?
00:52:51: Was wäre dann passiert?
00:52:52: Also was hätte der Arbeitgeber dann machen müssen?
00:52:54: Also zunächst mal wäre der Betriebsrat damit durchgekommen.
00:52:58: Dass die Einführung mal einfach so unterhätte untersagen können.
00:53:02: Das wäre schon mal Punkt 1 gewesen und dann hätte man eine Abrede darüber treffen müssen,
00:53:07: unter welchen Bedingungen es eventuell doch möglich sein könnte.
00:53:10: Sprich, der hätte das sozusagen untersagen können dem Arbeitgeber und dann sagen können.
00:53:14: Genau, und dann lassen wir uns mal einige sprechen.
00:53:16: In die Goldlösung der Betriebsvereinbarung, im Idealfall, dass wir dann eben bestimmte Maßnahmen festlegen,
00:53:21: unter welchen Bedingungen das an allen Stellen doch möglich gewesen wäre.
00:53:25: Okay.
00:53:26: Also wenn ihr in diesem Podcast bis Folge 62 von mir noch nicht zum Arbeitsrecht gehört habt,
00:53:30: dann heißt das nicht, dass wir das gar nicht machen.
00:53:32: Es heißt nur, dass ich davon keine Ahnung habe.
00:53:34: Aber es ist natürlich ein Riesenthema für Unternehmen, dass sie eben bei jeder Technik,
00:53:40: wenn ich jetzt zwei Sachen würde ich ganz gerne noch ansprechen.
00:53:43: Eine ist KI-Richtlinien und das andere ist Co-Pilot und mitbestimmungspflicht und wie man damit im Unternehmen umgeht.
00:53:52: Ja, KI-Richtlinien, wenn schon ernsthaft Streit darüber entsteht, ob ich sozusagen den Beschäftigten
00:54:00: Vorgaben machen darf, ohne dem Betriebsort zu fragen, was die Nutzung für Chessivitie angeht,
00:54:05: zum Beispiel keine Geschäftsgärmung so hochladen oder sagt mir, wenn ihr es nutzt, damit ich es weiß.
00:54:10: Ja, dann ist ja wahrscheinlich die Aufstellung von KI-Richtlinien erst recht in dem Bereich
00:54:17: oder hat eine hohe Wahrscheinlichkeit, dass es in so einem im Mitbestimmungsbereich liegt, oder?
00:54:21: Ja.
00:54:22: KI-Richtlinien, da sind wir auf jeden Fall in dem Bereich, das wird aber im Moment auch
00:54:26: rauf und runter diskutiert.
00:54:28: Gerade, wie weit reicht das eigentlich?
00:54:30: Wir haben natürlich Bereiche, der AI Act sagt ja zum Beispiel auch sehr, sehr klar, gerade im Personalbereich,
00:54:37: KI-Systeme, die dort eingesetzt werden, Recruiting, Führungskräfte, Fortbildung, was auch immer,
00:54:45: das ist alles hoch im Hochrisiko-Bereich eingeschmuft.
00:54:49: Also beim AI Act, also Artikel 6 und in der Anlage sind eben HR-Systeme da explizit genannt
00:54:54: und da gibt es ja eine ganze Menge Vorgaben, alleine schon, was alles zu beachten ist,
00:54:59: einfach aus dem AI Act und daran wird sich auch in vielen Bereichen jetzt schon orientiert.
00:55:03: Ja.
00:55:04: Sprich die Qualität der Trainingsdaten, Risikomanagement, die menschliche Kontrolle, die immer am Ende
00:55:08: vor einer Entscheidung nochmal zwischengeschaltet sein muss, diese ganzen Aspekte.
00:55:12: Okay, also lerne, wenn ihr euch jetzt KI-Richtlinien gebt, denkt wenigstens mal kurz darüber nach,
00:55:20: ob der nicht den Betriebsrat fragen müsst, damit er nicht anschließend erst mal da auf
00:55:23: Stopp brücken kann und das ganze Projekt sozusagen anhält.
00:55:28: Und da verstehe ich dich so, wie wenn man ein gutes Verhältnis hat zu dem Betriebsrat,
00:55:31: macht es ohne Hinsinnen mit denen vorher zu sprechen und die so von Anfang an ein einzubeziehen.
00:55:35: Auf jeden Fall.
00:55:36: Auf jeden Fall.
00:55:37: Ich bin ein ganz, ganz großer Fan davon, die auch vorzeitig, auch bevor man irgendwas
00:55:39: offiziell da einreicht und sagt so und so, das haben wir vor, dass man schon mal miteinander
00:55:45: redet.
00:55:46: Ja.
00:55:47: Und dann nochmal zurück sozusagen zu den in Anführungs- und Überwachungssystemen.
00:55:50: Also M365 oder dann auch Co-Pilot eingesetzt in einem Unternehmen ist es dann auch immer
00:55:59: mitbestimmungspflichtig, weil ein neues Hofer, die dazu führen kann, dass man weiß, was
00:56:05: die Leute gemacht haben.
00:56:06: Ja.
00:56:07: Kurze Antwort.
00:56:08: Ganz kurz und knapp.
00:56:09: Also ich habe gerade sehr lange mich auch mit M365, mit der Betriebsvereinbarung zu dem
00:56:15: gesamten M365-Paket befasst.
00:56:17: Das hat ewig gedauert, weil wir wirklich jeden einzelnen Schritt, jede einzelne Möglichkeit,
00:56:23: wir haben uns mit Teams auseinandergesetzt, wir haben uns mit allen möglichen und zu jedem
00:56:27: einzelnen haben wir eine gesonderte Regelungsabrede getroffen.
00:56:30: Weil es so umfangreich ist, da kann man dann nur eine RahmenbV schließen und dann lauter
00:56:35: Regelungsabrede druntersetzen und für jedes neue Tool, was da reinkommt.
00:56:38: Also auch diese Microsoft-Newsletter, die werden akribisch studiert von beiden Seiten,
00:56:44: von Betriebsradsseite, aber auch von Arbeitgeberseite, weil man eben sagt, okay, wir sind uns hier
00:56:48: einig, wir wollen das, wir halten das auch an ganz, ganz vielen Stellen für sinnvoll,
00:56:52: weil am Ende macht es die Arbeit für uns alle leichter, aber ja, das Überwachungspotenzial
00:56:56: ist hoch.
00:56:57: Das ist die Regel, die wir uns dann geben, die ...
00:56:59: Und wir geben uns da Regeln.
00:57:01: Stichwort ist immer vertrauensvolle Zusammenarbeit und das muss ich sagen, am Ende des Tages,
00:57:05: denke ich, ist auch das A und O.
00:57:06: Prima mal, Linie, das, was für mich daraus folgt, ist, dass wir unbedingt eine eigene
00:57:13: Folge dazu aufnehmen müssen zu dem Thema Kollektiv, Arbeitsrecht und IT.
00:57:18: Das drängt sich auf, ist aus Sicht der, die nur IT machen, sich unterbelichtet.
00:57:25: Die Arbeitsrechtler, für die ist das sozusagen der liebe Sinnes, aber das haben wir ja auch
00:57:29: in unserer Praxis schon öfter mal erlebt, dass unser Arbeitsrechtsteam da möglicherweise
00:57:33: ein bisschen spät involviert wird, so wie du es gerade gesagt hast.
00:57:37: Am Ende, man hat sich superfühle Gedanken gemacht über den KI-Einsatz und Richtlinien
00:57:41: und so weiter und dann heißt es ja jetzt, wir müssen nur noch den Betriebsrat fragen.
00:57:44: Das passiert dann tatsächlich am Ende des Tages nicht.
00:57:47: Wir haben gerade zum Stichwort Chat-Depitie in einem anderen Beratungsfall das Thema,
00:57:51: dass die das in eine eigene Internet-Chat-Software integriert haben.
00:57:55: Sprich, im Unterschied zu dieser Entscheidung vom Arbeitsgericht Hamburg haben wir das jetzt
00:57:59: plötzlich auf unseren IT-System integriert.
00:58:01: Es gibt trotzdem keinen Datenzugriff, aber da sind wir gerade heiß und diskutieren mit
00:58:04: dem Betriebsrat.
00:58:05: Wie sieht es jetzt aus?
00:58:08: Mitbestimmung ja oder nein?
00:58:10: Super.
00:58:11: Mitbestimmung ja oder nein.
00:58:12: Ihr habt es mitbekommen.
00:58:13: Dazu machen wir nochmal eine gesonderte Folge.
00:58:16: Vielen Dank, dass du jetzt hier noch hergekommen bist.
00:58:19: Sehr gerne.
00:58:20: Und ich nehme weiter, fleißig auf und bis später.
00:58:26: Im Folgenden wird es um Biasis-NKI-Systemen gehen und bei mir sitzt Martin Rarsch.
00:58:33: Hallo.
00:58:34: Ich schon sehr lange kenne.
00:58:35: Hallo, lieber Martin.
00:58:36: Wir haben schon gemeinsam an Mandatenprojekten gearbeitet.
00:58:40: Martin ist Studierter Historiker und Politikwissenschaftler, ein IT-Nerd kann man schon sagen, ohne dass
00:58:46: es dir unangenehm ist, glaube ich.
00:58:47: Ist mir angenehm.
00:58:48: Ist dir angenehm, siehst du, mir auch.
00:58:50: Und wer das nicht glaubt, soll sich mal Folge 11 anhören, weil Martin ist den geübten
00:58:55: und treuen, hören und hören, ein Begriff.
00:58:57: Wir haben nämlich unter dem tollen Titel "We can work it out" zur agilen Projektentwicklung
00:59:02: aufgenommen und in einem solchen agilen Projekt, was am Anfang ja statisch war.
00:59:07: Dank dir, dass etwas agiler wurde, ein DSGVO-Umsetzungprojekt, da haben wir auch uns kennengelernt.
00:59:14: Seit 2017 bist du bei Brainus 4 im Bereich Datenschutz, also schon eine ganze Weile.
00:59:19: Du machst allerlei Dinge, Projektmanagement, Software, Entwicklungsmäßig und Datenschutz.
00:59:25: Und an dieser Schnittstelle hast du auch gerade einen tollen Vortrag gehalten und mit großem
00:59:33: Abstand die meisten Devotionalien ans Speaker-Podium mitgenommen, ein Teppich-Katter.
00:59:38: Das waren Probs, bitte schön.
00:59:40: Das waren Probs, das waren keine Devotionalien.
00:59:42: Eine Zuge Kehle mit Stopp und Go und auch Obst, was da nicht zum Einsatz kam.
00:59:51: Aber je verzerrst du über Bayer's is MKI-System gesprochen und das an einem simplen Beispiel
00:59:55: verdeutlicht und vielleicht erzählst du mal kurz, was du da gemacht hast.
00:59:59: Genau.
01:00:00: Ich habe das großartige Tool "Teachable Machine" von Google vorgestellt, was ein webbasiertes
01:00:07: Browser-Tool ist, das dabei helfen soll, Kindern zu vermitteln, wie KI eigentlich funktioniert.
01:00:13: Und das hat den Vorteil, dass es sehr datensparsam ist, dass es keine Daten an Google funkt oder
01:00:18: irgendwie aus dem Rechner rauskommt.
01:00:21: Das heißt, man kann wirklich lokal mit einem halbwegs leistungsfähigen Computer sich seiner
01:00:25: eigenen Modelle trainieren und mal gucken, was die eigentlich machen.
01:00:28: Und was wir dort konkret gemacht haben, ich habe mich vorne hingestellt und habe quasi
01:00:32: zwei Klassen trainiert, einmal die Klasse Hand gehoben und einmal die Klasse Hand gesenkt.
01:00:38: Und es hat sehr gut funktioniert, beim ersten Anlauf mit einer sehr hohen Wahrscheinlichkeit
01:00:42: hat er erkannt, ich hebe meine Hand oder ich hebe sie eben nicht.
01:00:46: Dann haben wir als Referenzperson Marlene da vorhin hingestellt und geguckt funktioniert
01:00:50: es mit dir auch und es hat nicht mehr so gut funktioniert.
01:00:52: Ein bisschen noch, aber eben absehbar, weil sie sieht anders aus, nicht mehr so gut.
01:00:57: Wobei sie es gegenteil überhauptet hat, aber sie hat auch eine Rechte.
01:01:00: Da sind glaube ich komplett negativ abzunehmen.
01:01:03: Und dann haben wir das System nochmal auf Marlene trainiert und haben gesehen, okay,
01:01:09: die Ausgaben werden jetzt deutlich besser.
01:01:12: Also quasi einmal etwas sozusagen durch die schon offene Tür reingedrückt, Trainingsdaten
01:01:17: müssen möglichst divers sein, möglichst repräsentativ die Gruppe der Personen abbilden,
01:01:23: um die es geht.
01:01:24: Wobei man eben jetzt eine Endgleich 2 Personen als Anzahl hatte, um jetzt daraus ein allgemeines
01:01:30: Modell zu machen, hoch oder runter zu erkennen, bräuchte man wohl ein paar mehr Daten.
01:01:34: Vermutlich, genau.
01:01:35: Und das war auch so ein bisschen die Idee, dass man zu diesem Punkt sozusagen heimbringt,
01:01:38: dass man sagt, es ist für Trainings von, sage ich jetzt mal Industrieanlagen, ist alles
01:01:44: wunderbar, da kann man auch mit kleinen Datenmengen anfangen.
01:01:46: Ich kann ein Beispiel, wo ein Glasunternehmen defektes Glas erkennt und die haben angefangen
01:01:51: mit 150 Bildern von korrekt hergestellten Glas zu trainieren und haben dann halt sehr schnell
01:01:56: eine 90-prozentige Trefferquote bei denen gehabt, wo es nicht funktioniert, aber so
01:02:00: bald man eine Maschine auf biometrische Merkmale trainiert und es ist nun mal ein menschliches
01:02:06: Gesicht oder eine Geste, dann braucht man halt repräsentative Daten und auch in Mengen.
01:02:12: Es reicht halt nicht aus, dass ich ein paar Fotos von Leuten habe, die anders aussehen.
01:02:16: Ich brauche tatsächlich eine relativ ähnliche Anzahl von Samples auch je klasse, wenn ich
01:02:20: es haben möchte.
01:02:21: Richtig, dass man also sozusagen, wenn man viele Daten von vielen Leuten, dass dann
01:02:28: das auch heimlich gleich gewichtet ist, wenn man möchte, dass es gleich gut erkennt.
01:02:31: Genau, das heißt, es ist eine Klasse immer überrepräsentiert.
01:02:34: Wenn ich jetzt die Klassehand oben mit 1000 Bildern und die Klassehand unten mit 100 Bildern
01:02:38: trainiert hätte, dann hätte er häufiger halt die erste Klasse erkannt.
01:02:40: Ja, okay, weil einfach mehr, das finde ich schon ganz wichtig, weil eben dann öfter Hand
01:02:45: oben ist und dann mehr sozusagen Bilder ist einfach gehabt mit Hand oben, die vielleicht
01:02:50: auch abweichen von dem anderen, wo die anderen eigentlich.
01:02:51: Genau, muss gar nichts mit der Hand zu tun haben.
01:02:53: Es kann einfach sein, dass das überrepräsentiert ist und der deshalb eher das erkennt.
01:02:57: Du hast ja auch das schöne Beispiel gehabt, er mag ja dann auch etwas ganz anderes drauf
01:03:01: achten.
01:03:02: Wir heben immer stoisch die Hand und denken, er lachtet darauf, dass die Hand gehoben ist
01:03:05: oder das ist das Beispiel mit den Huskies und den Wölfen.
01:03:07: Wie war das, wo dann die Erkennung daran lag, dass irgendwie Schnee im Hintergrund lag und
01:03:12: das Wölfe...
01:03:13: Weil Wölfe immer im Schnee stehen und Huskies offenbar nicht so oft im Schnee stehen.
01:03:16: Fühlt mich dazu zu der Frage, wie jetzt dieses Beispiel ist ja relativ klar.
01:03:22: Wir hatten auch erstmal sozusagen Nulldaten, dann haben wir sozusagen anhand deiner, oder
01:03:27: für immer du anhand deiner Daten trainiert und dann anschließend von Marlene hoch Hand
01:03:33: runter relativ klar.
01:03:36: Woher weiß ich denn, also nehmen wir mal eine schwarze asiatische Person gekommen, wäre
01:03:42: es vielleicht schon schwierig.
01:03:43: Man leuchtet einfach noch drauf ein, wenn man darüber nachdenkt, aber wie erkennt man
01:03:46: denn solche Beises, woher weiß ich, welche Daten ich denn da sozusagen noch hinzufügen
01:03:55: muss?
01:03:56: Es gibt so drei große Punkte, auf die man achten sollte.
01:03:59: Zum einen ist es eben die Analyse der Trainingsdaten.
01:04:02: Wenn ich ein Modell mir angucke, kann ich mir ja die Trainingsdaten von dem Modellersteller
01:04:06: zeigen lassen und schauen, ob sie die Gruppen, die ich repräsentiert haben möchte, auch
01:04:12: sinnvoll repräsentiert.
01:04:13: Dann die Modelldiagnose, also ich füttere ein bestehendes Modell mit Daten aus bestimmten
01:04:19: Gruppen und finde raus, gibt es Disparate Impact, also gibt es unterschiedliche Auswirkungen
01:04:26: auf die Entscheidung der KI, wenn ich verschiedene Gruppen demalte gebe oder gibt es auch verschiedene
01:04:31: Wahrscheinlichkeiten, dass Personen ausgestortiert werden.
01:04:33: Das ist eben einfach die Diagnose des Modells selbst.
01:04:35: Und dann sehr spannend und noch quasi in den, ich würde sagen in den Kinderschuhen, ist
01:04:41: die Entscheidungen nachvollziehen können, die KI trifft.
01:04:47: Also Entscheidungen erklärbar machen.
01:04:50: Da gibt es großartige Tools, SHAP ist dazu nennen und LIME, die mir zeigen, auf welcher
01:04:56: Grundlage, auf welchen Daten bewertet eigentlich die KI jetzt gerade, dass ich kreditwürdig
01:05:01: bin oder dass ich Diabetes habe oder dass ich die Hand gehoben habe.
01:05:05: Aber kann ich das von außen erkennen oder muss ich sozusagen auf das Modellzugriff
01:05:11: haben?
01:05:12: Also wenn ich jetzt, also Kreditentscheidung, da habe ich ja, weiß ich ja nicht, wenn ich
01:05:15: jetzt der Betroffene bin, wie jetzt meine Bank die Kreditentscheidung getroffen hat, aber
01:05:21: ist es sozusagen ein Tool, was die Bank in der Kreditentscheidung zum Beispiel hernehmen
01:05:25: kann, um zu gucken, okay, wie werden jetzt welche Informationen, die wir dem geben, werden
01:05:29: jetzt tatsächlich verwendet, in welcher Weise.
01:05:31: Das Kredit ist so ein schwieriges Beispiel, weil selbst wenn man dort die Entscheidung
01:05:35: erklärbar macht und sagt, du kriegst diesen Kredit nicht, weil du diese Postleitzahlen
01:05:38: hast und doppelt so alt bist, wie du es sein müsstest, um dein Kredit jemals wieder abzubezahlen.
01:05:45: Wir haben jetzt hier irgendwie, das kann man ja auch noch komplexer machen und dann
01:05:47: hat man sieben oder acht oder fünfzehn Faktoren drin, aber am Ende sagen sie haben auch nichts
01:05:50: darüber, warum man den Kredit nicht bekommen hat.
01:05:52: Ich glaube, man muss immer zu, also bei dem Modell, was ich jetzt hier vorgestellt habe
01:05:58: oder bei diesem Tool, das ich vorgestellt habe, brauchst du immer einen hochkarätigen Zugang
01:06:04: zu dem Modell, weil du bewirst es quasi mit Daten und guckst, was dann zurückkommt.
01:06:08: Das heißt, und das ist eben, also it's not useless, weil es ja gerade um die Ersteller
01:06:13: der Modelle geht.
01:06:14: Es geht ja denen zu helfen, Bayeristes zu erkennen.
01:06:17: Wir wollen ja nicht in eine Regel KI-Modelle bauen, die oder dann Systeme auf Systeme setzen,
01:06:24: die Bayerist sind, sondern, und das war ja mein Ausgangspunkt, woher sehe ich denn überhaupt,
01:06:31: woher weiß ich denn überhaupt, ob was Bayerist ist.
01:06:33: Und ich muss halt nachdenken, vielleicht kann mir da auch die KI helfen, ja mal fragen, worauf
01:06:39: man achten soll.
01:06:40: Aber ich muss mir halt die Klassen schon selber bilden und dann eben erkennen und dann wohl
01:06:43: auch testen.
01:06:44: Ganz wichtig, genau.
01:06:45: Also wir müssen das Modell testen, wir müssen die Trainingsdaten und Umständen auch mit
01:06:49: KI auswerten, um zu gucken, ist da alles mit dabei.
01:06:51: Hattest du gerade, sorry, hat du sogar gerade auch schön gezeigt, dass sozusagen, wenn ich
01:06:56: 100 Bilder hochladen, werden 80 verwendet, um zu trainieren und 20, um zu checken.
01:07:00: Genau, das war ja das zweite, woran man gut erkennen kann oder wo man erst mal ein Anfangsverdacht
01:07:04: entwickeln kann, wie gut ist ein Modell oder wie gut ist eine Hypothese, die dem Modell
01:07:09: zugrunde liegt.
01:07:10: Kriegt es Testbilder, die ich ihm zur Verfügung gestellt habe, gut erkannt und mit welcher
01:07:15: Sicherheit bekommt das erkannt.
01:07:16: Es hilft jetzt nicht, wenn er sagt, er kennt 100 Prozent aller Bilder mit Hand oben.
01:07:20: Wenn die Sicherheit über 50 Prozent liegt, weil dann könnte es auch heißen, dass die
01:07:23: Hand eben gar nicht oben ist.
01:07:25: Wie errechnet dir die Sicherheit?
01:07:27: Das war ja auch gerade in deinem Beispiel, schön zu sehen.
01:07:29: Also die Balken, die dann da ausschlugen, woher, also wie liegt das fest?
01:07:36: Das ist nichts anderes als die Wahrscheinlichkeit bei ChatGPT.
01:07:39: Es ist halt, was ist das wahrscheinliche Ergebnis meiner Parameterinteraktion?
01:07:43: Es ist genau eigentlich das Gleiche wie bei generativer KI, auch nur, dass eben nur
01:07:46: ein Wert ausgegeben wird oder zwei oder wie viel Klassen auch immer anderen hat.
01:07:51: Also auch da sich bewusst sein, dass es eben nur, weil es 51 Prozent ist, Hand oben macht
01:07:56: einen Unterschied, ob er das mit Hand oben mit eben 50/50 Wahrscheinlichkeit erkennt
01:08:01: oder mit 99, wie wir es dann nachher erreicht hat, sozusagen, in dem.
01:08:06: Und wir sprechen hier nicht über ein Tagesworkshop, sondern wir sprechen über, was du in 20 Minuten
01:08:11: eindrucksvoll gezeigt hast.
01:08:12: Wie schnell man so ein System trainieren kann und wie schnell man dann eben auch einen
01:08:17: Bayeris erzeugen kann, wenn man eben, gut, dass es bei zwei Personen jetzt klar ist, wenn
01:08:20: man sie ein bisschen mehr gibt.
01:08:22: So, und dann noch, ja, dann kam dann da schon vereinzelt, wenn auch ehrlicherweise, teils
01:08:28: sehr umpassend die Frage nach dem Datenschutz, ja, wo der, wo irgendwelcher klaut es jetzt
01:08:33: läuft und da kommt es, kam sehr an den Beispielen wirklich nicht an.
01:08:36: Aber es gibt sicherlich Fälle, wo es schwierig ist, mit echt Daten zu arbeiten, deshalb hattest
01:08:42: du aber nicht nur aus, nicht nur aus Datenschutzgründen, schon synthetische Daten ins Spiel gebracht.
01:08:50: Vielleicht erst mal, was sind überhaupt synthetische Daten?
01:08:52: Synthetische Daten sind Daten, die auf Grundlage einer bestimmten Annahme über die Realität,
01:08:58: die so ein Modell erfahren muss, erstellt werden.
01:09:00: Und erst mal keinen Personbezug haben, das ist das Großartige, die sind halt, die sind
01:09:05: halt ohne Personbezug, sie sind billig herzustellen und sie sind in aller Regel auch perfekt gelabelt.
01:09:10: Wenn ich ein gutes Modell habe, was mir den Daten ausgibt, dann weiß ich, was da drin
01:09:13: zu sehen ist.
01:09:14: In deinem Beispiel würde man also Bilder kreieren mit Leuten, die die Hand gehoben haben.
01:09:17: Richtig, das haben wir gemacht eben gerade, ich hab, also die, sozusagen die Creation habe
01:09:20: ich mal eine Nacht durchlaufen lassen, das kann man eben auch mittlerweile auf handelsüblichen
01:09:24: Rechnern einfach so tun, wenn man 1.200 Bilder erzeugt, 600 mit Personen, die die Hand oben
01:09:30: haben und 600, die die Hand unten haben.
01:09:32: Und was wir dann quasi zum Abschluss dieser Veranstaltung nochmal gemacht haben, ist
01:09:36: diese Bilder, die nun wirklich keinerlei Personenbezug haben, in das Modell reinzuwerfen und das Modell
01:09:43: zu trainieren und es hat zwar mit einer kleineren Sicherheit, aber mit einer sehr großen Präzision
01:09:48: erkannt, wenn ich die Hand gehoben habe oder wenn ich die Hand nicht gehoben habe.
01:09:51: Das wird sehr häufig schon eingesetzt, synthetische Daten, vor allen Dingen bei autonomen Fahrsystemen
01:09:57: und in der Robotik allgemein.
01:09:59: Er hat Nvidia eine großartige Welt geschaffen mit Icehiking Sim, wo man wirklich die Roboter
01:10:05: quasi bevor sie das erste Mal ihren Servo Motor einschalten, erst mal ihn beibringen
01:10:10: kann, wie es so ist mit der Gravitation und mit Treppensteichen und dem Ganzen.
01:10:13: Das kann man sich angucken, es ist großartig, was man dann zu sehen bekommt und ein anderes
01:10:17: Simulations, also Blender ist halt auch eine andere Plattform, die wird viel in dem für
01:10:22: autonomen Fahrsystem eingesetzt, da werden dann ganze Städte prozedural generiert, so
01:10:27: dass man ganz sicher sein kann, er hat sich jetzt nicht diese Kreuzung gemerkt, sondern
01:10:30: er kann auf jede beliebige Kreuzung so oder so reagieren, wenn da irgendwie ein Hund davor
01:10:34: läuft.
01:10:35: Und mir läuft es jetzt schon ein, aber so ein ganz bisschen wer jetzt denkt, es ist
01:10:37: nicht ein Zirkelschluss, ich kreiere quasi Bilder mit KI, um dann auf diesen Bildern zu
01:10:42: trainieren.
01:10:43: Warum ist das, warum funktioniert das?
01:10:44: Die Spannskatze quasi, dass man eigentlich etwas fortschreibt.
01:10:47: Naja, man hat eben nicht die Varianz in den echten Daten, die man gerne bei dem Trainieren
01:10:53: eines Modells hätte.
01:10:54: Also es gibt eben nur einen San Francisco mit einer sehr spezifischen Straßenführung,
01:10:58: mit einer sehr spezifischen Straßenbahn, die da vielleicht hochfährt.
01:11:01: Und wenn ich aber ähnliche Situationen oder zukünftige Situationen auch abbilden will,
01:11:05: muss ich da mehr Varianten schaffen.
01:11:07: Okay.
01:11:08: Sehr gut.
01:11:09: Und welche gibt es dort Probleme, die da auftreten können, jetzt auch wieder biasmäßig
01:11:16: oder ist es, kann man sagen, dass es sicherer ist mit synthetischen Daten zu arbeiten, auch
01:11:20: insofern?
01:11:21: Man braucht einen vernünftigen, angemessenen Stock an Realdaten und vernünftige, angemessene
01:11:28: Annahmen, wie sich diese Realdaten variieren könnten.
01:11:31: Das bringt nichts, wenn ich mit meinen Annahmen quasi nur die Stereotypen fortschreibe.
01:11:37: Und du brauchst natürlich auch ein vernünftiges Modell, mit dem so die Daten generieren.
01:11:42: Wenn du jetzt ein Modell, das ich jetzt in unserem Fall gemacht habe, verwendest, das
01:11:46: an öffentlich verfügbaren Internetdaten trainiert wurde, dann bekommst du Schönheitsideale
01:11:53: präsentiert, die vielleicht jetzt nicht repräsentativ für die Realität sind oder du bekommst eben
01:11:59: bestimmte Posen oder bestimmte Artefakte, hat irgendwie immer wieder reingerechnet,
01:12:03: die in diesen Trainingsdaten offenbar überrepräsentiert waren.
01:12:05: Also wenn du so ein synthetische Daten erzeugst.
01:12:07: Das Instagram-Hantheben ist ein anderes als ein Handheben auf dem Straßen.
01:12:10: Das Handheben bei einer Frau ist scheinbar auch was anderes, als das Handheben bei einem
01:12:13: Mann.
01:12:14: Ich brauche Aufmerksamkeiten, bei einer Frau ist es halt signalisiertes sexuelle Bedürftigkeit,
01:12:19: wenn man dem Internet glauben kann.
01:12:20: Und ja, das Ding ist halt, ich muss mir überlegen, mit welchem Modell erstelle ich diese synthetischen
01:12:29: Daten, das darf eben da nicht der Bayes raus tropfen, den ich eigentlich so möchte zu
01:12:33: verhindern.
01:12:34: Genau.
01:12:35: Das ist was ich mit dem Zirkuschluss meinte, das wenn ich sozusagen das Modell, womit ich
01:12:36: diese gehobenen Händelbilder kreiere schon Bayes ist, dann nutze ich es mir am Ende.
01:12:41: Wobei diese Modelle sind sehr generisch.
01:12:44: Stable Diffusion ist ein Grundlagen Ding.
01:12:47: Und wenn ich damit Gesichterstelle, sehen die erst mal nicht gut aus, also habe ich mir
01:12:51: hier was gegriffen, was es ein großer Fieldteil schon gibt, ein so genanter Lora, ein low-rate
01:12:58: Adaptation Model, was quasi konkret auf bestimmte Bildarten trainiert wurde.
01:13:04: Ich kann mir so ein Lora eben auch zurecht trainieren für genau mein Anwendungsfall.
01:13:08: Wenn ich genau weiß, wie ich habe oder wenn ich haben möchte, wenn ich die bestimmten
01:13:11: Körper posen oder was auch immer stimmen, halt irgendwie identifiziert habe, dann kann
01:13:14: ich ohne das System immer komplett neu trainieren zu müssen, quasi was obendrauf packen.
01:13:18: Was dann konkrete und zuverlässigere Ergebnisse hervorruft.
01:13:23: Rack wurde vorhin auch genannt.
01:13:25: Genau.
01:13:26: Ja.
01:13:27: Prima.
01:13:28: So, dann vielleicht als letztes auch nochmal das Thema Anonymisierung und Training von
01:13:37: Engines mit anonymisierten Daten, also Daten, die nicht synthetisch hergestellt worden sind,
01:13:43: sondern quasi auf echten Daten mit Personenbezug basieren, die man da anonymisiert.
01:13:49: Hast du damit Erfahrungen?
01:13:50: Gibt es da Sachen, die man sozusagen besonders beachten muss?
01:13:53: Ich habe die Erfahrung, dass man immer mal den Begriff Anonymisierung im Datenschutzkontext
01:13:59: anbringt.
01:14:00: Man erfährt, es gibt keine echte Anonymisierung.
01:14:02: Ja, okay, okay, das ist natürlich dein Korrekt.
01:14:04: Und deshalb halte ich mich da zurück.
01:14:05: Also, tatsächlich habe ich aus genau diesem Grund, habe ich es noch nie probiert, Daten
01:14:10: so zu anonymisieren.
01:14:11: Man findet es ja in der Praxis, gerade in der Medizinpraxis, wo es die ersten Kliniksysteme
01:14:15: auf den Markt kommen, dass dann eben nur noch die Primerdaten Alter und Geschlecht mitgegeben
01:14:20: werden, weil das sind die Sachen, die tatsächlich relevant sind für das Modell.
01:14:25: Aber dann geht es dann vor allen Dingen an, dass das Modell eben vernünftige Parameter
01:14:29: einsetzt, die eine Anonymisierung überhaupt ermöglichen.
01:14:32: Ja, genau.
01:14:33: Also, ich hatte ein Beispiel, also manchmal ist es ja nicht verhindern, dass da Daten mit
01:14:37: Personenbezug sind.
01:14:38: Das macht es auch schwierig, auf synthetischen Daten so trainieren.
01:14:41: Ja, wir haben einen Fall, wo wir Eingangspost erkannt werden sollen und das trainiert man
01:14:47: dann mit der Eingangspost der letzten drei Monate dieses Unternehmens, also natürlich
01:14:50: personbezogene Daten drin und dann war die ja aussergen, naja, wir können die ja anonymisieren,
01:14:54: dann schwärzt man halt die E-Mail-Adresse, ja, plus dann ...
01:14:58: Das freut sich jede KI.
01:14:59: Genau, das ist wie mit den Wölfen.
01:15:01: Ja, wenn der Schwarze Balken hier ist, dann ist es so und schreibt, wenn der Schwarze
01:15:05: Balken da ist, so und schreibt, weil der natürlich viel mehr auffällt auf so einem Schreiben.
01:15:08: Das heißt, da haben uns die Techniker gesagt, das sei dann nicht mehr gutbrauchbar.
01:15:12: Data Poisoning.
01:15:13: Data Poisoning.
01:15:14: Darüber können wir auch nochmal ein Podcast machen.
01:15:16: Ja, vielen Dank, einerseits dafür, dass du hier warst, aber auch einerseits für deinen
01:15:23: tollen Vortrag zu den Biases, wie man sie leicht kreiert und wie man vielleicht ein bisschen
01:15:28: awareness schafft, auch unter den ganzen anwesenden Bankern, Online-Unternehmen, Automobilzulieferern,
01:15:34: ja, was man alles falsch machen kann, woran man vielleicht denken.
01:15:37: So, vielen Dank Martin.
01:15:39: Herzlich gerne.
01:15:40: Wir kommen zum Ende des KI-Tages und damit auch von Folge 62 von Herting FM, der Podcast
01:15:49: für Recht Technologie und Medien, was ich jetzt hier mal wieder zwischendurch einstreuen
01:15:52: möchte.
01:15:53: Und bei mir sitzt mal wieder, möchte ich fast sagen, mein Kollege Fabian Reinholtz.
01:15:58: Hallo, lieber Fabian.
01:15:59: Hallo Martin, freu mich.
01:16:01: Den meisten von euch treuen zuhören, denn ist Fabian bekannt.
01:16:04: Er war zuletzt hier in Folge 58 mit dem schönen Titel "Killing Me Softly" und auch da ging's
01:16:10: um KI, und zwar um KI und Urheberrecht.
01:16:13: Und ich will nicht sagen, du hättest dann den Podcast zweitverwertet heute beim KI-Tag,
01:16:21: aber das Thema ist schon ziemlich ähnlich, oder?
01:16:23: Ja, es ist immer noch "Killing Me Softly" jedenfalls.
01:16:26: Es ist Überraschung, es hat sich jetzt in drei Wochen nicht so viel getan.
01:16:30: Ja, Fabian ist Partner bei uns im Team IP, beschäftigt sich vor allem mit Überraschung,
01:16:37: Intellectual Property, mit dem Markenrecht, aber auch dem Urheberrecht und darum soll's
01:16:41: uns heute gehen.
01:16:42: Du hast gesprochen über, was das Urheberrecht eigentlich sagt, zu KI und hast sich ein bisschen
01:16:49: entlang gehangelt an den verschiedenen Phasen bei der Nutzung von KI und vielleicht springen
01:16:56: wir da einfach mal rein und du sagst mir, ob das Training von KI-Systemen oder Modellen
01:17:04: Urheberrecht verletzen kann und wovon es abhängt.
01:17:08: Genau, das ist jetzt momentan scheinbar auch die kontroversesten diskutierte Frage.
01:17:15: Da vielleicht noch mal ganz kurz Hintergrund ist, weil die entgegenstehenden Interessen
01:17:22: wirklich so eklatant miteinander kollidieren, nämlich der KI-Industrie, wenn man so will,
01:17:28: und die der wirtschaftenden Künstler-Verlage, Medienhäuser und so weiter.
01:17:35: Warum?
01:17:36: Weil sich die wirtschaftenden, weil ihre wirtschaftenden darüber frustriert sind, dass ihre Werke zum
01:17:45: Training der KI hergenommen werden, ohne dass sie dafür irgendwie vergütet werden oder
01:17:50: eine Wertschaffungskette, die dann danach folgt, teilnehmen, weil die KI-Modelle oder KI-Systeme,
01:17:56: die daraus entstehen, die sind dann ja auch größtenteils kommerziell in der Natur.
01:17:59: Das kann man dann nachvollziehen, dass das frustrierend ist.
01:18:02: Und sozusagen der Effekt entsteht, dass man dann dadurch am Ende die wirtschaftenden,
01:18:08: wenn sie die KI selber nutzen, die eigene Werkschöpfung wieder zurückkaufen müssen.
01:18:15: Und hinzukommt, dass sie auch noch befürchten müssen, dass ihnen die KI irgendwann die Arbeit
01:18:20: abnimmt.
01:18:21: So, das ist dieses Spannungsfeld.
01:18:23: Dementsprechend besteht Streit darüber, ob die durch das Reinhauen von urheberrechtlich
01:18:31: geschützten Werken, Bildantexter, Videos eine urheberrechtswidrige Handlung stattfindet,
01:18:37: die erlaubnis- und vergütungspflichtig ist.
01:18:40: Und...
01:18:41: Es wird da ganz kurz eingehakt.
01:18:42: Urheberrecht ist ja relativ streng, was man darf, was man nicht darf, wo sozusagen dieses
01:18:45: Monopolrecht des Urhebers greift.
01:18:48: Es gibt halt nur ein paar, die im Gesetz stehen.
01:18:51: Die Verfielfältigung ist wohl das, was hier am meisten eine Rolle spielt.
01:18:54: Also die Kopie.
01:18:55: Genau.
01:18:56: Wurde eine Kopie abgelegt vor der Nutzung, vor der Trainingsnutzung, wohl relativ klar.
01:19:03: Also wenn, wenn da massenhaft Dateninformationen, die urheberrechtlich geschützend eingesammelt
01:19:08: werden, dann werden die mit Sicherheit erstmal irgendwo abgelegt und gesammelt, kurz oder
01:19:13: längerfristig.
01:19:14: Das ist in jedem Fall eine Verfielfältigung.
01:19:17: Und was danach im Inneren der KI im Training geschieht, ist ehrlich gesagt immer noch ein
01:19:24: bisschen dunkel fällt und deswegen stark umstritten, ob das eigentlich eine Verfielfältigung ist.
01:19:30: Warum?
01:19:31: Weil man herkömmlicherweise unter Verfielfältigung versteht, dass eine Kopie eines Werkes irgendwo
01:19:37: abgelegt wird, damit sie entweder unmittelbar oder später nochmal auf Abruf und dem Hand
01:19:43: abwahrnehmbar gemacht werden kann, dass man sich das wieder aufrufen kann.
01:19:47: Und das passiert halt in der KI nicht.
01:19:49: Da kann es ja nicht einfach ran gehen und sagen, ich will jetzt das und das nochmal
01:19:52: haben oder nochmal sehen.
01:19:53: Geht nicht.
01:19:54: Hängt, also ist aber auch passiert so.
01:19:57: Und das sind sozusagen die, so ein bisschen die Argumente derjenigen, die sagen, das ist
01:20:02: auf jeden Fall eine Verfielfältigung.
01:20:04: Weil ab und zu passiert es eben schon, dass du auf Abruf, dass die KI auf Abruf etwas
01:20:12: ausspuckt, was identisch ist mit einem vorbestehenden Werk.
01:20:15: Texte zum Beispiel.
01:20:16: Erstes Kapitel von Harry Potter.
01:20:18: Würf mir das mal aus.
01:20:19: So.
01:20:20: "Uterstellte seine Urwärtsverletzung.
01:20:23: Wie können also das Training sozusagen das Reinkippen von Daten und in dem Fall urwärtsgeschützten
01:20:30: Werken, wie können die sich noch retten, die sozusagen Trainierenden?"
01:20:36: Genau, das ist ja der zweite größere Diskussionspunkt an der Stelle.
01:20:42: Es gibt nämlich das Urheberrecht sieht, so genannte Schranken vor, also quasi Erlaubnestatbestände,
01:20:50: die den Nutzer von Werken vom urheberrechtlichen Verbot freistellen.
01:20:55: Also das darfst du halt machen, wie so Privatkopie, Schrange kennt man auch oder panoramafreiheit.
01:21:00: Haben wir vorge- 59-Mitrober-Golds gesprochen, genau, zu den Drohnenfotos und so, da ging's
01:21:08: relativ intensiv um die Schranken.
01:21:10: Genau, also das Urheberrecht ist natürlich auch so ein bisschen Interessen ausgerichtet
01:21:14: und will den Urheber sozusagen nicht das vollständige Monopol an den Werken überlassen.
01:21:19: Und deswegen gibt es diese Schranken und eine vermeintliche einschlägige Schrange hier
01:21:24: bei der KI-Nutzung ist die, das Text- und Datameining.
01:21:27: Und das geht auf EU-recht zurück und ist 2019 ins Gesetz gekommen.
01:21:34: Was heißt das?
01:21:35: Das erlaubt quasi das massenhafte Sammeln von Daten und Informationen, die dann urheberrechtlich
01:21:40: geschützt sein können, zu dem Zweck, die man miteinander zusammenzuführen und daraus
01:21:45: irgendwelche Rückschlüsse, Schlussfolgerungen zu ziehen, Korrelationen zu entdecken und
01:21:50: so weiter.
01:21:51: Und da geht jetzt der, also das passt so ein bisschen schon auf KI, weil die Effekte oder
01:21:59: die Ideen sind ja ähnlich.
01:22:01: Aber die Kritiker daran sagen, naja, das ist schon was anderes, wenn ich da sozusagen
01:22:10: die kompletten Werke reinkippe, die ja gegebenenfalls auch wieder abgerufen werden können, als wenn
01:22:15: ich da jetzt nur die Informationen, also irgendwelche Informationen daraus gewinnen will, dass ich
01:22:19: Werke miteinander verknüpfe.
01:22:21: Und deswegen kommt von Kritiker Seite eben der Einwurf, das kann dann nicht einschläge
01:22:29: sein.
01:22:30: Das ist nicht so richtig.
01:22:31: Und sie ist, es hört so, wie du es jetzt beschrieben hast, hört sich ja schon ziemlich passend
01:22:34: an, aber sie ist eben nicht gemünzt auf KI, 2019 hört sich ja schon an, das wäre ja sehr
01:22:39: weitsichtig, zumal die Richtlinie ja noch ein bisschen älter ist.
01:22:46: Also, was ist der eigentlich Hintergrund dieser Schranke sozusagen?
01:22:52: Naja, das ist Big Data eigentlich, das ist der Hintergrund.
01:22:56: Und tatsächlich ist man sich natürlich nicht ganz einig darüber, ob der Gesetzgeber jetzt
01:23:01: damals schon die KI im Blick hatte oder nicht.
01:23:04: Also der AI-Agg, aber der ist halt erst 24 in Kraft getreten, der nimmt ja witzigerweise
01:23:11: in den Erwägungsgründen unter anderem Bezug auf die Text- und Datameining-Schranke, also
01:23:16: der setzt die im Prinzip voraus als Institut, was auf die KI-Nutzung passt.
01:23:22: Aber das wäre sozusagen vom Ende gedacht und auf den Anfang gemünzt.
01:23:29: Tatsächlich ist bei der Text- und Datameining-Schranke, so wie ich das mitbekommen habe, von KI
01:23:34: nicht viel die Rede gewesen.
01:23:36: Also, allenfalls im Trilog, irgendwie ist das, glaube ich, dann mal angesprochen worden.
01:23:41: Ja, jetzt hast du schon den AI-Agg genannt, es würde ja auch naheliegen oder aus Sicht
01:23:48: derjenigen, die KI-Modelle trainieren wollen, hätte man sich ja vielleicht gewünscht im
01:23:53: AI-Agg steht dazu was.
01:23:55: Also sozusagen eine detailliere Ausformung der TDM-Schranke für KI, tut es aber nicht.
01:24:03: Genau, also auch ganz bewusst nicht, weil Brüssel eben die Regelung des Urheberrechts den nationalen
01:24:10: Gesetzen vorbehalten lassen wollte bzw. reguliert ist es ja dann schon immer durch die EU des
01:24:17: Urheberrechts, aber jedenfalls nicht den AI-Agg als geeignetes Regulativ angesehen hat, um
01:24:22: da jetzt die urheberrechtlichen Fragen zu regeln.
01:24:25: Deswegen wird das auch nicht passieren mit großer Wahrscheinlichkeit, da wird in den
01:24:28: AI-Agg nichts reinkommen.
01:24:29: Sondern es wird dabei bleiben, dass der AI-Agg dann vielleicht auch in Form von so delegierten
01:24:35: Rechtsakten ein bisschen Tipps gibt dazu, was man vielleicht machen muss, um Nutzungsvorbehalte
01:24:47: richtig umzusetzen, technisch gesehen oder irgendwie die Transparenz und Dokumentationspflichten
01:24:54: nochmal so ein bisschen zu erläutern.
01:24:56: Genau, also AI-Agg ist da keine große Hilfe, so ähnlich wie es Herr Fuchs am Anfang dieser
01:25:01: Folge schon gesagt hat beim Datenschutz.
01:25:03: Es gibt halt keine Rechtsgrundlage im Datenschutz, um AI-Agg um Daten zu verarbeiten mit Personbezug
01:25:10: und so ist es jetzt hier auch, hilft uns eigentlich nicht.
01:25:13: Und es gilt das allgemeine Recht.
01:25:15: Jetzt haben wir in Folge 58 schon relativ ausführlich gesprochen über einen Urteil aus Hamburg,
01:25:22: Landgericht Hamburg, den sogenannten Lionfall.
01:25:24: Vielleicht kannst du den mal nochmal in ein, zwei Sätzen zusammenfassen und dann können
01:25:29: wir vielleicht auf die neue Klage eingehen, die es ja seitdem gegeben hat.
01:25:33: Also Landgericht Hamburg ist jetzt bei Lichte betrachtet nicht so wirklich hilfreich bei
01:25:37: der Frage.
01:25:38: Vor allem ist die TDM-Schranke einschlägig oder nicht, weil darauf haben alle so ein bisschen
01:25:42: gewartet.
01:25:43: Weil der Fall, den Landgericht Hamburg hat, der gibt es nicht so richtig her.
01:25:49: Da ging es um Datensammlungen, bei denen ein Foto verwendet wurde, das gehört ja dem
01:25:55: Pläger.
01:25:56: Und diese Datensammlungen, die waren aber erst mal nur zu dem Zweck gemacht worden, um
01:26:03: eine Datenbank zu erstellen, in der Fotos mit bestimmten Daten verknüppt werden.
01:26:10: Also zum Beispiel, wer ist der Fotografer und wann ist das aufgenommen worden und wo
01:26:14: und so weiter.
01:26:15: Mehr erst mal nicht.
01:26:16: Und diese Datenbanken, die stellt Lyon aber Anbietern von KI-Modellen zur Verfügung,
01:26:22: um die zu trainieren.
01:26:23: Nur war jetzt dieses Trainieren von KI-Modellen dann gewissermaßen eben nicht der Sachverhalt,
01:26:29: den das Gericht beurteilen musste, sondern das, was davor passiert.
01:26:32: Und was macht natürlich so ein Gericht dann?
01:26:33: Die müssen ja nicht mehr tun, als sie ...
01:26:36: Sollen sie ja vielleicht doch nur ihren Sachverhalt entscheiden?
01:26:39: Ja, genau.
01:26:40: Und haben deswegen gesagt, das müssen wir jetzt nicht entscheiden, was mit den Daten
01:26:43: dann nachher im Training passiert.
01:26:44: Sondern wir müssen nur entscheiden, ob die Datenbank-Erstellung in Ordnung war.
01:26:49: Und da haben sie gesagt, ich kann den Datenmeiningen schon gar kein Problem sehen.
01:26:52: So und insofern ist das ein Fall, der einfach noch viele Fragen offen lässt.
01:27:00: Der Rauf und Runter zitiert wird und international große Aufsehen auch erzeugt hat, aber eigentlich
01:27:07: nicht so furchtbar weiterhilft.
01:27:09: Möglicherweise weiter hilft da, ich glaube, zwei Tage nach unserer Aufnahme herausgekommen
01:27:16: oder bekannt gewordene Klage der GEMA in München, wenn ich richtig inneren Erinnerung habe,
01:27:22: was passiert da?
01:27:23: Also wie es ausgeht, wissen wir ja noch nicht, aber was hat die GEMA da berichtet?
01:27:27: Ja, ehrlich gesagt, jetzt auch nicht so viel.
01:27:30: Also die haben Klage gegen Open AI-Engerecht vom Landgericht München.
01:27:35: Ganz offensichtlich geht es auch um die Frage, ob das trainieren.
01:27:38: Also, mit Werken, wo die GEMA die Rechte wahrnimmt, die verletzt.
01:27:47: Also welche Fragen sind mir da so aufgefallen, die problematisch sein könnten?
01:27:54: Es wird um die Frage gehen, ist die Text- und Datameining-Schranke einschlägig?
01:27:58: Und zwar die Text- und Datameining-Schranke in ihrer kommerziellen Ausformung.
01:28:03: Es gibt ja zwei, einmal für die Wissenschaft und einmal für die Kommerzielle.
01:28:07: Und diese kommerzielle Schranke sieht ein sogenanntes Opt-Out vor.
01:28:11: Das heißt, der Urheber kann im Zusammenhang mit seinen Werken auf Webseiten, zum Beispiel,
01:28:16: wo Bilder abgebildet sind oder Texte oder Musik Nutzungsvorbehalt reinschreiben und sagen,
01:28:21: ich möchte das nicht.
01:28:22: Und dann kann sich der KI-Anwender auch auf diese Schranke nicht berufen.
01:28:26: Die GEMA hat zum Beispiel diesen Nutzungsvorbehalt in ihre eigenen Seiten integriert, offensichtlich.
01:28:34: Und dann stellt sich die spannende Frage, ist der dann aber wirksam?
01:28:37: Die GEMA ist zwar Rechterinhaber, aber sie vertreibt die Werke ja nicht.
01:28:43: Das heißt, kannst du sozusagen als Wahrnehmungsgesellschaft dann für alle Werke, wo du die rechte Wahrnehmens
01:28:52: diesen Nutzungsvorbehalt erklären.
01:28:54: Das lässt sich aus dem Gesetz nicht beantworten.
01:28:57: Und die zweite spannende Frage ist, warum eigentlich Klage beim Landgericht München?
01:29:04: Das Urheberrecht ist ja, da gilt ja territorial die Tätzprinzip.
01:29:08: Also es ist immer nur disrecht einschlägig und nur dort ein Gericht stand, wo die vermeintliche
01:29:12: Rechtsverletzung stattfindet.
01:29:14: Bei OpenAI die müssen dann schon irgendwie hier Server hier in Deutschland haben, dass
01:29:18: das funktioniert.
01:29:19: Das hat die GEMA jetzt aber auch nicht erklärt, wie sie auf den Grunde kommen.
01:29:23: Das kann sein, dass wir da auch keine Antwort bekommen, sondern dass das Landgericht München
01:29:28: sich für nicht zuständig hält oder die Klage aus formalen Erwägungen abweist und sagt,
01:29:35: ja, eine Urheberverletzung hier ist hier was gar nicht, hat gar nicht stattgefunden.
01:29:39: Wobei man ja die Verletzung würde ja auf das Data-Mining abzielen, also sozusagen das
01:29:45: Klauen der Inhalte.
01:29:46: Ob dann könnten sie vielleicht sagen, dass es im Internet passiert und es bei uns passiert.
01:29:50: Auch bei uns passiert.
01:29:51: Es gibt noch eine andere Möglichkeit, die ist jetzt ein bisschen spezieller, was auch
01:29:56: vertreten wird.
01:29:57: Das ist aber eine Mindermeinung, dass letztlich das Anbieten einer KI für die Öffentlichkeit
01:30:07: zur Nutzung eine öffentliche Zugänglichmachung der darin enthaltenen Werke darstellt.
01:30:13: Okay.
01:30:14: Gut, der kommt jetzt hoch.
01:30:15: Nur eins wollte ich noch ganz kurz erwähnen.
01:30:17: Ja, Fabian hat die beiden Schranken angesprochen.
01:30:20: Ich habe es gerade nochmal nachgeschlagen, damit ich nichts Falsches sage.
01:30:24: Also 60D ist die für die Wissenschaft und Forschung.
01:30:28: Darum ging es ja auch bei Lyon.
01:30:30: Und der 44B ist die Schranke, die kommerzielle, um die es dann jetzt hier bei der GEMA geht.
01:30:36: So, jetzt haben wir schon nicht so lange wieder einen Vortrag, aber doch schon einige Zeit
01:30:40: verbracht damit.
01:30:43: Vielleicht noch ein Satz zu der Frage, um das ja auch geht, verletzt jetzt der Output-Rechte?
01:30:49: Genau, da gibt es im Prinzip zwei Antworten drauf oder zwei Sachverhalte.
01:30:55: Der erste ist, ich kriege ein Output gewollt oder nicht gewollt, der identisch oder nahezu
01:31:02: identisch ist mit einem vorbestehenden Werk.
01:31:04: Wenn ich das weiter verbreite, dann ist das eine Urheberrechtsverletzung.
01:31:08: Und da geht dann auch keine Schranke mehr.
01:31:11: Aber unwahrscheinlich, ne?
01:31:12: Also, dass die KI das genauso zaubert, dann müsste ich es schon ziemlich drauf anlegen.
01:31:16: So hast du es in dem Fall in Folge 58.
01:31:19: Ja, genau.
01:31:20: Also, es ist ja nicht ausgeschlossen, dass das mal passiert.
01:31:23: Da ist man aber natürlich auch so ein bisschen selber für verantwortlich.
01:31:26: Also, wenn man es drauf angelegt hat und dann das Ergebnis auch noch sehr ähnlich ist und
01:31:29: das dann auch noch verwendet, selbst schuld.
01:31:32: Ja.
01:31:33: Die andere ganz spannende, auch etwas dogomatisch gelagerte Frage ist, ob denn eigentlich der
01:31:42: Output deswegen auch rechtsverletzend ist, weil schon der Input eine rechtsverletzende
01:31:46: Handlung darstellt.
01:31:47: Also, sprich, wenn es denn so ist.
01:31:48: Genau.
01:31:49: Wenn man darauf käme, dass das Training mit Werken eine Urheberrechtsverletzung darstellt,
01:31:53: ist dann automatisch der Output auch infiziert von dieser Rechtsverletzung, Stichwort Fruit
01:31:59: of the Poisonous Tree, Doktrain, was aus den feinlichen Staaten kommt.
01:32:02: Das, also, den würde ich mich jetzt eher nicht anschließen.
01:32:08: Ist aber ganz interessant, dass zum Beispiel die GEMA und dann im nächsten Jahr wahrscheinlich
01:32:14: auch die VG-Wort bereits Lizenzen vergeben für KI-Training und diese Lizenzen sowohl
01:32:23: für den Input als auch für den Output.
01:32:25: Okay.
01:32:26: Da schließt sich jetzt auch wieder ein Kreis zum Anfang der Folge mit Herrn Fuchs aus Hamburg,
01:32:31: der ja auch gesagt hat, ist sozusagen die Tatsache, dass wenn man sie auf den Standpunkt
01:32:36: stellt, dass Training würde Datenschutz eine Datenschutzverletzung sein, das dann aber
01:32:44: nicht dazu führt, dass die ja auch der Output möglicherweise dann datenschutzwidrig ist
01:32:48: und so ähnlich würde ich das jetzt hier fürs Oberrecht auch so sehen, wobei es hier vielleicht
01:32:52: nicht ganz so eindeutig ist und man da auch anderer Meinung sein kann.
01:32:55: So, prima.
01:32:56: Jetzt wird durch deinen Talk durchgerauscht.
01:32:59: Ich empfehle nochmal die Folge 58 für den oder die, die sich da jetzt ein bisschen vertiefter
01:33:03: noch mit beschäftigen möchte und das noch ein bisschen genauer hören möchte.
01:33:06: Nach dir hat jetzt noch gesprochen der Dr.
01:33:11: Till Prömmel von der, leider der IP-Rechtsabteilung bei der Bundesdruckerei und der hat ein spannendes
01:33:17: Thema gehabt, wie ich fand, nämlich Patente und KI und mit dem konnten wir jetzt nicht
01:33:23: mehr sprechen, aber vielleicht auch da nochmal drei Sätze zum Patentschutz für KI.
01:33:28: Was hast du da mitgenommen?
01:33:31: Also er hat im Prinzip das auf zwei Fragen fokussiert, nämlich das eine, ob eine KI,
01:33:38: ein KI-Modell überhaupt patentfähig ist, ob man Patentschutz drauf bekommt und das
01:33:45: zweite ist, wer denn eigentlich Erfinder sein kann.
01:33:48: Die KI selbst oder muss das eine natürliche Person sein, bzw. diejenige, dann die KI bedient
01:33:55: hat in dem Fall.
01:33:56: Und bei der ersten Frage war seine Antwort relativ klar, dass grundsätzlich kann man
01:34:03: darauf Patentschutz bekommen.
01:34:04: Es ist natürlich so, dass KI im Wesentlichen Software ist und Software ist eigentlich nicht
01:34:09: patentfähig.
01:34:10: Früher oder später müssen wir eine Folge mal zu Softwarepatenten machen.
01:34:13: Aber nicht mit mir bitte.
01:34:16: Ja, also jedenfalls, das weiß ich allerdings auch, also Software ist nicht patentfähig,
01:34:23: ist sich auch dem Gesetz ziemlich eindeutig entnehmen.
01:34:26: Man kann es aber schon schützen, indem man das dann kombiniert mit anderen Verfahrenselementen.
01:34:33: Also in dem sozusagen die Software nur Bestandteil des ganzen Patents ist.
01:34:37: Und da sagte er, dass das bei einer KI eben genauso möglich ist, um es jetzt mal ganz
01:34:44: kurz zu machen.
01:34:45: Und sich aber natürlich so ein bisschen die Frage stellt, das möchte ich vielleicht
01:34:51: noch erwähnen, ob das Sinn macht.
01:34:53: Weil Patentschutz bedeutet erstmal das Lüstenberg an Kosten aus.
01:34:57: Das kann sich jetzt auch nicht jeder so ohne Weiteres leisten.
01:35:00: Und die Frage stellt sich, brauche ich das Patent wirklich, also brauche ich diesen langjährigen
01:35:06: Patentschutz, wenn doch die Technik relativ schnelllebig ist.
01:35:09: Muss man sich also gut überlegen.
01:35:11: Und die zweite Frage, wer ist Erfinder, hat in Deutschland jedenfalls der BGH schon
01:35:18: beantwortet, hat gesagt, die KI kann nicht Erfinder sein, sondern das kann nur ein Mensch
01:35:27: sein.
01:35:28: Und im Zweifel gibt es dann eben keine Erfindung, wenn es nur die KI war.
01:35:34: Und das ist so ein bisschen ähnlich gelagert, scheint es zu sein, wie bei der Frage zum
01:35:38: Urheberrecht, wer ist eigentlich Urheber, kann die KI-Uheber sein oder der Mensch, da heißt
01:35:44: es ja auch, geht nicht.
01:35:46: Also kein Urheerschutz.
01:35:47: Aber auch da scheint man sich dem Thema so ein bisschen anzunähern, dass je nachdem,
01:35:52: welchen Einfluss der Bediener der KI auf das Ergebnis hat, dass dann vielleicht irgendwie
01:35:58: eine Mitte Urheber schafft oder so sein kann.
01:36:01: Prima, ja, danke auch für die Zusammenfassung hier noch zur später Stunde und nach einem
01:36:08: wirklich sehr vollen Tag.
01:36:10: Ja, unser KI-Tag ist zu Ende und zugleich Folge 62 von Herdinger FM der Podcast für Recht
01:36:16: Technologie und Medien.
01:36:18: Wir hatten jetzt also in dieser Folge die Datenschutzteil, haben nochmal den Vortrag von Martin
01:36:25: Raj zu den Biases Revue passieren lassen und jetzt zum Schluss die spannenden Fragen
01:36:30: zum Urheberrecht besprochen.
01:36:32: Ja, wer aus irgendwelchen komischen Gründen diese Folge gehört hat, aber unsere erste
01:36:37: Folge zu dem KI-Tag bei Herdinger Rechtsanwälte in 2024 nicht, der sollte bis nochmal nachhören.
01:36:43: Das lohnt sich, der geht es unter anderem um den AI-Act und um KI-Gewerndensprojekte.
01:36:48: Ja, ich wünsche ein gutes ausklingendes Jahr 2024.
01:36:54: Ich bedanke mich bei Fabian, dass er hier war und mit mir den Schlussakord hier gesetzt
01:36:59: hat.
01:37:00: Gerne, gerne.
01:37:01: Und ja, ich glaube, ich habe noch gar nicht so ganz entschieden, ob es dieses Jahr noch
01:37:04: eine Folge gibt.
01:37:05: Derzeit ist nichts im Planung, wie immer sinnvoll zu abonnieren, um da nichts zu verpassen,
01:37:11: wenn es weitergeht.
01:37:12: Ich hoffe, ich bin bis bald.
01:37:13: Ciao, ciao.
01:37:15: Ciao.
01:37:16: * Musik *
01:37:19: * Musik *
01:37:22: * Musik *
01:37:47: * Musik *
01:38:16: * Musik *
01:38:41: Danke fürs zuschauen.