MMR-Aktuell 2021, 439289
3. RAILS-Konferenz: IT-Sicherheit: Künstliche Intelligenz und smarte Robotik
Christina Luthe ist studentische Hilfskraft am Institut für Geistiges Eigentum, Datenschutz und Informationstechnologie an der Ruhr-Universität Bochum. Hannes Bastians ist studentische Hilfskraft an der Juniorprofessur für Bürgerliches Recht im digitalen Zeitalter bei Jun.-Prof. Dr. Frank Rosenkranz an der Ruhr-Universität Bochum.
Am 11.3.2021 fand die 3. Robotics & Al Law Society (RAILS)-Konferenz zum Generalthema „IT-Sicherheit: Künstliche Intelligenz und smarte Robotik“ statt. Die Veranstaltung wurde vom Institut für Geistiges Eigentum, Datenschutz und Informationstechnologie (IGEDI) der Juristischen Fakultät der Ruhr-Universität Bochum und dem Center for Advanced Internet Studies (CAIS) mitausgerichtet. Ziel der Tagung war eine umfassende Behandlung der technischen, ethischen und rechtlichen Rahmenbedingungen von Aspekten der IT- und Cyber-Security im Zusammenhang mit Ausprägungen Künstlicher Intelligenz und robotischen Systemen. Dafür traten RAILS-, IGEDI- und CAIS- Vertreter*innen aus den Bereichen der Ethik, der Informationstechnologie, der Psychologie und den Rechtswissenschaften zusammen.
Begrüßt wurden die Teilnehmenden von Prof. Dr. Björn Steinrötter, Juniorprofessor (Tenure Track) für IT-Recht und Medienrecht an der Universität Potsdam und Stellv. Vorsitzender von RAILS, sowie von Prof. Dr. Frank Rosenkranz, Juniorprofessor für Bürgerliches Recht im digitalen Zeitalter an der Ruhr-Universität Bochum und Geschäftsführender Direktor des IGEDI.
Die Tagung begann mit einem Vortrag von Prof. Dr. Judith Simon zum Thema „Ethische Fragen der Cybersicherheit“. Simon ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Sie erörterte die grundlegenden ethischen Fragen in Bezug auf Informationstechnologie. Dabei behandelte Simon den ethischen Unterschied zwischen den Begriffen „Gut“ und „Böse“ und aus welchen Gründen der Mensch etwas in diese Kategorien einzuordnen versuche. Anschließend ging Simon auf den Zusammenhang dieser Einordnung zur Computerethik ein und erläuterte, die Computerethik könne beispielhaft aus drei verschiedenen ethischen Perspektiven betrachtet werden:
- Die Ethik der IT-Profession im Allgemeinen sehe, ähnlich wie andere Professionen, z.B. die der Medizin, bestimmte ungeschriebene Grundsätze und Richtlinien vor, welche sich vorrangig an Designer*innen und Entwickler*innen von IT richte.
- Die Ethik der Nutzung richte den Blick auf die Nutzer*innen der Informationstechnologie. Dabei ginge es einerseits um das Verhalten der Nutzer*innen und welche Grenzen für dieses bestehen, andererseits um die Frage der ethischen Rechtfertigung und Einordnung der Verarbeitung von Nutzerdaten.
- Die Ethik des Designs frage schließlich danach, ob Technologien isoliert moralisch bewertet werden könnten, ohne sich dabei mit der konkreten Nutzung der IT zu beschäftigen.
Das erste Panel, geleitet durch den wissenschaftlichen Direktor des CAIS Prof. Dr. Michael Baumann, eröffnete Prof. Dr. Thorsten Holz, Inhaber des Lehrstuhls für Systemsicherheit an der Ruhr-Universität Bochum, mit seinem Vortrag „Maschinelles Lernen und IT-Sicherheit – Bestandsaufnahme und Lösungsansätze“. Zum Einstieg erläuterte Holz den Begriff des „maschinellen Lernens“ und den der „Computer Security“. In seinem Beitrag brachte er den Teilnehmenden auf verständliche Weise die Entwicklung der Bild-Klassifikation, der maschinellen (Sprach)-Übersetzung und des „Reinforcement-Learning“ näher. In diesem Zusammenhang thematisierte Holz zunächst die Funktionsweise eines Computeralgorithmus beim Erstellen eines fotorealistischen Bilds. Den Teilnehmenden wurden Bilder von existierenden und nicht-existierenden, durch ein Programm erstellten Personen im Vergleich präsentiert, um die heutigen Möglichkeiten der Erzeugung unechter Bilder eindrucksvoll zu veranschaulichen. Des Weiteren erläuterte er mit Blick auf die IT-Sicherheit denkbare Angriffsmöglichkeiten auf KI-Systeme und deren Algorithmen. Danach behandelte er die Entwicklung der Sprachübersetzungsfunktionen, welche mittlerweile nahezu in Echtzeit ablaufen könnten. Im Bereich „Reinforcement Learning“ ging Holz darauf ein, wie der Computer über einen gewissen Zeitraum lernt, bestimmte Handlungen vorzunehmen.
Den zweiten Vortrag hielt Dr. Sven Herpig, Leiter für „internationale Cyber-Sicherheitspolitik“ bei der Stiftung Neue Verantwortung. Sein Beitrag „Maschinelles Lernen als Angriffsobjekt“ vertiefte den von Holz bereits im Überblick angesprochenen „Security-Aspekt“. Herpig erläuterte dabei zunächst, in welchen „safety-kritischen“ Bereichen maschinelles Lernen grundsätzlich Anwendung finden könne. Der große, sich stetig erweiternde Anwendungsbereich des maschinellen Lernens reiche hier z.B. von Gesichtserkennung in Überwachungssystemen über nachrichtendienstliche Zwecke bis hin zu militärischer Entscheidungsfindung und Steuerung militärischer Systeme. Anschließend skizzierte Herpig, wie Angriffe auf maschinelles Lernen in der Theorie ablaufen können, um dann einige Praxisbeispiele zu nennen. Zuletzt ging er auf die Sicherheitsherausforderungen des Einsatzes von maschinellem Lernen in „kritischen“ Bereichen ein und gab abschließend Empfehlungen zur Risikominimierung beim Einsatz des maschinellen Lernens.
Hierauf folgte Rafael Fedler, Senior Security Analyst bei der NSIDE ATTACK LOGIC GmbH, mit einem Vortrag zu „Robotik und IT-Sicherheit“. Er gab zu Anfang einen Überblick über die derzeitige, seiner Ansicht nach, exponentiell steigende Relevanz der Robotik sowie deren Fähigkeiten und Einsatzmöglichkeiten. Im Anschluss thematisierte Fedler verschiedenste Angriffsmöglichkeiten auf Roboter im Allgemeinen, indem er Beispiele aus der Vergangenheit wie auch potenzieller Angriffsszenarien in der Zukunft nannte. Im Anschluss ging Fedler im Detail auf die verschiedenen Angriffspunkte wie Hardware, Software oder Ökosystem und ihre jeweiligen systemischen Sicherheitsprobleme ein. Zum Ende seines Beitrags stellte Fedler die Verteidigungsmöglichkeiten gegen solche Angriffe dar und beschrieb eingehend, auf welche Faktoren es für eine effektive Verteidigung ankomme, bevor er zum Abschluss noch ein Fazit zog. Hierbei stellte er insbesondere klar, dass Roboter schwieriger zu schützen seien als klassische IT-Systeme und die IT-Sicherheit in der Robotik durch Normen und Standards bisher stark vernachlässigt werde.
Es folgte ein Beitrag zum Thema „IT-Sicherheit aus rechtspsychologischer Perspektive“ von RAin Cara Warmuth, Mitarbeiterin am Institut für Rechtsinformatik in Hannover. Warmuth erläuterte, dass für eine gut funktionierende IT-Sicherheit und ein gut funktionierendes IT-Sicherheitsrecht ein Verständnis der verschiedenen psychologischen Zusammenhänge, die beim Menschen im Bereich der IT-Sicherheit wirken, von hoher Bedeutung sei. Warmuth stellte die These auf, dass KI zwar helfe, menschliche Defizite zu kompensieren, KI aus psychologischer Sicht jedoch auch neue Risiken eröffne. Insbesondere sei die häufigste Schwachstelle in der IT nicht der Computer, sondern der Mensch. Im Anschluss griff sie drei Anwendungsfelder für das Wirken auf Psychologie und IT-Sicherheit heraus und ging näher auf diese ein:
- Das erste Feld betraf den Bereich von Unternehmen und Mitarbeiter*innen und ihrem Wissen gegenüber den IT-Sicherheitsbedrohungen von außen.
- Der zweite Bereich behandelte das psychologische Verhältnis vom Unternehmen gegenüber den Kund*innen, wobei sich vor allem die Frage stellen ließe, wie sich ein Verstoß gegen IT- sicherheitsrechtliche Vorschriften durch das Unternehmen bei Kund*innen und anderen Vertragspartner*innen auswirke.
- Der letzte Anwendungsbereich betraf das Verhältnis zwischen Unternehmen und Mitarbeiter*innen gegenüber Gerichten. Hierbei behandelte Warmuth vor allem die gerichtliche und behördliche Kontrolle in Haftungsfragen, z.B. mit Blick darauf, ob und wann Unternehmen angemessene und organisatorische Vorkehrungen zur Vermeidung von Störungen ihrer IT- Systeme getroffen haben. Abschließend bot Warmuth einen Ausblick auf die möglicherweise zu erwartenden Veränderungen durch Künstliche Intelligenz und smarte Robotik in Bezug auf die Angriffsprävention durch KI, die KI als Angriffsziel sowie Angriffe durch KI.
Das zweite Panel, geleitet durch Prof. Dr. Jürgen Taeger, startete nach einer Diskussionsrunde und einer kurzen Pause mit dem Referat „IT-Sicherheit im Länder- und Rechtsvergleich“ von Dr. Dennis-Kenji Kipker, Wissenschaftlicher Geschäftsführer des Instituts für Informations-, Gesundheits- und Medizinrecht (IGMR) an der Universität Bremen und Vorstand der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID) in Berlin. In seinem Vortrag legte er besonders den Fortschritt der Künstlichen Intelligenz in der IT-Sicherheit dar. Die IT-Sicherheitsregulierung sei weltweit in den Fokus der Gesetzgeber gerückt. Dennoch stellte Kipker ein Defizit in konkreter Rechtsetzung im Kontext der KI und IT-Sicherheit fest und thematisierte zunächst die deutsche und europäische Rechtslage. Anschließend gab er einen Überblick über die Rechtslage in den USA und der Volksrepublik China und unterstützte seine Ausführungen jeweils mit Beispielen. Abschließend stellte Kipker in seinem Fazit die These auf, die staatliche Regulierung von KI und IT-Sicherheit befinde sich global weitgehend im Anfangsstadium und das Recht folge den Risiken, die sich aus der fortschreitenden Entwicklung ergäben, nicht andersherum. Insgesamt sehe er eine Chance für den EU-Gesetzgeber eine – momentan noch nicht vorhandene – transparente, rechtssichere und einheitliche KI-(Sicherheits)Gesetzgebung zu schaffen.
Im Anschluss referierte Steven Ritter, Referatsleiter Bundesamt für Sicherheit in der Informationstechnik (BSI), über „Das deutsche IT-Sicherheitsrecht und Anforderungen an KI-Systeme sowie smarte Robotik“. Ritter ging dabei zunächst auf die Vorteile und Nachteile des Einsatzes von Künstlicher Intelligenz und smarter Robotik im Alltag ein sowie insbesondere die Risiken, die durch Manipulation und Überlistung dieser Robotik eintreten könnten. Im Anschluss widmete Ritter sich der Frage, wo die Sicherheit smarter Robotik überhaupt geregelt sei. Er kam dabei zu dem Ergebnis, dass praktisch keine explizite Regelung zur IT-Sicherheit existiere, sondern vielmehr fast ausschließlich nur mittelbar über Verkehrs- oder Sorgfaltspflichten in generellen, nicht speziell auf KI zugeschnittenen, Normen auf den „Stand der Technik“ abgestellt werde. Anforderungen an KI-Systeme seien also in der Regel nur über diesen „Stand der Technik“ konkretisierbar.
Dr. Andreas Sattler, Akademischer Rat a.Z. am Lehrstuhl für Bürgerliches Recht, Recht des Geistigen Eigentums und Wettbewerbsrecht an der Ludwig-Maximilians-Universität München, referierte nach einer Mittagspause zu den „Vorgaben der DS-GVO zur IT-Sicherheit“. Dabei erläuterte Sattler, welche Ausgangslage sich nach den Regelungen der DS-GVO ergäbe. Sattler stellte im Einzelnen die Ziele und Zielkonflikte im Datenschutz- und IT-Sicherheitsrecht vor. Anhand des Grundsatzes der Datenminimierung (insbesondere Art. 5 Abs. 1 lit. c DS-GVO) einerseits sowie anhand der Verfügbarkeit von Daten bzw. IT-Systemen (§§ 2 Abs. 2, 8a Abs. 1 BSIG) andererseits, ließen sich etwa die kollidierenden Ziele zwischen Datenschutz und IT-Sicherheit aufzeigen. Es bestünde jedoch insoweit partielle Zielkonformität, als es in Art. 32 Abs. 1 lit. a DS-GVO um Integrität und in § 2 Abs. 2 BSIG um Unversehrtheit von Informationssystemen gehe. Als „Brückennorm“ zwischen Datenschutz und IT-Sicherheit fungiere Art. 32 DS-GVO. Diese, sich auf die Sicherheit der Datenverarbeitung beziehende Norm stünde jedoch regelmäßig im Zielkonflikt mit der Rechtmäßigkeit einer Datenverarbeitung i.S.d. Art. 6 ff. DS-GVO.
Es folgte der Beitrag „Durchsetzung von Vorgaben zur IT-Sicherheit“ von Prof. Dr. Thomas Riehm,Inhaber des Lehrstuhls für Deutsches und Europäisches Privatrecht, Zivilverfahrensrecht und Rechtstheorie an der Universität Passau. Riehm untersuchte in seinem Beitrag die verschiedenen Durchsetzungsmechanismen des IT-Sicherheitsrechts im Hinblick auf ihre Eignung zur Erhöhung des IT-Sicherheitsniveaus in Deutschland. Diese Durchsetzung erfolge auf verschiedenen Ebenen. Zunächst könne eine Durchsetzung durch die Behörden stattfinden. Zuständige Behörden überwachten die Maßnahmen privater Akteure zur Sicherung der IT-Sicherheit und würden bei Bedarf präventiv im Wege behördlicher Anordnungen (Verwaltungsakte) oder repressiv durch Bußgeldbescheide tätig. Riehm nannte in diesem Zug u.a. die Durchsetzung der Vorgaben des BSI-Gesetzes sowie die Durchsetzung der Vorgaben des Kreditwesensgesetzes als Beispiele. Im nächsten Schritt erläuterte er Durchsetzungsmechanismen für die Vorgaben der DS-GVO und der des Energiewirtschaftsgesetzes. Des Weiteren behandelte er die vertrags- und haftungsrechtliche Durchsetzung der Vorschriften zur IT-Sicherheit durch private Vertragspartner oder Geschädigte, soweit diesen durch die IT-Sicherheitsverstöße unmittelbar Nachteile entstünden. Dabei thematisierte er vor allem Individualrechte aus Verbraucherschutzvorschriften. Die materiellen Anforderungen des IT-Sicherheitsrechts könnten zur Ausfüllung von vertrags- und haftungsrechtlichen Generalklauseln in vielen Gebieten des Zivilrechts herangezogen werden. Beispiele dafür seien z.B. der kauf-, werk- und mietvertragliche Mängelbegriff, der produkthaftungsrechtliche Fehlerbegriff, die Konkretisierung von deliktsrechtlichen Verkehrssicherungspflichten und viele mehr. Dazu bestätigte Riehm, dass die Generalklauseln zwar keine konkrete Sicherheitsanforderung enthalten würden. Dennoch beziehe sich eine solche Klausel jeweils auf die berechtigten Sicherheitserwartungen des Verkehrs.
Den Abschluss des zweiten Panels bildete Prof. Dr. Sebastian Golla, Juniorprofessor (Tenure Track) für Kriminologie, Strafrecht und Sicherheitsforschung im digitalen Zeitalter an der Ruhr-Universität Bochum, mit seinem Vortrag über „Künstliche Intelligenz, IT-Sicherheit und das Strafrecht“. Golla gewährte einen umfassenden Überblick über das (Konflikt-)Verhältnis von IT-Sicherheit und dem Strafrecht im Allgemeinen. Er stellte fest, dass IT-Sicherheitsrecht und Strafrecht in gewisser Weise im Konflikt zueinander stünden. Zwar sei die IT-Sicherheit Grundbaustein für den Schutz anderer Rechtsgüter im Strafrecht, jedoch sei das IT-Strafrecht von problematischen Merkmalen geprägt, denn das StGB verlagere die Strafbarkeit häufig weit nach vorne, wie in §§ 202a und 202c StGB zu sehen sei, die bereits das Zugänglichmachen von Daten unter Strafe stellen. Im Anschluss benannte er verschiedene Anwendungsszenarien, bei der Künstliche Intelligenz auf das Strafrecht trifft. Golla erwähnte dabei auch die Vorteile der Nutzung Künstlicher Intelligenz bei der Aufklärung von Straftaten. Künstliche Intelligenz könne präventiv bei der Strafermittlung und repressiv bei der Strafverfolgung unterstützen. Golla machte deutlich, dass die Bedeutung der KI als Hilfs- aber auch als Angriffsmittel stetig steige. Auf Grund dieser immer höheren Relevanz auch im Strafrecht, sei daher das IT-Strafrecht dringend reformbedürftig, um dem technischen Entwicklungsstand gerecht werden zu können.
Das dritte und letzte Panel leitete Prof. Dr. Isabelle Wildhaber, Ordinaria für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen. Hier referierte zunächst Dr. Dimitrios Linardatos, Akademischer Rat a.Z. am Lehrstuhl für Bürgerliches Recht, Bank- und Kapitalmarktrecht und Insolvenzrecht an der Universität Mannheim, zur Thematik „Gewährleistungsrechte bei IT-Sicherheitsmängeln“. Er konzentrierte seine Untersuchungen auf softwareseitige IT-Sicherheitsmängel im Unternehmerbereich, da in diesem Bereich der Einsatz von KI wesentlich häufiger als im Verbraucherverkehr sei. Linardatos skizzierte zunächst die möglichen Vertragstypen und EDV-Lösungen. Nachdem er kurz auf die Vor- und Nachteile des Kaufvertragsrechts im Gegensatz zum Werkvertragsrecht eingegangen war, diskutierte er, wann ein IT-Sicherheitsmangel ein Mangel i.S.v. § 633 BGB sein könne. Besonderes Augenmerk legte er dabei darauf, wann und inwieweit der Stand der Technik hierfür an Relevanz gewinnen könne. Im Anschluss thematisierte er noch den Zeitpunkt des Gefahrübergangs und stellte klar, dass seines Erachtens sowohl im Werk- als auch im Kaufvertragsrecht ein sog. „Billigungselement“ vorliegen müsse. Zum Abschluss stellte Linardatos zusammenfassend vier Thesen auf:
- Der technische IT-Fehlerbegriff sei nicht mit dem gewährleistungsrechtlichen Mangelbegriff gleichzusetzen,
- die Mangelhaftigkeit bei EDV-Systemen sei grundsätzlich komponentenbezogen zu bestimmen,
- der Gefahrübergang im Kauf- wie auch im Werkvertragsrecht sei von einer Billigung der dargebotenen Leistung abhängig und
- die gesetzlichen Stufen des Mangelbegriffs sollen unterhalb der Beschaffenheitsvereinbarung der typisierten Äquivalenzvereinbarung i.S.e. ergänzenden Vertragsauslegung Geltung verschaffen.
Nach einer kurzen Pause folgte Prof. Dr. Renate Schaub, Inhaberin des Lehrstuhls für Bürgerliches Recht, Internationales Privatrecht und Rechtsvergleichung, Handels- und Wirtschaftsrecht an der Ruhr-Universität Bochum, mit ihrem Vortrag über „Außervertragliche Haftung bei der Verletzung von IT-Sicherheitsstandards“. Schaub skizzierte zunächst die möglichen Folgen der Verletzung von IT-Sicherheitsstandards. Anschließend zeigte sie insbesondere die möglichen Anspruchsverpflichteten auf. Da Außenstehende nur schwer zu ermitteln seien und Nutzer*innen meist unverschuldet handelten, lag ihr Fokus auf Betreibern und Herstellern von IT. Weiter erläuterte Schaub die verschiedenen in Betracht zu ziehenden Haftungsregime, gefolgt von einer eingehenden Betrachtung der speziellen Fragen der Haftung bei KI und smarter Robotik. Schwierigkeiten ergäben sich insbesondere aus der Konnektivität und Datenabhängigkeit, Autonomie und Offenheit, Komplexität, Opazität und der Langfristigkeit von Weiterentwicklungen. Zum Abschluss stellte sie die von ihr gezogenen Konsequenzen de lege ferenda dar.
Anschließend referierte Prof. Dr. Linda Kuschel, Juniorprofessorin (Tenure Track) für Bürgerliches Recht, Immaterialgüterrecht sowie Recht der Digitalisierung an der Bucerius Law School in Hamburg über „Urheberrechtliche Aspekte der IT-Sicherheit“. Im ersten Abschnitt zeigte Kuschel, inwieweit das Urheberrecht zur IT-Sicherheit beitragen kann. Da Daten Werke i.S.d. UrhG enthalten könnten, bestehe zwar ein Überschneidungsbereich. Dieser, und damit einhergehend auch der urheberrechtliche Schutz von IT-Systemen, sei aber eher gering. Zu beachten seien ebenfalls die unterschiedlichen Schutzrichtungen beider Bereiche. Der zweite Abschnitt, welcher die Hemmnisse des Urheberrechts für die IT-Sicherheit behandelte, war laut Kuschel umfangreicher. Das liege insbesondere daran, dass Methoden zur Verbesserung der IT-Sicherheit von Computerprogrammen in der Regel urheberrechtlichen Schranken unterlägen, was dazu führe, dass eine Zustimmung des Rechtsinhabers erforderlich sei. Eine Privilegierung für IT-Sicherheitsforschung sei in den maßgeblichen urheberrechtlichen Vorschriften (noch) nicht vorgesehen, aber wünschenswert. Diese dysfunktionalen Effekte ließen sich aber größtenteils durch Open Source Software oder Vulnerability Disclosure Policies, bei denen über Teilnahmebedingungen eine Erlaubnis zur Vornahme urheberrechtsrelevanter Handlungen erteilt und/oder eine Art „Kopfgeld“ auf das Finden von Sicherheitslücken ausgesetzt wird, abmildern. Zuletzt ging Kuschel auf die urheberrechtlichen Anreize für mehr IT-Sicherheit ein.
Nach einer Diskussion endete das Panel und Prof. Dr. Martin Ebers, Professor für IT-Recht an der Universität Tatu und Vorstandsvorsitzender von RAILS, verlieh den RAILS Student Paper Award. Er lobte die große Bandbreite der eingegangenen Beiträge und zeichnete anschließend Cecil Yongo Abungu, zurzeit Research Affiliate am Legal Priorities Project in Cambridge (Massachusetts), für seinen Beitrag „Democratic culture and the development of artificial intellegence in the united states and china“ aus. Abungu erläuterte im Anschluss die wesentlichen Thesen und Ergebnisse seiner Arbeit. Er diskutierte insbesondere die These, dass die USA im „Wettkampf“ um die Entwicklung von KI mit China deswegen einen Nachteil habe, weil sie eine andere demokratische Kultur vorweise als China. Er komme aber nach einer Analyse von zahlreichen Fallstudien zu der Einschätzung, dass ein solcher Vorteil für China wahrscheinlich gar nicht vorhanden, jedenfalls aber vernachlässigbar sei.
Zum Abschluss der Veranstaltung wies Ebers auf einige neue Projekte und Veranstaltungen von RAILS (www.ai-laws.org) hin und bedankte sich schließlich bei allen Referent*innen, Teilnehmer*innen und Unterstützer*innen. Die 3. RAILS-Konferenz war ein voller Erfolg und zeigte erneut, dass KI und Robotik in mehr (IT-sicherheitsrechtlichen) Bereichen steigende Relevanz erlangt haben, als man es auf den ersten Blick möglicherweise denken mag. Insgesamt eine, nicht nur auf Grund ihrer Interdisziplinarität, für alle Beteiligten lehrreiche, informative und spannende Konferenz. Viele der Beiträge wird man im bald erscheinenden Sammelband Ebers/Steinrötter (Hrsg.), Künstliche Intelligenz und smarte Robotik im IT-Sicherheitsrecht (Nomos) nachlesen können.