{"id":4460,"date":"2019-10-31T14:53:34","date_gmt":"2019-10-31T12:53:34","guid":{"rendered":"https:\/\/sites.hslu.ch\/applied-data-science\/?p=4460"},"modified":"2022-01-26T14:09:46","modified_gmt":"2022-01-26T12:09:46","slug":"ai-vor-gericht","status":"publish","type":"post","link":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/","title":{"rendered":"AI vor Gericht: Schuldig oder nicht?"},"content":{"rendered":"\n<p>Es ist ein Fall, der auch hierzulande f\u00fcr viel Aufregung gesorgt hat: Im Mai 2016 hat sich im US-Bundesstaat Florida erstmals eine Kollision mit einem hochautomatisierten Auto ereignet. Der Insasse des Fahrzeugs der Marke Tesla kam bei der Kollision mit einem Lastwagen ums Leben. Nun stellt sich die Frage, wer bei solchen Unf\u00e4llen die Verantwortung tr\u00e4gt (Henkel, 2016). <\/p>\n\n\n\n<p>Ein weiteres Beispiel f\u00fcr das Versagen von derartigen halb- bzw. hochautomatisierten Systemen ist der t\u00f6dliche Unfall mit einem Fahrzeug der Firma Uber im M\u00e4rz 2018. Das Auto kollidierte zu sp\u00e4ter Stunde mit einer Fahrradfahrerin, welche die Strasse abseits eines Fussg\u00e4ngerstreifens \u00fcberquerte. Obwohl das Auto selbstfahrend unterwegs war, sass zum Zeitpunkt des Unfalls eine Frau hinter dem Steuer. Diese sogenannte Sicherheitsfahrerin war jedoch zu wenig aufmerksam und realisierte zu sp\u00e4t, dass das Fahrzeug die Fahrradfahrerin nicht als Hindernis einstufte (Hebermehl &amp; Stegmaier, 2018).<\/p>\n\n\n\n<p>Dieser Blogtext schildert anhand von Beispielen, in welchen Situationen Menschen mit Artificial Intelligence (AI) in Kontakt kommen und wer im Schadensfalle daf\u00fcr haften muss oder sollte. Ein Professor f\u00fcr Maschinenethik und ein Experte f\u00fcr Recht im digitalen Zeitalter \u00e4ussern sich zu m\u00f6glichen Haftungsmodellen zur Schuldfrage sowie ethischen wie auch rechtlichen Herausforderungen im Zusammenhang mit der zunehmenden Verbreitung artifizieller Systeme. Ziel des Artikels ist, den LeserInnen verschiedene Denkanst\u00f6sse zu bieten und etwas zur Sensibilisierung dieses heutzutage omnipr\u00e4senten Themas beizutragen.<\/p>\n\n\n\n<div class=\"wp-block-button aligncenter\"><a class=\"wp-block-button__link has-background\" href=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/studium\/master\/applied-information-and-data-science\/\" target=\"_blank\" rel=\"noopener noreferrer\">Erfahren Sie alles zum MSc in Applied Information and Data Science<\/a><\/div>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>Haftungsmodelle: Wer tr\u00e4gt die Schuld?<\/strong><\/p>\n\n\n\n<p>Der schnelle technologische Fortschritt k\u00f6nnte Anpassungen der rechtlichen Grundlagen erfordern. Aktuell werden daher verschiedene Haftungsmodelle zu k\u00fcnstlicher Intelligenz diskutiert und verglichen. Ein m\u00f6gliches Beispiel w\u00e4re, AI als Naturgewalt anzusehen. F\u00fcr Prof. Dr. Oliver Bendel von der Fachhochschule Nordwestschweiz ist dies jedoch kein sinnvoller L\u00f6sungsansatz. Als Dozent f\u00fcr Maschinenethik hat er sich ausgiebig mit der Thematik um autonome Systeme (im Besonderen auch autonome Fahrzeuge) und den damit zusammenh\u00e4ngenden Herausforderungen besch\u00e4ftigt. W\u00fcrde ein Unfall dieser Art als Naturereignis eingestuft, so k\u00e4me dies der Denkweise gleich, das gelegentliche Sterben von Menschen in solchen Situationen als normal zu erachten. Frei nach dem Motto &#8220;Es kann nicht beeinflusst werden und ab und zu wird es Opfer geben&#8221;.<\/p>\n\n\n\n<figure class=\"wp-block-embed aligncenter is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"AI vor Gericht\" width=\"640\" height=\"360\" src=\"https:\/\/www.youtube.com\/embed\/9t-AUiXz8Xc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Oliver Bendel stuft diese Vorstellung als zynisch ein. Speziell im Bereich des autonomen Fahrens sieht er eine m\u00f6gliche L\u00f6sung des Problems darin, selbstfahrende Autos nur im daf\u00fcr geeigneten Umfeld einzusetzen. Konkret schl\u00e4gt er daf\u00fcr vor allem die Autobahn vor, da gerade dort aufgrund der fehlenden Einflussfaktoren wie Fussg\u00e4nger oder Fahrradfahrer das autonome Fahren viel sicherer gestaltet werden kann.<\/p>\n\n\n\n<p>Ein weiterer Aspekt, der gegen die Naturereignis-Idee spricht, ist die Tatsache, dass autonome Systeme schliesslich Produkte von Entwicklern sind. Auch Dr. Philip C. Hanke, Verlagsleiter bei Weblaw und Experte f\u00fcr Rechts-, Volkswirtschafts- und Politikwissenschaft, ist dieser Meinung.<\/p>\n\n\n\n<p>Er vertritt die Ansicht, dass mit zunehmender Autonomie von Systemen die Verantwortung der Hersteller w\u00e4chst und diese daher in vern\u00fcnftigem Mass f\u00fcr ihre entwickelten Systeme haften sollten. Die Auslagerung dieser Verantwortung, beispielsweise an eine speziell daf\u00fcr geschaffene elektronische Pers\u00f6nlichkeit, schaffe am Ende mehr Probleme, als dass sie welche l\u00f6sen w\u00fcrde. Aktuell wird der Hersteller eines Produkts f\u00fcr Design- oder Produktionsfehler belangt. Bei Unf\u00e4llen, die sich bei der Verwendung des Produkts ereignen, haftet hingegen in der Regel der Konsument. Bei einem solchen Haftungsmodell w\u00fcrden sich Autobesitzer aber zu Recht fragen, warum sie \u00fcberhaupt ein selbstfahrendes Auto kaufen sollten, wenn sie als Fahrzeuginsasse letzten Endes f\u00fcr jegliche Zwischenf\u00e4lle die Verantwortung tr\u00fcgen.<\/p>\n\n\n\n<p>Das Rechtssystem m\u00fcsse hier korrekte Anreize schaffen, um diese Bedenken zu beseitigen. Ansonsten w\u00fcrden die Menschen in Zukunft gar nicht die Vorz\u00fcge des autonomen Fahrens geniessen k\u00f6nnen. Es mache wenig Sinn, dass der Insasse eines komplett autonomen Fahrzeugs, das \u00fcber kein Lenkrad und keine Pedale verf\u00fcgt, die Schuld an einem Unfall tragen soll. Dies wiederum w\u00fcrde auch seitens der Hersteller Bestrebungen verst\u00e4rken, sicherere Systeme zu entwickeln. Schlussendlich sollte die Haftungsfrage aber immer ber\u00fccksichtigen, wer zum Zeitpunkt eines Unfalls in der besten Position war, diesen zu verhindern. Gerade bei selbstfahrenden Autos spielt die Unterteilung in die Faktoren teilautonom und vollautonom eine wichtige Rolle. Beim erw\u00e4hnten t\u00f6dlichen Unfall von Tesla steuerte der Autopilot das Fahrzeug zum Zeitpunkt des Unfalls. Der Fahrer w\u00e4re jedoch jederzeit in der Lage gewesen, wieder die volle Kontrolle zu \u00fcbernehmen.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote has-text-align-center is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>&#8220;Die Aktionen von autonomen Systemen sind keine Naturereignisse, sie sind das pure Gegenteil.&#8221;<\/p><cite>Prof. Dr. Oliver Bendel<\/cite><\/blockquote>\n\n\n\n<p>Wie aus&nbsp; Internet-Videos hervorgeht, sind die Lenker eines solchen teilautonomen Fahrzeugs leider viel zu oft unvorsichtig (SRF, 2019). Nach Meinung von Oliver Bendel w\u00fcrden die Fahrer in solchen Situationen mitverantwortlich f\u00fcr ein Verkehrsungl\u00fcck sein, da sie sich zu stark h\u00e4tten ablenken lassen. Der Fahrzeughersteller h\u00e4tte hier aus rechtlicher Sicht wohl keinen Fehler begangen. Prof. Dr. Bendel betont jedoch, dass hinsichtlich rechtlicher und ethischer Perspektiven unterschieden werden k\u00f6nne. Aus ethischer Sicht k\u00f6nne durchaus auch der Hersteller zur Verantwortung gezogen werden.<\/p>\n\n\n\n<p>Denn Firmen wie Tesla oder Uber w\u00fcrden technisch noch nicht ausgereifte Autos auf den Markt bringen. Zuletzt sieht Prof. Dr. Oliver Bendel neben Lenker und Hersteller von autonomen Fahrzeugen einen Teil der Verantwortung auch beim Staat. Die Gesetze der USA beispielsweise seien zu locker und w\u00fcrden dadurch Unf\u00e4lle dieser Art beg\u00fcnstigen.<\/p>\n\n\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter\"><img loading=\"lazy\" decoding=\"async\" width=\"1004\" height=\"616\" src=\"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/AI-vor-Gericht-Haftungsfrage-eigene-Zeichnung.png\" alt=\"\" class=\"wp-image-4461\" srcset=\"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/AI-vor-Gericht-Haftungsfrage-eigene-Zeichnung.png 1004w, https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/AI-vor-Gericht-Haftungsfrage-eigene-Zeichnung-300x184.png 300w, https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/AI-vor-Gericht-Haftungsfrage-eigene-Zeichnung-768x471.png 768w\" sizes=\"auto, (max-width: 1004px) 100vw, 1004px\" \/><figcaption><em>Haftungsfrage (eigene Zeichnung)<\/em><\/figcaption><\/figure><\/div>\n\n\n\n<p><strong>Diskriminierung: Unfaire Entscheidungen von Algorithmen<\/strong><\/p>\n\n\n\n<p>Ein weiterer Aspekt, wie Menschen heute unter den Entscheidungen von k\u00fcnstlicher Intelligenz leiden k\u00f6nnen, ist die Diskriminierung. Computer sind f\u00e4hig, riesige Mengen an Daten zu analysieren und darauf basierend Entscheidungen zu treffen. Diese Abl\u00e4ufe beinhalten immer eine gewisse Zweischneidigkeit. Einerseits ist es w\u00fcnschenswert, dass ein Computer emotionslos und unvoreingenommen rein datenbasierte Entscheidungen trifft. Andererseits k\u00f6nnen so extrem harte und aus menschlicher Sicht nicht tragbare Konsequenzen entstehen. Ein gutes Beispiel daf\u00fcr lieferte das Wall Street Journal im Artikel \u201cMeet the new boss: Big Data\u201d (Walker, 2012).<\/p>\n\n\n\n<p>In diesem Bericht wird beschrieben, wie der Druckerhersteller Xerox die Daten der Call-Center-Mitarbeitenden mit einem massgeschneiderten Algorithmus analysiert hat. Zweck war es, herauszufinden, welche Eigenschaften Mitarbeitende haben m\u00fcssen, um sie m\u00f6glichst lange an die Firma zu binden. Anreiz f\u00fcr diese Analyse waren die relativ langen Trainingszeiten f\u00fcr neue Mitarbeitende und eine generell h\u00f6here Fluktuation in dieser Abteilung. Die Analyse hat ergeben, dass ein kurzer Arbeitsweg sowie eine tiefe Aktivit\u00e4t in sozialen Netzwerken entscheidend f\u00fcr die Anstellungsdauer sind. Basierend auf diesen Erkenntnissen wurde der Bewerbungsprozess bei Xerox f\u00fcr Call-Center-Mitarbeitende angepasst. Klassische Fragen bez\u00fcglich Arbeitserfahrung wurden durch jene mit computergenerierten Kriterien ersetzt. Dieses Vorgehen ist im Prinzip nat\u00fcrlich noch nicht diskriminierend. Es kann jedoch problematisch werden, wenn diese Kriterien von gewissen Bev\u00f6lkerungsschichten nicht erf\u00fcllt werden k\u00f6nnen. Im Bericht des Jusletters (Daedelow, 2018) wird folgendes Beispiel verwendet, um die Problematik aufzuzeigen. Ein Bewerber ist auf der Suche nach einer l\u00e4ngerfristigen Stelle und hat bereits Berufserfahrung in Call-Centern gesammelt. Er wird vom Computer jedoch als ungeeignet klassifiziert, weil sein Wohndomizil zu weit vom Arbeitsort entfernt ist. Der Wohnort des Bewerbers liegt in diesem Beispiel in einem Stadtbezirk mit einem hohen Ausl\u00e4nderanteil. Daedelow ist nun der Auffassung, das Auswahlkriterium \u201cWohnort nah am Arbeitsplatz\u201d diskriminiere indirekt Bewerber ausl\u00e4ndischer Herkunft, da diese von diesem Ablehnungskriterium \u00fcberproportional betroffen sind.<\/p>\n\n\n\n<p><strong>Bestrafung von Robotern und die Zusammenarbeit mit diesen<\/strong><\/p>\n\n\n\n<p>Betrachten wir die Herausforderungen im Bereich des autonomen Fahrens und der Diskriminierung von Menschen durch AI, dr\u00e4ngt sich das Gef\u00fchl auf, dass sich die Zusammenarbeit zwischen Mensch und Maschine in Zukunft schwierig gestalten wird. Zudem wird es vermutlich noch komplexer, sollten vermehrt auch humanoide Roboter zum Einsatz kommen. Laut Prof. Dr. Oliver Bendel neigen Menschen n\u00e4mlich dazu, schnell eine Beziehung zu einem Roboter aufzubauen, \u00e4hnlich wie bei Tieren. Diese emotionale Bindung k\u00f6nnte bei Fehlfunktionen des Roboters das Verlangen hervorrufen, diesen zu bestrafen. Sowohl aus Expertensicht von Prof. Dr. Oliver Bendel und Dr. Philip C. Hanke sei es jedoch nicht sinnvoll, eine Art Gef\u00e4ngnisstrafe f\u00fcr Roboter oder allgemein k\u00fcnstliche Intelligenz vorzusehen. Dies br\u00e4uchte es in der Gegenwart und wohl auch in Zukunft nicht. Diesbez\u00fcglich sollten die Menschen nach Aussage von Prof.Dr. Oliver Bendel eher an sich selbst arbeiten, um sich nicht zu stark von Emotionen leiten zu lassen und so eine reibungslose Zusammenarbeit mit AI zu erm\u00f6glichen. Die Gefahr der emotionalen Falle sch\u00e4tze er nicht zu gross ein, da die meisten Menschen mit grosser Wahrscheinlichkeit nur gelegentlich mit Robotern zu tun haben werden. Vorsicht sei aber dort geboten, wo Personen st\u00e4ndig von Robotern umgeben sind. Insbesondere dort k\u00f6nnten sich gewisse Tendenzen von Menschen durch die st\u00e4ndige Pr\u00e4senz von Robotern verst\u00e4rken. Im schlimmsten Fall w\u00e4re dies eine Verst\u00e4rkung pers\u00f6nlicher Probleme. Eine M\u00f6glichkeit, dem entgegenzuwirken, w\u00e4re die Einf\u00fchrung von sogenannten Verfremdungseffekten. Dadurch weist die k\u00fcnstliche Intelligenz den Menschen beispielsweise mit bewusst platzierten Aussagen darauf hin, dass sie nicht zu vermenschlichen sei. Tesla verfolgt bei ihrem Autopiloten einen \u00e4hnlichen Ansatz, obgleich es hier wohl zu weit ginge, von einem Verfremdungseffekt zu sprechen. Der Autopilot weist den Fahrer lediglich darauf hin, dass er weiterhin das Fahrzeug kontrollieren muss (Wolfangel, 2017). Prof. Dr. Bendel sieht hier aber die Problematik, dass sich Menschen an solche Hinweise gew\u00f6hnen und diese mit der Zeit gekonnt ignorieren k\u00f6nnten. Jedoch sei dieses Gebiet noch zu wenig erforscht und es w\u00e4re falsch, hier voreilige Schl\u00fcsse zu ziehen und gar Verbote f\u00fcr den Einsatz von autonomen Systemen und Robotern zu erlassen.<\/p>\n\n\n\n<p><strong>Rechtslage in der Schweiz: Sind wir schon soweit?<\/strong><\/p>\n\n\n\n<p>Der momentane Stand des Schweizer Rechts und verschiedene potentielle Ans\u00e4tze zum Umgang mit der Schuldfrage bei Systemen k\u00fcnstlicher Intelligenz werden zurzeit umfassend in der juristischen Lehre diskutiert. Die Debatte reicht von Detailfragen bei bereits weit verbreiteten Technologien wie Roboter-Staubsaugern bis hin zu rein hypothetischen Science-Fiction-Terminator-Szenarien. Der rechtliche Rahmen beinhaltet jedoch zurzeit noch keine speziell auf autonome Systeme ausgelegte Inhalte, das hei\u00dft, es gibt noch keine spezifischen AI-Gesetze. Anpassungen<strong>, <\/strong>zum Beispiel des Produkthaftungsrechts<strong>, <\/strong>werden zwar diskutiert, aber es gibt noch keine konkreten Vorschl\u00e4ge dazu, wie der rechtliche Rahmen konkret ver\u00e4ndert werden sollte. Es wird sich zeigen, wie die Gerichte die bestehenden Gesetze interpretieren und auslegen werden. Was an rechtlichen Anpassungen notwendig sein wird, werde daher von der k\u00fcnftigen Rechtsprechung abh\u00e4ngig sein, erkl\u00e4rt Dr. Philip C. Hanke. Bis jetzt g\u00e4be es sehr wenige Urteile, in denen es um autonome Systeme ging. Erst wenn die ersten Urteile da sind, werde sich zeigen was mit den bestehenden Gesetzen und dem Ermessen der Richter gel\u00f6st werden k\u00f6nne, oder ob es gesetzliche Anpassungen brauche. Es sei noch zu fr\u00fch zu sagen, welche Entwicklungen es geben w\u00fcrde. Bei vielen algorithmischen Verfahren sei es generell schwierig nachzuvollziehen, wie eine Entscheidung zustande gekommen ist. Man spricht daher auch oft von Blackbox-Algorithmen (Wolfangel, 2017). Dr. Hanke erkl\u00e4rt, dass dieses Verst\u00e4ndnis f\u00fcr Unternehmen wichtig sein wird, wenn es darum geht, sich in einem Gerichtsverfahren zu verteidigen. Jedoch sei beispielsweise der Einsatz von neuronalen Netzwerken diesbez\u00fcglich nicht genau geregelt.<\/p>\n\n\n\n<p>M\u00f6glicherweise werde es \u00dcbergangsregelungen f\u00fcr AI geben, wie fr\u00fcher bei der Einf\u00fchrung des Autos. Damals mussten Autos speziell gekennzeichnet werden und es musste sichergestellt werden, dass Autos die Pferde nicht erschreckten. Als das Auto dann verbreiteter war und es weniger Pferde gab, haben sich diese Regeln er\u00fcbrigt.<\/p>\n\n\n\n<p>Den eingangs er\u00e4hnten Uber-Fall sch\u00e4tzt Dr. Philip C. Hanke dahingehend ein, dass in der Schweiz vermutlich \u00e4hnlich entschieden worden w\u00e4re. Da noch eine Fahrerin im Auto war, die noch h\u00e4tte eingreifen k\u00f6nnen, sei es durchaus sinnvoll, eine gewisse Haftung bei dieser Person zu belassen. Schliesslich sei sie in der besten Position, um einen Unfall vermeiden zu k\u00f6nnen. Auch international findet momentan ein globaler Denkprozess statt. Man fragt sich, ob und wie AI umfasend reguliert werden soll. Philip C. Hanke pl\u00e4diert f\u00fcr globale L\u00f6sungen und den internationalen Austausch.<\/p>\n\n\n\n<p>Es sei wichtig, dass es keine Insell\u00f6sungen g\u00e4be. Die Schweiz werde nicht in der Lage sein, eine ganz individuelle Regelung einzuf\u00fchren. Die Kompatibilit\u00e4t zwischen den L\u00e4ndern m\u00fcsse gegeben sein, denn selbstfahrende Autos sollten nicht nur in einem einzigen Land fahren k\u00f6nnen.<\/p>\n\n\n\n<p><strong>Wessen Regeln z\u00e4hlen?<\/strong><\/p>\n\n\n\n<p>Eine weitere Herausforderung bei der Einf\u00fchrung neuer Technologien ist jeweils deren Akzeptanz und Verbreitung in der Bev\u00f6lkerung. W\u00e4hrend die intelligenten Algorithmen und zunehmend automatisierten<strong> <\/strong>Fahrzeuge langsam mehr und mehr in unseren Alltag dr\u00e4ngen, stellt sich die Frage, wessen Moral und Regeln sie letztendlich befolgen. Programmierer bringen den Maschinen bei, wie sie sich zu verhalten haben, aber nach welchen und wessen Regeln sollen sie funktionieren?<\/p>\n\n\n\n<p>Eine einfache Handlung wie das Winken vor dem Zebrastreifen bedeute in Deutschland \u201eFahr weiter\u201c, w\u00e4hrend die gleiche Geste in der Schweiz jedoch \u201cAnhalten\u201d bedeute. Mit diesem Beispiel zeigt Oliver Bendel auf, wie komplex der Einsatz von K\u00fcnstlicher Intelligenz im Strassenverkehr ist. Jedes Fahrzeug m\u00fcsste alle kulturellen und gesetzlichen Unterschiede kennen und sich je nach Land an verschiedene Verhaltensweisen und Gesetze anpassen k\u00f6nnen. Da das Fahrzeug den&nbsp; momentanen Standort ermitteln k\u00f6nne, k\u00f6nnten die l\u00e4nderspezifischen Regeln nach dieser Information umgesetzt werden. Es br\u00e4uchte eine internationale und unabh\u00e4ngige M\u00f6glichkeit, den Strassenverkehr zu autonomisieren. Wenn es soweit kommen w\u00fcrde, dass globale Standards eingesetzt w\u00fcrden, m\u00fcssten lokale wie auch individuelle Befindlichkeiten ber\u00fccksichtigt werden, was wiederum hoch komplex sein w\u00fcrde. Mit diesen Argumenten erkl\u00e4rt sich Oliver Bendel zum autonomen Fahren insgesamt als sehr skeptisch.<\/p>\n\n\n\n<p>Im Zusammenhang mit Herausforderungen durch AI und Robotik geben die drei Robotergesetze Asimovs (1942) eine umfassende Idee, was hierbei als relevant erachtet werden sollte. F\u00fcr Maschinen- und Roboterethiker Oliver Bendel sind diese zwar eine Inspiration, tats\u00e4chlich funktionierten sie in diesem Umfang nach seiner Meinung aber nur in der Geschichte und k\u00e4men selbst da an ihre Grenzen. Alleine an der Anzahl der Gesetze k\u00f6nne erkannt werden, dass sie nicht ausreichend seien. Als Maschinenethiker baut Prof. Dr. Oliver Bendel mit seinem Team Chatbots, denen sie mit Hilfe von Metaregeln und Regeln eine gewisse Moral einpflanzen. Er forscht an sogenannten Moralmen\u00fcs, die eine Stellvertretermaschine mit einer Stellvertretermoral erzeugen. Auf das Beispiel von autonomen Fahrzeugen \u00fcbertragen, w\u00fcrde das heissen, dass Besitzer ihre Autos so programmieren k\u00f6nnten, dass diese eine aggressive Fahrweise aufweisen oder nur auf die Sicherheit des Fahrers sensibilisiert w\u00fcrden.<\/p>\n\n\n\n<p>Dies w\u00fcrde Oliver Bendel jedoch ablehnen \u2013 Moralmen\u00fcs eigneten sich nur bedingt f\u00fcr die offene Welt und den \u00f6ffentlichen Raum.<\/p>\n\n\n\n<p><strong>Wird AI zur Pflicht? Conclusio und Ausblick<\/strong><\/p>\n\n\n\n<p>Die Verbreitung von AI bringt verschiedene ethische und rechtliche Herausforderungen mit sich. Anpassungen des rechtlichen Rahmens werden sowohl in der Schweiz als auch international intensiv diskutiert, jedoch gibt es noch keine konkreten Vorschl\u00e4ge, wie dieser rechtliche Rahmen ver\u00e4ndert werden sollte. Erst die k\u00fcnftige Rechtsprechung wird zeigen, ob die momentane Gesetzgebung ausreicht, um Rechtsstreitigkeiten bez\u00fcglich AI zu l\u00f6sen. Sollte dieser Zustand als Unsicherheit ausgelegt werden, k\u00f6nnte die Entwicklung und Einf\u00fchrung neuer Technologien gehemmt werden. Bei den Haftungsmodellen sind die elektronische Person sowie die Betrachtung als Naturereignis nicht zielf\u00fchrend. Ein Haftungsmodell mit Verantwortung beim Nutzer und Hersteller, bei welchem sich die Verantwortung mit zunehmendem Grad der Automatisierung zum Hersteller verschiebt, erscheint sinnvoller.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote has-text-align-center is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>Es ist vorstellbar, dass in der Zukunft Verpflichtungen entstehen, Daten zu teilen.<\/p><cite>Dr. Philip C. Hanke<\/cite><\/blockquote>\n\n\n\n<p>Neben der Frage<strong>, <\/strong>welche rechtlichen und ethischen Herausforderungen die Verbreitung von k\u00fcnstlicher Intelligenz mit sich bringt, verdient auch die Umkehrfrage entsprechende Aufmerksamkeit: Was passiert, wenn k\u00fcnstliche Intelligenz <em>nicht <\/em>eingesetzt wird?<\/p>\n\n\n\n<p>\u00dcber 90 Prozent aller Unf\u00e4lle im Strassenverkehr sind auf Fehlverhalten oder Fehleinsch\u00e4tzungen der lenkenden Person zur\u00fcckzuf\u00fchren (BFU, 2019). Im Gegensatz zum Menschen wird k\u00fcnstliche Intelligenz nicht m\u00fcde oder damit fehleranf\u00e4lliger, weil sie l\u00e4nger arbeitet. Dr. Philip C Hanke erkl\u00e4rt, dass wir uns als Gesellschaft die Frage stellen m\u00fcssten, ob es nicht bald sogar zu Verpflichtungen kommen w\u00fcrde, k\u00fcnstliche Intelligenz einzusetzen:<\/p>\n\n\n\n<p><em>\u201cMeine Vorhersage ist, dass es in ein paar Jahrzehnten verboten sein wird<\/em><strong><em>, <\/em><\/strong><em>ein Auto selbst zu fahren, weil es als zu gef\u00e4hrlich eingestuft werden wird. So wie es heute verboten ist, ohne Sicherheitsgurte oder ohne Scheinwerfer zu fahren, wird es in der Zukunft verboten sein<\/em><strong><em>, <\/em><\/strong><em>ohne Autopiloten zu fahren.\u201d&nbsp;&nbsp;<\/em><\/p>\n\n\n\n<p>Zum Thema Datenschutz f\u00fcgt er ausserdem hinzu:<\/p>\n\n\n\n<p><em>\u201cPersonen haben ein legitimes Interesse, dass pers\u00f6nliche Daten nicht eingesehen werden. Aber was, wenn diese Daten die Systeme viel besser machen? Entsteht daraus eine zumindest moralische Verpflichtung die Daten zu teilen, weil dies das Leben von anderen retten k\u00f6nnte? Es ist vorstellbar, dass in der Zukunft Verpflichtungen entstehen, Daten zu teilen.\u201d<\/em><\/p>\n\n\n\n<p>M\u00f6glich sei also auch, dass trotz momentan noch offenen ethischen und rechtlichen Fragen der Einsatz von AI zur Pflicht w\u00fcrde und wir mit unseren Daten dazu beitragen, die Systeme zu verbessern. Die oben erw\u00e4hnten Unfallzahlen w\u00fcrden zeigen, ob sich der Einsatz lohnt.<\/p>\n\n\n\n<p><strong>Quellen<\/strong><\/p>\n\n\n\n<p>Bendel, O. (2019). K\u00fcnstliche Intelligenz und deren rechtliche und ethische Herausforderungen. Interview, Brugg, 21.03.2019.<\/p>\n\n\n\n<p>BFU (2019). Fahrassistenzsysteme \u2013 selbstfahrende Autos. Abgerufen am 5. Mai 2019 von  https:\/\/www.bfu.ch\/de\/ratgeber\/ratgeber-unfallverh%C3%BCtung\/strassenverkehr\/autofahrer\/fahrerassistenz-systeme\/fahrerassistenz-systeme<\/p>\n\n\n\n<p>Daedelow R.\n(2018). Jusletter. Wenn Algorithmen (unfair) \u00fcber Menschen entscheiden<\/p>\n\n\n\n<p>Hanke, P. C. (2019). K\u00fcnstliche Intelligenz und deren rechtliche Herausforderungen. Interview, Bern, 25.04.2019.<\/p>\n\n\n\n<p>Hebermehl, G., Stegmaier, G. (2018). Sicherheitsfahrerin streamte Fernsehprogramm | auto-motor-und-sport.de. Abgerufen am 9. Mai 2019 von https:\/\/www.auto-motor-und-sport.de\/news\/toedlicher-unfall-autonom-fahrendes-auto-uber-volvo-video\/<\/p>\n\n\n\n<p>Henkel, C. H. (2016). Wenn der \u00abRoboter am Lenkrad\u00bb einen Fehler macht | NZZ. Abgerufen 4. Mai 2019, von  https:\/\/www.nzz.ch\/wirtschaft\/unternehmen\/haftungsfrage-nach-toedlichem-tesla-unfall-wenn-der-roboter-am-lenkrad-einen-fehler-macht-ld.103508 <\/p>\n\n\n\n<p>SRF (2019). T\u00f6dlicher Unfall mit Tesla ruft Beh\u00f6rden auf den Plan. Abgerufen am 4. Mai 2019 von  https:\/\/www.srf.ch\/news\/international\/aehnlichkeit-mit-crash-2016-toedlicher-unfall-mit-tesla-ruft-behoerden-auf-den-plan<\/p>\n\n\n\n<p>Walker, J. (2012). Walll Street Journal. Meet the new Boss: Big Data &#8211; Companies Trade in Huch-Based Hiring for Computer Modeling. Abgerufen am 29. April 2019 von  https:\/\/www.wsj.com\/articles\/SB10000872396390443890304578006252019616768<\/p>\n\n\n\n<p>Wolfangel, E. (2017). K\u00fcnstliche Intelligenz voller Vorurteile | NZZ. Abgerufen 5. Mai 2019, von https:\/\/www.nzz.ch\/wissenschaft\/selbstlernende-algorithmen-kuenstliche-intelligenz-voller-vorurteile-ld.1313680<\/p>\n\n\n\n<p><strong>Autoren<\/strong><\/p>\n\n\n\n<p>Ayse Yildiz, Silvan Burnand, Luis Limonta, Patrick Sommer &amp; Lars Gisler<\/p>\n\n\n\n<p>Contact us if you have any questions about the degree programme or for individual advice:<br>Tel.: <a href=\"tel:+41412284253\">+41 41 228 42 53<\/a> \/ E-mail:&nbsp;<a href=\"mailto:master.ids@hslu.ch\">master.ids@hslu.ch<\/a><\/p>\n\n\n\n<p id=\"info-events\"><br><strong>Start your career with the MSc in Applied Information and Data Science now! <br>Register and join us for a free online Info-Event:<\/strong><\/p>\n\n\n\n<p id=\"info-events\"><a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/calendar\/events\/2026\/05\/11\/mscids\/\" target=\"_blank\" rel=\"noreferrer noopener\">Monday, 11 May 2026 (Online, English)<\/a><br><a href=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/agenda\/veranstaltungen\/2026\/05\/26\/mscids-260526\/\" id=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/agenda\/veranstaltungen\/2026\/05\/26\/mscids-260526\/\" target=\"_blank\" rel=\"noreferrer noopener\">Monday, 26 May 2026 (Online, German)<\/a><br><a href=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/agenda\/veranstaltungen\/2026\/06\/08\/mscids-260608\/\" target=\"_blank\" rel=\"noreferrer noopener\">Monday, 8 June 2026 (Online, German)<\/a><br><a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/calendar\/events\/2026\/08\/10\/mscids-20260810\/\" id=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/calendar\/events\/2026\/08\/10\/mscids-20260810\/\" target=\"_blank\" rel=\"noreferrer noopener\">Monday, 10 August 2026 (Online, English)<\/a><br><a href=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/agenda\/veranstaltungen\/2026\/09\/07\/mscids-260907\/\" id=\"https:\/\/www.hslu.ch\/de-ch\/wirtschaft\/agenda\/veranstaltungen\/2026\/09\/07\/mscids-260907\/\" target=\"_blank\" rel=\"noreferrer noopener\">Monday, 7 September 2026 (Online, German)<\/a><br><\/p>\n\n\n\n<p id=\"info-events\"><\/p>\n\n\n\n<p><strong>MORE INFORMATION TO THE MASTER&#8217;S PROGRAMME HERE:<\/strong><br>MORE FIELD REPORTS &amp; EXPERIENCES: <a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/degree-programmes\/master\/applied-information-and-data-science\/student-experiences\/\">Professional portraits &amp; study insights<\/a><br>PROGRAMME INFO: <a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/degree-programmes\/master\/applied-information-and-data-science\/\">MSc in Applied Information and Data Science<\/a><br>CHECK OUT OUR: <a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/degree-programmes\/master\/applied-information-and-data-science\/studieninhalte\/\">Generalist profile<\/a><br>FREQUENTLY ASKED QUESTIONS: <a href=\"https:\/\/www.hslu.ch\/en\/lucerne-school-of-business\/degree-programmes\/master\/applied-information-and-data-science\/haeufig-gestellte-fragen\/\">FAQ<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Rechtliche und ethische Herausforderungen der zunehmenden Verbreitung von Artificial Intelligence.<\/p>\n","protected":false},"author":1,"featured_media":4673,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"ghostkit_customizer_options":"","ghostkit_custom_css":"","ghostkit_custom_js_head":"","ghostkit_custom_js_foot":"","ghostkit_typography":"","footnotes":""},"categories":[152],"tags":[],"class_list":["post-4460","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.5 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI vor Gericht: Schuldig oder nicht? - Applied Data Science<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI vor Gericht: Schuldig oder nicht? - Applied Data Science\" \/>\n<meta property=\"og:description\" content=\"Rechtliche und ethische Herausforderungen der zunehmenden Verbreitung von Artificial Intelligence.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/\" \/>\n<meta property=\"og:site_name\" content=\"Applied Data Science\" \/>\n<meta property=\"article:published_time\" content=\"2019-10-31T12:53:34+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2022-01-26T12:09:46+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1440\" \/>\n\t<meta property=\"og:image:height\" content=\"960\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/\"},\"author\":{\"name\":\"admin\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/#\\\/schema\\\/person\\\/8316382d57489fa8769bc57e0553059c\"},\"headline\":\"AI vor Gericht: Schuldig oder nicht?\",\"datePublished\":\"2019-10-31T12:53:34+00:00\",\"dateModified\":\"2022-01-26T12:09:46+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/\"},\"wordCount\":3084,\"image\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/wp-content\\\/uploads\\\/sites\\\/4\\\/2019\\\/10\\\/Artifical_Intelligence_1440_960_px.jpg\",\"articleSection\":[\"Artificial Intelligence\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/\",\"url\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/\",\"name\":\"AI vor Gericht: Schuldig oder nicht? - Applied Data Science\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/wp-content\\\/uploads\\\/sites\\\/4\\\/2019\\\/10\\\/Artifical_Intelligence_1440_960_px.jpg\",\"datePublished\":\"2019-10-31T12:53:34+00:00\",\"dateModified\":\"2022-01-26T12:09:46+00:00\",\"author\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/#\\\/schema\\\/person\\\/8316382d57489fa8769bc57e0553059c\"},\"breadcrumb\":{\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#primaryimage\",\"url\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/wp-content\\\/uploads\\\/sites\\\/4\\\/2019\\\/10\\\/Artifical_Intelligence_1440_960_px.jpg\",\"contentUrl\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/wp-content\\\/uploads\\\/sites\\\/4\\\/2019\\\/10\\\/Artifical_Intelligence_1440_960_px.jpg\",\"width\":1440,\"height\":960,\"caption\":\"Artifical Intelligence\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/ai-vor-gericht\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI vor Gericht: Schuldig oder nicht?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/#website\",\"url\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/\",\"name\":\"Applied Data Science\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/#\\\/schema\\\/person\\\/8316382d57489fa8769bc57e0553059c\",\"name\":\"admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g\",\"caption\":\"admin\"},\"url\":\"https:\\\/\\\/sites.hslu.ch\\\/applied-data-science\\\/author\\\/info_iiy99ye5\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"AI vor Gericht: Schuldig oder nicht? - Applied Data Science","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/","og_locale":"en_US","og_type":"article","og_title":"AI vor Gericht: Schuldig oder nicht? - Applied Data Science","og_description":"Rechtliche und ethische Herausforderungen der zunehmenden Verbreitung von Artificial Intelligence.","og_url":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/","og_site_name":"Applied Data Science","article_published_time":"2019-10-31T12:53:34+00:00","article_modified_time":"2022-01-26T12:09:46+00:00","og_image":[{"width":1440,"height":960,"url":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg","type":"image\/jpeg"}],"author":"admin","twitter_card":"summary_large_image","twitter_misc":{"Written by":"admin","Est. reading time":"13 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#article","isPartOf":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/"},"author":{"name":"admin","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/#\/schema\/person\/8316382d57489fa8769bc57e0553059c"},"headline":"AI vor Gericht: Schuldig oder nicht?","datePublished":"2019-10-31T12:53:34+00:00","dateModified":"2022-01-26T12:09:46+00:00","mainEntityOfPage":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/"},"wordCount":3084,"image":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#primaryimage"},"thumbnailUrl":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg","articleSection":["Artificial Intelligence"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/","url":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/","name":"AI vor Gericht: Schuldig oder nicht? - Applied Data Science","isPartOf":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/#website"},"primaryImageOfPage":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#primaryimage"},"image":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#primaryimage"},"thumbnailUrl":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg","datePublished":"2019-10-31T12:53:34+00:00","dateModified":"2022-01-26T12:09:46+00:00","author":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/#\/schema\/person\/8316382d57489fa8769bc57e0553059c"},"breadcrumb":{"@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#primaryimage","url":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg","contentUrl":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-content\/uploads\/sites\/4\/2019\/10\/Artifical_Intelligence_1440_960_px.jpg","width":1440,"height":960,"caption":"Artifical Intelligence"},{"@type":"BreadcrumbList","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/ai-vor-gericht\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/sites.hslu.ch\/applied-data-science\/"},{"@type":"ListItem","position":2,"name":"AI vor Gericht: Schuldig oder nicht?"}]},{"@type":"WebSite","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/#website","url":"https:\/\/sites.hslu.ch\/applied-data-science\/","name":"Applied Data Science","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/sites.hslu.ch\/applied-data-science\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/sites.hslu.ch\/applied-data-science\/#\/schema\/person\/8316382d57489fa8769bc57e0553059c","name":"admin","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/secure.gravatar.com\/avatar\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/9cf00b97960b7147fa7160249e541521239f46251c53786fbccb6bd091618df4?s=96&d=mm&r=g","caption":"admin"},"url":"https:\/\/sites.hslu.ch\/applied-data-science\/author\/info_iiy99ye5\/"}]}},"_links":{"self":[{"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/posts\/4460","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/comments?post=4460"}],"version-history":[{"count":35,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/posts\/4460\/revisions"}],"predecessor-version":[{"id":6659,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/posts\/4460\/revisions\/6659"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/media\/4673"}],"wp:attachment":[{"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/media?parent=4460"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/categories?post=4460"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.hslu.ch\/applied-data-science\/wp-json\/wp\/v2\/tags?post=4460"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}