Data Science: National Hockey League (NHL) – Attack is the Best Form of Defence

Data Science: National Hockey League (NHL) – Attack is the Best Form of Defence

Professional sport is not just about sheer performance. Beneath the surface lies a vast source of data insights that can explain or even predict the course of events. In ice hockey, for example, our Applied Data Science students Keith Lawless and Jeffrey Sachs analysed and visualised the 2019 Stanley Cup Final between the St. Louis Blues and the Boston Bruins. Find out why the underdogs surprised everyone by winning.

Shortcuts:
Introduction | Heatmaps | Analysing the final | Conclusions | Info-Events | Programme-Information | Contact | Professional Data Science Portraits

Jeffrey Sachs and Keith Lawless, HSLU Applied Information and Data Science Master's students and authors of this blog
Jeffrey Sachs and Keith Lawless, HSLU Applied Information and Data Science Master’s students and authors of this blog


Of hidden champions: NHL ice hockey game makes history

We all love an underdog story and the 2019 Stanley Cup Final between the St. Louis Blues and the Boston Bruins has given us one for the ages. The Stanley Cup is contested between Canadian and American teams and represents the elite level of the sport of ice hockey.

The Boston Bruins, one of the founding members of the NHL, were seeking their seventh Cup win and first since 2011. In fact, many of the players from that 2011 championship were still around. They knew what it took to win and the odds were in their favour. The Boston Bruins had home-ice advantage going into the best-of-seven final (meaning the first two crucial games were played in Boston, as would the seventh and deciding game if necessary). They also had the most feared scoring line in the NHL. The so-called ‘perfection line’ of David Pastrnak, Brad Marchand and Patrice Bergeron, who combined for 106 goals in the 2018/19 season.

The 2019 Stanley Cup Final between the Boston Bruins and the St. Louis Blues
The 2019 NHL Stanley Cup Final between the Boston Bruins and the St. Louis Blues

The St. Louis Blues, on the other hand, were making only their fourth appearance in the final and were looking for their first Cup win (they are the oldest franchise not to have won the Cup). They started the year with the worst record in the league and there was nothing to suggest they could turn their season around, let alone go all the way to the final.

Winning the Stanley Cup for the first time

The St. Louis Blues not only made it to the final, they won their first Stanley Cup. So what happened? How exactly did the Bruins lose? This is, of course, a question often asked when the favourites fail. How did they fail? Sports fans and casual viewers alike rarely give the underdog the credit they deserve. This is because the difference between winning and losing is often subtle, lost in the superlatives of phrases such as ‘perfection line’.

However, there are ways to strip away the hype and emotional framing of such results – and one of them is to look at the cold, hard facts generated by the data of the sports we love. Sport generates countless data points – every event is counted and assigned attributes. We can take a high-level view of millions of events and look at the patterns to help us form more compelling narratives and ask more intelligent questions. It can be easy to say things like ‘the Bruins never showed up’ or ‘they just didn’t get going’ – and while those things may be true and feel right to us, what’s harder to conclude is why?

In ice hockey, a popular narrative is that goalies and defencemen are often key, and this is reflected in the individual awards, including prestigious individual awards for best goaltender. Contrast this with football, where the top individual award has not gone to a goalkeeper since 1963. With this in mind, we believe that St. Louis were able to upset the odds by making better use of their defenders in attack. Using data, we aim to highlight the key differences in the style of the defensive players between the two finalists, and how St. Louis used this form of attack to their advantage.

 

Shots and goals visualised by heatmaps Attack is the best form of defence

So how are goals scored in ice hockey? To help us understand, let’s take a look at all the shot and goal events from 2018/19 and visualise them on a heatmap. During the course of a game, there can be hundreds of different types of events, many of which are measurable. These events can range from the time an individual player spends on the ice, their average position on the ice, to the coordinates of every pass, shot, goal and assist. By filtering out just the shots and goals, some interesting patterns begin to emerge. Let’s take a look at the season in question – 2018/19.

Figure 1 – The shots and goals from the entire 2018/19 NHL Season
Figure 1 – The shots and goals from the entire 2018/19 NHL Season

Areas of higher intensity colour intuitively represent areas of the ice where more goals and shots are scored. This heatmap can be very intuitive, even if you have only watched a hockey game for more than a minute. More shots and goals from close range.

Figure 1a – The shots and goals by David Pastrnak – one of the best attacking players in the league
Figure 1a – The shots and goals by David Pastrnak – one of the best attacking players in the league

Unsurprisingly, attacking players like Pastrnak tend to benefit from the same areas. Pastrnak favours the left side of the ice here. However, there are subtleties to this heatmap that we believe hold the key to the Blues’ success. Before we dive in, let’s take a closer look at the map and see what’s going on.

Figure 2 – An overview of the key shooting and scoring positions
Figure 2 – An overview of the key shooting and scoring positions

In this clip we see a typical low percentage play by a defenceman. As the puck is passed from the attacker back to the blue line, we see both defencemen take their positions on the points. The defender hits hard and low to create confusion, hoping that the puck will fall in favour of an attacking teammate. In this case it does, and the attacking team capitalises.

So all you have to do is score?

Defenders seem to have it easy. Guard the points, send the puck in and see what happens. However, this type of play has a low percentage and is easier to defend against.

The most dangerous defencemen are those who can leave the point behind them, creating even more uncertainty for the defending team. However, leaving the point exposed comes at a price. If the attacking team loses control of the puck, an unguarded point can lead to very dangerous counter-attacks. The best defenders are aware of the risks and know when to leave the point.

 

Back to the final

So do St. Louis really have the more dangerous defencemen? By filtering the data on the individual players in each team’s defence, we can recreate the heatmaps above and see what these players are doing in each area of the ice.

First, the Boston Bruins

Figure 4 – The Defence men for the Boston Bruins: Zdeno Chara and Charlie McAvoy
Figure 4 – The Defence men for the Boston Bruins: Zdeno Chara and Charlie McAvoy

The main defenders for the Boston Bruins in the final were Slovakia’s Zdeno Chara and USA’s Charlie McAvoy. Let’s take a look at their combined heat map for shots and goals.

Figure 5 – Bruins defensive pair heatmap
Figure 5 – Bruins defensive pair heatmap

Compared to the aggregated heatmap for the league, the points are clearly defined here. McAvoy seems willing to take risks and operate further inside the blue line. His linemate Chara, on the other hand, seems to have a skate planted at the blue line. On the surface this looks like a good strategy.

Secondly, the St. Louis Blues

Figure 5a – The St. Louis defence men: Alex Pietrangelo and Joel Edmundson
Figure 5a – The St. Louis defence men: Alex Pietrangelo and Joel Edmundson

The Blues defensive pairing consisted of St. Louis Blues captain Alex Pietrangelo and Canadian Joel Edmundson. How do their heat maps compare?

Figure 6 – The St. Louis defensive pair heatmap
Figure 6 – The St. Louis defensive pair heatmap


The St. Louis Blues defencemen are redefining the shape of the point. They look like arrows pointing forward into the offensive zone. In addition, both have a clearly defined third point at the top of the slot. In fact, the slot itself shows much more activity from the Blues. Pietrangelo, in particular, was a key contributor in key games. Overlaying the two heatmaps shows the contrast quite clearly.

Heatmaps in Action

As useful as the visuals are, it helps to pick out real moments from the game to understand how these patterns emerge. To get a real sense of what’s going on in the heat map, let’s take a look at the key moment. With the final game in the balance and less than thirty seconds remaining in the first period, Pietrangelo senses and delivers the game-winning moment.

Pietrangelo knows that his opponent, Brad Marchand (circled), is tired and about to leave the ice. This is the perfect moment for Pietrangelo to leave the point, as shown by the path of the yellow arrow. Pietrangelo rushes forward, correctly anticipates the pass and scores. Marchand looks on from the bench in disbelief. A perfect line change that was anything but perfect.

The Marchand-Pietrangelo match is interesting for another reason. Coaches have the advantage of access to visuals and analysis, and they can take their time making decisions about their team. As a result, those decisions that took longer to make will manifest themselves over a longer period of time.

Pietrangelo’s decisions on the ice, on the other hand, are instantaneous and have an immediate impact. Despite the speed, there is still a process for Pietrangelo to go through. In the same way that a coach watches performance trends in his office, the players have to watch and react, even in the heat of the moment.

We can all imagine the comfort of a manager’s office. However, few of us have had the privilege of being involved in elite sport and it is difficult to relate. So what does Alex Pietrangelo’s decision-making process look like on the ice? Let’s break it down.

Figure 9 - Observe, orient, decide and act: Alex Pietrangelo's playing strategy pays off
Figure 9 – Observe, orient, decide and act: Alex Pietrangelo’s playing strategy pays off

Conclusions

The beauty of these visualisations is that they help us to quickly see the behaviour of certain teams and players. The defensive player’s job is not as complicated as their attacking counterparts. Defencemen typically spend more time skating backwards (using different muscle groups) and can stay on the ice longer than forwards.

The attacker’s job is more complex. They use a lot more energy and usually skate faster and forward. They are under constant pressure to take hits from their opponents, which drains their energy and quickly affects their decision-making. We saw this clearly with Marchand, the Bruins forward, who made a poor, tired decision to change lines with only seven seconds left.

For this reason, attacking coaches need more advanced statistical analysis than what a heat map of their forwards can provide. Forwards generate more data and require many more relevant attributes to be measured, as their energy needs to be managed more carefully. This leads to greater complexity, where statistics (although more time-consuming to produce) can provide key insights.

As we have seen, defenders have relatively less complex engagements but still generate sufficient data points. This balance between the number of events they generate and the lower number of attributes to measure means that heat maps and visuals are a more suitable tool for defensive coaches to analyse the progress of their defensive players.

Ultimately, there is beauty in simplicity. What Pietrangelo has done is made to look simple. By looking at his data and the heatmap, we can begin to understand what makes him different from other defenders. Then, by looking at video clips and breaking them down frame by frame, we can see why he does it. Ultimately, he also looked around, collected data and acted on it. His ability to do this proved to be the difference and the underdogs from St.Louis pulled off a famous victory.

Thanks to Keith Lawless and Jeffrey Sachs for sharing this very interesting Data Science story with us.


Data is the resource of the 21st century!
Register and join us for a free online Information-Event:

Monday, 2 June 2025 (Online, German)
Monday, 11 August 2025 (Online, English)

Programme Info: MSc in Applied Information and Data Science
More Field Reports & Experiences: Professional portraits & study insights
Frequently Asked Questions: FAQ

Die digitale Identität der Schweiz – zentral oder dezentral gespeichert?

Die digitale Identität der Schweiz – zentral oder dezentral gespeichert?

Eine Gegenüberstellung der beiden Speichervarianten und die noch irrelevante Rolle der Blockchain-Technologie.

Gemäss Gartners «Hype Cycle for Emerging Technologies, 2018» (Abbildung 1) dürften die Erwartungen an die Blockchain-Technologie heute überzogen sein. Weitere 5-10 Jahre werden gemäss Gartner wohl noch benötigt, bis diese Technologie das Plateau der Produktivität erreichen wird (Gartner, online). 

Abb. 1: Position der Blockchain im Gartner Hype-Zyklus der aufkommenden Technologien
In Anlehnung an: Hype-Zyklus nach Gartner Inc. (Wikipedia, online)

Ein klarer Anwendungsbereich der Blockchain-Technologie zeichnet sich jedoch bereits heute ab: die dezentrale Speicherung von Daten. Diese Form der Datenspeicherung könnte auch bei der digitalen Identität, der sogenannten e-identity, eingesetzt werden. Bevor man jedoch über den Einsatz von Blockchain-Technologie bei E-ID diskutieren kann, muss man sich die grundsätzliche Frage stellen: 

Wie sollen unsere persönlichen Daten, d.h. unsere digitale Identität, gespeichert werden? An einem zentralen Standort und damit unter Aufsicht einer (wahrscheinlich) staatlichen zentralisierten Stelle; oder dezentral und damit ohne jegliche intermediäre Stelle, welche die Daten zentral verifiziert? Oder wären auch hybride Lösungen hierzu denkbar?

Genau diesem Thema widmet sich dieser Blogartikel. Ausserdem untersucht er, inwiefern Blockchain bei den heutigen E-ID-Lösungen bereits zum Einsatz kommt.

Die E-ID für die Schweiz wird kommen

2018 verabschiedete der Schweizer Bundesrat den Antrag, eine staatlich anerkannte digitale Identität einzuführen. Knapp ein Jahr später haben sowohl National- als auch Ständerat beschlossen, dass die elektronischen Identitäten (E-ID) durch private Unternehmen herausgegeben werden sollen (Bundesamt für Justiz, online). Man hat sich also gegen die Ausgabe einer solchen Identität durch den Staat entschieden.

Damit ist der Weg für einen gesunden Wettbewerb zwischen den Technologien geebnet. Auch wenn das Referendum gegen die Vergabe der E-ID an private Unternehmen bereits angekündigt wurde, sind sich Experten und Expertinnen einig: Früher oder später wird eine E-ID eingeführt werden.

Zwei Unternehmen, die ihren Namen in die Waagschale der Entwicklung von E-ID werfen, sind SwissSign Group AG und Procivis AG. Die beiden Unternehmen setzen auf unterschiedliche Technologien: SwissSign Group vertraut einer eher zentralen Lösung und die Procivis baut auf einer dezentralen Lösung auf. Diese beiden Ansätze schauen wir uns nun genauer an.

SwissID vertraut der OpenID Connect Lösung

SwissSign Group bildet zusammen mit aktuell 20 Unternehmen ein Konsortium, das die Entwicklung der SwissID vorantreibt. Das Konsortium aus grossen Schweizer Unternehmen ist überzeugt, dass die Zusammenarbeit der Firmen den Aufbau einer markttauglichen Lösung beschleunigt. Die SwissID wird heute bereits von über 700’000 Nutzer/innen auf zwölf Portalen verwendet (Stand: Juni 2018). Zu den Nutzerinnen zählt die Schweizerische Post. Sie nutzt die SwissID auf ihren Portalen und gestaltet diese gleichzeitig als Mitglied des Konsortiums mit.  

Herr Kläusli von SwissSign Group erklärt im Interview (5. April 2019), dass sich SwissSign Group bei der SwissID für die OpenID Connect Technologie entschieden hat. Mit der OpenID Connect Technologie wird eine etablierte Lösung im Identitätsmanagement verwendet. Auf der SwissID werden Stammdaten wie Benutzername, Vorname und Nachname an einer zentralen Stelle in der Schweiz gespeichert. In Zukunft wird die SwissID auch die Personenverifikation enthalten, die beispielsweise durch die Schweizerische Post oder das Bundesamt für Polizei (fedpol) bestätigt und ausgestellt wird.

Gemäss Kläusli nimmt SwissSing Group bei der E-ID die Rolle des Übermittlers ein. Möchte zum Beispiel ein Onlineverkäufer die Adresse einer Kundin prüfen, stellt er eine Anfrage an die SwissID. Sobald die Kundin dieser Anfrage zustimmt, erbittet die SwissID bei der Schweizerischen Post die Adressbestätigung. Die SwissID besitzt in der Rolle des Übermittlers selbst keine sensiblen Daten, sondern bestätigt lediglich deren Korrektheit (Abbildung 2).

Abb. 2: Adressverifikationsprozess der SwissID

Wie aus dem oben genannten Beispiel ersichtlich wird, verfügt die SwissID lediglich über die Stammdaten der Nutzerinnen und Nutzer. Obwohl diese zentral abgespeichert sind, wird das Risiko eines Datendiebstahls minimiert. Sobald in der Zukunft noch eine Zwei-Faktor-Authentisierung eingeführt wird, verkleinert sich das Risiko gemäss Kläusli zusätzlich. SwissSign Group profitiert somit von den Vorteilen der erprobten zentralen Datenspeicherung, ohne selbst die sensiblen Daten zu besitzen.

Blockchain ist noch nicht reif für die SwissID

Kläusli führt weiter aus, dass SwissSign Group per se nicht gegen Blockchain-Technologien ist, diese momentan jedoch noch keine markttaugliche Lösung bieten (Kläusli, Interview, 5. April 2019). Insbesondere in den vier Bereichen Recht auf Vergessen, Skalierbarkeit, Latenzzeiten sowie Erfahrungswerte müssen gemäss Kläusli noch Fortschritte erzielt werden.

Diese Einschätzung stützt Kläusli auf die Erfahrungen, die SwissSing Group mit einer digitalen Identität auf Blockchain-Basis im Rahmen eines Tests in Kanada gemacht hat. Man ist dabei zum Schluss gekommen, dass die Latenzzeiten aktuell noch zu lange sind. Denn die SwissID plant, 2022 bereits vier Millionen Nutzer/innen zu haben. Ein erfolgreiches System muss eine hohe Belastung ohne grosse Wartezeiten überstehen (die User und Userinnen erwarten gemäss Kläusli eine sofortige Rückmeldung). Zudem hat  SwissSign Group noch keine Blockchain Lösung gefunden, die skalierbar ist. Anfang Juni wurde die SwissID bereits in zwölf Portalen angewendet. Bis zum Ende des Jahres sollen es viermal so viele sein. Eine skalierbare Lösung ist laut Kläusli deshalb essentiell.

Die fehlende Erfahrung mit der Blockchain-Technologie und das Recht auf Vergessen sind für Kläusli jedoch noch wesentlicher. Ersteres ist gerade dann wichtig, wenn die Nutzer und Nutzerinnen Vertrauen aufbauen sollen. Würden Daten unfreiwillig an die Öffentlichkeit gelangen, wäre dies ein Vertrauensbruch und ein starker Rückschlag für die E-ID. Das Recht auf Vergessen ist ein Recht, das jede Bürgerin und jeder Bürger in der Schweiz hat. Die Blockchain-Technologie speichert jedoch alle Transaktionen, wodurch nichts gelöscht oder vergessen werden kann. Sobald diese Probleme gelöst sind, schliesst SwissSign Group einen Wechsel zur Blockchain Technologie nicht aus. Bis dahin wird gemäss Kläusli aber die OpenID Connect Technologie verwendet. 

ProCivis mit einer dezentralen Lösung

ProCivis hat sich bei der Speicherung der Daten von Bürger/innen für ein hauptsächlich dezentrales System entschieden. Dabei werden die Daten der Bürgerinnen und Bürger auf ihrem eignen Smartphone statt in einer zentralen Datenbank gespeichert, erklärt Herr Sven Jakelj von ProCivis im persönlichen Interview (17. April 2019). Die Lösung von ProCivis kommt bereits heute bei der E-ID des Kantons Schaffhausen zum Einsatz.

Dezentrale, oder auch verteilte Datenspeicherung hat laut Jakeli gegenüber zentraler Datenspeicherung Vor- wie auch Nachteile. Da die Daten auf verschiedenen Mobilgeräten gespeichert sind, erhöht sich die zur Verfügung stehende Rechenpower und die Datenverarbeitung kann parallel ausgeführt werden. Diese Modularität vereinfacht das Wachstum, da mit zunehmendem Speicherbedarf auch der zur Verfügung stehende Speicher zunimmt. Ein weiterer Vorteil der dezentralen Speicherung ist die erhöhte Verfügbarkeit der Daten für die Bürgerinnen und Bürger. Denn sie können jederzeit auf die gespeicherten Informationen auf ihrem Gerät zugreifen. Gemäss Jakeli erhalten sie ebenfalls eine höhere Kontrolle über ihre Daten, da sie – theoretisch – jederzeit physischen Zugriff auf ihr Gerät haben. Durch die Einbindung vieler Geräte in ein Netzwerk erhöht sich zudem die Robustheit des Systems. Die Wahrscheinlichkeit, dass alle Geräte gleichzeitig ausfallen, ist bei einer dezentralen Speicherung im Vergleich zu einer zentralen Speicherung geringer.

Ein ebenfalls wichtiger Vorteil dezentraler Speicherung ist die Transparenz, die bei verteilten Systemen meist höher ist als bei zentralen. Dies ergibt sich dadurch, dass der Speicherort der Daten bekannt ist und der Netzwerkverkehr nicht komplett versteckt werden kann (Lacob & Moise, S. 120-121). 

Die verteilte Datenspeicherung hat jedoch auch Nachteile. Die Software und Datenarchitektur wird komplexer. Dies zeigt sich am Beispiel von ProCivis daran, dass die Daten auf unterschiedlichen Betriebssystemen mit unterschiedlichen Versionen gespeichert werden müssen. Auch kann sich gemäss Jakeli der Rechenaufwand sowie der Datenverkehr erhöhen, da die unterschiedlichen Netzwerkteilnehmer und Netzwerkteilnehmerinnen über das Internet miteinander kommunizieren müssen.

Zuletzt ist die Datenintegrität eine grössere Herausforderung. Das System muss verhindern, dass die auf dem Gerät gespeicherten Informationen unerlaubt geändert oder kopiert werden können (Lacob & Moise, S. 121).

Auch ProCivis arbeitet nicht mit Blockchain

Herr Jakeli von ProCivis erklärt, dass ProCivis nicht mit Blockchain arbeitet. ProCivis setzt auf ein hybrides System.

Der dezentrale Teil der E-ID befindet sich gemäss Jakeli in der App auf dem Smartphone der Bürger und Bürgerinnen. Bevor sie die ID nutzen können, müssen sie ihre Daten erfassen, ein Foto von sich mit der Selfie-Kamera erstellen und die ID erstellen. Bevor die ID jedoch genutzt werden kann, muss sie vom Einwohneramt des Kantons Schaffhausen, oder dem entsprechenden Identity Provider (IDP), verifiziert werden. Der Kanton ist somit der zentralisierte Part der ID. Er ist verantwortlich für das Verifizieren von IDs und das Widerrufen der Gültigkeit im Falle eines Verlustes der ID oder Tod des Bürgers. Die App selber benötigt weder ein Login noch ein Passwort. Sobald die E-ID verifiziert ist, kann sie beispielsweise bei der Adressüberprüfung im Onlinehandel genutzt werden (Abbildung 3).

Abb. 3: Adressverifikation mit Procivis

Fazit

Sowohl für die zentrale als auch für die dezentrale Speicherung gibt es gute Argumente. Für die zentrale Speicherung spricht heute vor allem die einfache Durchsetzbarkeit des «Rechts auf Vergessen». Bei dezentraler Speicherung ist die vollständige Löschung von Daten eine Herkulesaufgabe. Für die dezentrale Speicherung hingegen spricht vor allem die einfache Skalierbarkeit dank der Speicherung der Daten auf den Geräten der Nutzer. Doch selbst ProCivis hat heute noch kein vollständig dezentrales und auf Blockchain beruhendes Speicherungssystem. Das Unternehmen verwendet ein hybrides System. 

Ist ein ebensolch hybrides System also die Lösung für die Zukunft? Sollten die beiden Speichervarianten kombiniert werden? Wie wird die Blockchain-Technologie die Lösung zur Speicherung der E-ID-Daten beeinflussen? Zum heutigen Zeitpunkt lässt sich diese Frage nicht abschliessend beantworten. Es bleibt spannend, welche Technologie sich bei der E-ID durchsetzen wird.

Literaturverzeichnis

Bundesamt für Justiz. Elektronische Identifizierung (E-ID). Abgerufen am 04.05.2019 von https://www.bj.admin.ch/bj/de/home/staat/gesetzgebung/e-id.html

Bundesamt für Kommunikation. Digitale Schweiz. Abgerufen am 08.05.2019 von https://www.bakom.admin.ch/bakom/de/home/digital-und-internet/strategie-digitale-schweiz.html

Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter. Erläuterungen zum Recht auf Vergessen. Abgerufen am 08.05.2019 von https://www.edoeb.admin.ch/edoeb/de/home/datenschutz/Internet_und_Computer/erlaeuterungen-zum-recht-auf-vergessen.html

Gartner. 5 Trends Emerge in the Gartner Hype Cycle for Emerging Technologies 2018. Abgerufen am 06.05.2019 von https://www.gartner.com/smarterwithgartner/5-trends-emerge-in-gartner-hype-cycle-for-emerging-technologies-2018/

Hoepmann, J. & Jacobs, B. (2007). INCREASED SECURITY Through Open Source. COMMUNICATIONS OF THE ACM, 50 (1), S. 79-83.

Jakelj, S. (17. April 2019). Interview. Procivis AG.

Kläusli, T. (5. April 2019). Interview. SwissSign Group AG.

Lacob, M.& M. Moise. (2015). Centralized vs. Distributed Databases. Case Study. Academic Journal of Economic Studies, 1 (4), 119-130.

Neue Zürcher Zeitung. Der Nationalrat erteilt einer staatlichen E-ID eine Abfuhr. Abgerufen am 04.05.2019 von https://www.nzz.ch/schweiz/nationalrat-erteilt-staatlicher-e-id-eine-abfuhr-ld.1468881

Wikipedia. Hype-Zyklus nach Gartner Inc. Abgerufen am 06.05.2019 https://de.wikipedia.org/wiki/Hype-Zyklus#/media/File:Gartner_Hype_Zyklus.svg

Autoren

Florian Duss, Jonas Widmer, Ronald Maurhofer & Julian Zihlmann

Contact us if you have any questions about the degree programme or for individual advice:
Tel.: +41 41 228 42 53 / E-mail: master.ids@hslu.ch


Data is the resource of the 21st century!
Register and join us for a free online Information-Event:

Monday, 2 June 2025 (Online, German)
Monday, 11 August 2025 (Online, English)

MORE INFORMATION TO THE MASTER’S PROGRAMME HERE:
MORE FIELD REPORTS & EXPERIENCES: Professional portraits & study insights
PROGRAMME INFO: MSc in Applied Information and Data Science
CHECK OUT OUR: Generalist profile
FREQUENTLY ASKED QUESTIONS: FAQ

Digitalisierung im Gesundheitswesen

Digitalisierung im Gesundheitswesen

Wo hoch sensible Daten ein enormes Potenzial bergen

Erholsamer schlafen, effektiver trainieren, gesünder leben, konstant den eigenen Puls aufzeichnen, die Schritte zählen und damit sogar Geld sparen? Es gibt viele Gründe, welche die Gesellschaft motivieren, ihr Verhalten und ihren Gesundheitszustand aufzuzeichnen. Das Potenzial, welches sich hinter den gewonnen Gesundheitsdaten und den damit verbundenen Auswertungen versteckt, ist immens. Bald schon könnte jeder Mensch seinen oder ihren persönlichen Arzt ständig auf dem Mobiltelefon dabeihaben. Sie werden sofort informiert, wenn sich der Puls bei einem leichten Aufstieg zu stark erhöht. Oder sie werden von einer App dazu motiviert, doch lieber die drei Tramstationen zum nächsten Meeting zu Fuss zu gehen.

Abb. 1: Die Menge an aufgezeichneten Gesundheitsdaten steigt rasant

Der Austausch von Gesundheitsdaten passiert heute automatisch und ohne, dass man es merkt. Der Mensch ist praktisch ein gläsernes Wesen. Über verschiedenste Sensoren, Mobiltelefone und Smart-Devices werden Daten gesammelt und mit unterschiedlichsten Applikationen geteilt. Werden Gesundheitsdaten den Applikationen gewisser Krankenkassen bekanntgegeben, kann Geld bei den Prämien gespart werden. Dabei wird oft vergessen, wie sensitiv die eigenen Gesundheitsdaten sind. Dem Menschen ist nicht bewusst, dass er seine oder ihre Gesundheitsdaten in vielen Fällen nicht nur mit einem einzigen Unternehmen teilt, sondern diverse Unternehmen und Partner an der Datenverarbeitung beteiligt sein könnten.

Unternehmen können Gesundheitsdaten für eigene Zwecke auswerten und für ihr Marketing weiterverwenden oder die gewonnenen Daten an unbekannten Orten abspeichern. Dabei kann es vorkommen, dass die Bearbeitung und Speicherung dieser Daten nicht den aktuellen Gesetzen entsprechen. Die Anbieter der Applikationen kommen aus unterschiedlichen Ländern und nicht alle kennen die lokalen Gesetze. Gesundheitsdaten sind gemäss Datenschutzgesetz sensible und besonders schützenswerte Daten.

Wissen Unternehmen, wie mit persönlichen Gesundheitsdaten umzugehen ist, oder steht die Gewinnmaximierung an oberster Stelle? Welche Massnahmen befolgen Unternehmen, um den gesetzlichen Vorgaben gerecht zu werden und wie transparent sind Unternehmen den Kunden und Kundinnen gegenüber?

Warum Gesundheitsdaten besonders sind

Artikel 3 des Bundesgesetzes über Datenschutz (DSG) beschreibt die Ausdrücke die unter den Begriff “besonders schützenswerte Personendaten” fallen. Die Ursache für die spezielle Behandlung von Gesundheitsdaten ist, dass diese Daten Auskunft oder Angaben über eine Person geben, die weit in die Persönlichkeit eines Individuums eindringen.

Man könnte denken, dass Finanzdaten sensibler seien als Gesundheitsdaten, meint Thomas Meier, Teamleiter Direktionsbereich Datenschutz beim Eidgenössischen Datenschutz- und Öffentlichkeitsbeauftragten (EDÖB) im Interview vom 18. März 2019. Dies sei aber nur auf den ersten Blick so. Würden die Daten genauer betrachtet, könne rasch festgestellt werden, dass der Sensibilitätsgrad von Gesundheitsdaten im Vergleich massiv höher sei und Personen, welche Gesundheitsdaten mit der Öffentlichkeit teilen, sich selbst aber auch weiteren Menschen grossen Schaden zuführen könnten. Die öffentliche Bekanntgabe über 200’000 Franken Schulden sei für die betroffene Person zwar äusserst unangenehm, die Person habe jedoch die Chance, diese Schulden zu tilgen und darzulegen, dass sich deren finanzielle Situation geändert habe. Sollte jedoch beispielsweise die Erkrankung an Hepatitis einer Person bekannt werden, würde diese Information erstens nie wieder aus dem Netz verschwinden und zweitens ist Hepatitis unheilbar und gehöre dadurch ein Leben lang zu einem Menschen. Drittens könnten die Folgen einer solchen Veröffentlichung im Netz noch verheerendere Folgen haben. Es gibt Krankheiten, die genetisch vererbbar sind. Würden derartige Gesundheitsdaten publiziert, könnten somit auch dritte Personen Schaden nehmen. Betroffene könnten danach mit schwierigen Situationen konfrontieret werden. Aufgrund der hohen Sensibilität seien für Gesundheitsdaten im Bezug auf Datenschutz und Datensicherheit besondere Vorsichtsmassnahmen einzuhalten.

Thomas Meier vom EDÖB betont weiters, dass bereits vor dem Sammeln von Personendaten Verpflichtungen auf die Unternehmen zukämen. Gemäss DSG Artikel 4 muss beim Kunden oder bei der Kundin eine Zustimmung einholt werden. Bereits vor der Bekanntgabe der Daten sei es zwingend notwendig, den Kunden und Kundinnen transparent aufzuzeigen wozu diese Daten verwendet und wem sie weitergegeben würden. «Das Motiv zur Gewinnung und Verwendung der Daten muss vor der Datenbeschaffung bekannt sein und dem Kunden mitgeteilt werden», so Meier (Interview, 18. März 2019).

Das Individuum als Opfer des Datenmissbrauchs

Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte unterscheidet drei Fälle von Datenmissbrauch:

1. Zweckänderung der Datenverwendung

Wird dem Kunden oder der Kundin versichert, dass seine oder ihre  Daten nicht für Marketingzwecke verwendet werden und er oder sie dennoch später personalisierte Produktangebote offeriert erhält, wird von einem Datenmissbrauch aufgrund einer Zweckänderung gesprochen.

2. Missbrauch der Proportionalität von Daten

Eine Verletzung der Proportionalität liegt dann vor, wenn statt aggregierter Daten hoch personalisierte Daten eines Individuums gesammelt und verwendet werden.

3. Weiterverteilung der Daten ohne Erlaubnis

Der Data-Controller ist für die gesamte Bearbeitungskette der Daten verantwortlich und muss sicherstellen, dass Personendaten nicht ohne Erlaubnis des Kunden an Dritte weitergegeben werden. Zudem muss der Data-Controller die Einhaltung der Gesetze sämtliche am Datenfuss beteiligter Partner sicherstellen.

Die Erfüllung dieser Aufgabe sei für Data-Controller äusserst schwierig. Gemäss Meier besässen nur wenige Unternehmen ein Datenflussschema, welches die Art der Verwendung, die Bereitstellung und die Veränderung der Daten sämtlicher beteiligter Partner abbilde.

In der Öffentlichkeit seien bereits diverse Fälle von Datenmissbrauch und deren Folgen bekannt. Trotzdem hätten viele User und Userinnen keine Hemmungen, ihre persönlichen Gesundheitsdaten freizugeben und mit Unternehmen zu teilen.

Federico Marmori, Head of Portfolio & Product Management bei der Swisscom Health AG, ist der Meinung, dass das Teilen und Freigeben von persönlichen Informationen für ein Individuum oft Komfort bedeute (Interview, 11. April 2019).

Digitalisierung im Gesundheitswesen
Abb. 2: Ist der digitale Hausarzt schon bald Tatsache?

Man sei zu bequem, Datenschutzvereinbarungen zu lesen. Mehrheitlich würden diese akzeptiert, ohne dass man einen Gedanken über die Konsequenzen verschwendet habe. Teilweise überwiege der erhoffte (finanziell) Vorteil das mutmassliche Risiko eines Missbrauchs. Inwiefern ein Unternehmen Gebrauch von den gewonnenen Daten macht, sei unterschiedlich. So könnten Unternehmen ausgewertete Daten in Handlungen überführen, welche ein einzelnes Individuum träfen. Auf Basis persönlicher Gesundheitsdaten etwa könne eine Krankenversicherung sich dagegen entscheiden, einer Person eine Versicherung anzubieten; oder die Versicherung würde aufgrund eines höheren Erkrankungs-Risikos individuell viel teurer angeboten. Auch die Interpretation der Daten über den Gesundheitszustand und das Verhalten einer Person könne variieren. Aus Sicht der Krankenversicherung wäre es wünschenswert, wenn eine Person am Tag 15’000 Schritte zurücklege. Ein Arbeitgeber hingegen könne die 15’000 Schritte negativ deuten und sich fragen, wieso sein/ ihr Mitarbeiter oder Mitarbeiterin während der Arbeitszeit so viel Zeit zum Gehen habe (Interview, 11. April 2019).

Stösst das Datenschutzgesetz bald an seine Grenzen?

Unternehmen, welche sich von Anfang an um den Schutz der Daten kümmerten, hätten erfahrungsgemäss keine Probleme mit den Aufsichtsbehörden, meint Thomas Meier vom EDÖB (Interview, 18. März 2019). Heikel würde es, wenn Firmen datenschutztechnische Fragen zu klären versuchten, nachdem sie bereits seit einiger Zeit mit Daten arbeiten und Daten bereits mit anderen Unternehmen geteilt hätten. Zu diesem Zeitpunkt sei es meistens zu spät und bereits entstandene Schäden könnten nicht mehr rückgängig gemacht werden.

Die rasanten technologischen Entwicklungen stellen immer mehr Möglichkeiten zur einfachen Datenbeschaffung und mühelosen Auswertung zur Verfügung. Diese Entwicklung führt dazu, dass das Datenschutzgesetz an seine Grenzen stösst.

Kolja Rafferty, CEO der Schweizer Firma Visionarity AG, erwähnt neben dem gesetzlichen Rahmen auch ethische Überlegungen. «Nur weil etwas legal ist, ist es noch lange nicht legitim», so der CEO von Visionarity (Interview, 17. April 2019). Visionarity gehört zu den führenden europäischen eHealth-Anbietern und betreibt digitale Plattformen für Unternehmen. Als Firma, welche sich unter anderem im Gesundheitsmarkt bewegt, habe sich Visionarity strengen Vorgaben auferlegt. Visionarity habe in den Statuten verankert, dass keine Daten an andere Parteien weitergeben würden. Gemäss Chief Technology Officer (CTO) von Visionarity, Peter Yves Ruland, tat diese Entscheidung weh, da potenzielle Geschäfte nicht abgeschlossen werden könnten. Gleichzeitig sei er jedoch überzeugt, damit einen Erfolgsfaktor für seine Firma geschaffen zu haben.

Ruland betont, dass Datenschutz nicht per se in Widerspruch zu erfolgreichen Geschäftsmodellen stünde. Das A und O sei es, sparsam mit den gewonnenen Daten umzugehen und sich bereits vor der Datenbeschaffung im Klaren zu sein, wofür die Daten verwendet werden sollten. Eine Versicherung solle definieren, wie sie ihre Kunden in Zukunft begegnen wolle. Verfolge die Versicherung die Philosophie, den Kunden auf Augenhöhe zu begegnen, willige sie ein, nicht alles über den Kunden wissen zu wollen. «Man darf gewisse Sachen nicht wissen wollen», unterstreicht der CTO von Visionarity. Wisse eine Versicherung alles über den oder die Kundin, käme diese oder dieser sich ausgenutzt vor, es ginge Respekt und Vertrauen verloren und die Beziehung leide.

«Das ist wie, wenn man durch das Schlüsselloch schaut», vergleicht Ruland die Situation. Neben dem Entscheid, nicht alles wissen zu wollen, gehöre gemäss Visionarity zu einer datenschutzkonformen Philosophie vor allem auch, dass die gewonnenen Daten verschlüsselt seien und die Auswertungen anonymisiert vorgenommen würden (Interview, 17. April 2019).

Wie soll eine Mobile-Applikation Menschen beim Gesundbleiben unterstützen?

Visionarity verfolge die Vision, Verhaltensweisen, welche ein gesundes Leben unterstützen, zu belohnen. «Die Gesellschaft soll durch Loyalitätsprogramme im Gesundheitswesen motiviert werden, den inneren Schweinehund zu überwinden», so der CEO von Visionarity (Interview, 17. April 2019). Dies sei nötig, um die hohen Gesundheitskosten zu senken. In Zusammenarbeit mit der Swica Krankenversicherung entwickelte Visionarity die Applikation Benevita, welche es Swica-Kunden durch das Teilen von persönlichen Gesundheitsdaten ermöglicht, von bis zu 15% Rabatt auf die Zusatzversicherung zu profitieren. Der Kunde habe in der Benevita-Applikation jährlich die Möglichkeit, einen Fragebogen mit Fragen zu seinem Lebensstil und Gesundheitsverhalten auszufüllen (Swica, online). Aus diesen Verhaltens- und Vitaldaten entwickle Visionarity für den Kunden massgeschneiderte Handlungsempfehlungen und vermittle ihm oder ihr auf spielerische Art und Weise Wissen zu gesundheitsrelevanten Themen. Swica erhalte keinerlei Informationen zum Verhalten der Kunden. Visionarity übermittle der Krankenkasse lediglich die im Fragebogen erzielte Totalpunktzahl. Gemäss Kolja Rafferty käme Visionarity dort zum Zuge, wo Versicherungen und andere Unternehmen in die Prävention und das Auskurieren von Krankheiten investieren wollen (Interview, 17. April 2019). Für den Rückgang von Krankheitstagen und die Abnahme von Gesundheitskosten seien Firmen bereit, Geld einzusetzen. Visionarity garantiere seinen Kunden und Kundinnen die Einhaltung des Datenschutzgesetzes. Bei Visionarity erfolge die Datenauswertung auf anonymisiertem und aggregiertem Level. Rückschlüsse auf individuelle Personendaten seien unmöglich. Weiter interessiere Visionarity bei ihren Auswertungen in erster Linie Fakten zum Erfolg des Loyalitätsprogrammes: Wird Benevita wahrgenommen? Welcher Content ist beliebt? Wie lange bleiben Benevita-Nutzer auf der Plattform? Nicht die einzelne Person, sondern die Verbesserung der allgemeinen Gesundheit stünden im Zentrum. Und genau dort wolle sich Visionarity vom Mitbewerb abheben, welche die Gewinnmaximierung durch Kundendaten in den Mittelpunkt rückten.

Datenmanagement soll Transparenz schaffen und Heilungskosten senken

Neben der Absicht, die Menschen beim Gesundbleiben zu unterstützen, verfolgten Anbieter wie Visionarity auch das Ziel, kranken Menschen beim Gesundwerden unter die Arme zu greifen. «Heute existieren unzählige Krankheiten, bei welchen Bewegung wichtiger ist als die Verabreichung von hochdosierten Medikamenten», so der CEO von Visionarity (Interview, 17. April 2019). Mit personalisierten Erinnerungen und Ratschlägen motiviere und helfe Visionarity den Benevita-Nutzern, an ihrer Gesundheit zu arbeiten. Indirekt könnten dadurch Kosten für Medikamente und Arztbesuche gespart werden. Die «Überarztung» sei aktuell ein grosses Thema. Unnötige Arzttermine und Medikamente, mehrmalige Übernachtungen im Spital oder unzählige Arten von Röntgenaufnahmen seien heute die Norm und würden von der Krankenkasse in der Regel ohne Widerstand bezahlt. Federico Marmori von Swisscom Health AG glaubt, dass durch die zahlreichen Möglichkeiten und Applikationen, welche Patienten und Patientinnen in Zukunft vermehrt zur Verfügung stehen würden, die Transparenz im Gesundheitswesen gefördert würde (Interview, 11. April 2019). Patienten stünden langwierigen Behandlungen und unbekannten Medikamenten kritischer gegenüber, seien informierter und trügen mit ihrem Verhalten dazu bei, dass die ungerechtfertigte Bereicherung durch Mediziner und Spitäler abnehmen werde.

Wie das elektronisches Patientendossier zur Wettbewerbsfähigkeit beiträgt

Ein Thema, welches in Zukunft massiv an Bedeutung gewinnen wird und im Jahr 2020 allen Schweizer Patienten und Patentinnen zur Verfügung stehen soll, ist das elektronische Patientendossier (EPD). Gemäss Federico Marmori birgt das EPD ein riesiges Potenzial für die Gesundheitsbranche in der Schweiz (Interview, 11. April 2019). Im EPD würden in Zukunft sämtliche behandlungsrelevante Patientendaten von Ärzten, Spitälern aber auch Daten, welche der Patient selbst erfassen könne, auf einer Plattform gesammelt und abgebildet. Das EPD würde für Patienten und Patientinnen am Anfang (noch) freiwillig sein und benötige eine jeweils rechtsgültige Unterschrift. Dadurch würde sowohl zwischen PatientInnen und ÄrztInnen aber auch zwischen verschiedenen ÄrztInnen und Spitälern Transparenz geschaffen. Unnötig verschriebene Medikamente oder Therapien könnten leichter identifiziert werden. Die Ärzte und Ärztinnen könnten sich untereinander schneller und einfacher austauschen und der Patient oder die Patientin hat ein Instrument in der Hand, welches die individuellen Gesundheitsdaten in einer Applikation vereine. Die Datensicherheit und der Datenschutz blieben auch beim EPD eine wichtige Thematik, die nicht unterschätzt werden dürfe. Schliesslich würde die erfolgreiche Implementierung von EPD einen massgeblichen Beitrag zur Wettbewerbsfähigkeit der Schweiz beisteuern und die Schweizer Gesundheitsbranche in gutes Licht rücken (EPD, online).

Data Science und künstliche Intelligenz als Schlüsseldisziplinen der Zukunft?

Neue Applikationen, welche die menschliche Gesundheit bis ins Detail abbilden, Ratings für den Vergleich von Ärzten und Spitälern oder der Einsatz von künstlicher Intelligenz zur Unterstützung der Ärzte bei Diagnosen. Persönliche Medizin basierend auf dem eigenen Genom oder auch die verbesserte Verfolgung von Patienten während Behandlungen. Dies sind nur einige von vielen Ideen, welche aus den gewonnenen Daten resultieren können.

Digitalisierung im Gesundheitswesen
Abb. 3: Data Science und Human-Genom in der Medizin von morgen

Die Möglichkeiten, die Data Science und künstliche Intelligenz künftig mit sich bringen, sind immens. Bei aller Euphorie um die obigen Vorteile sind datenrechtliche Themen und ethische Gedanken nicht zu vernachlässigen. Essenziell bleibt die Tatsache, dass der Kunde oder die Kundin freiwillig zustimmen und ausdrücklich einwilligen muss, seine oder ihre persönlichen Daten preiszugeben. Weiter ist eine Firma dazu verpflichtet, den Kunden und Kundinnen bereits vor der Datengewinnung über das Motiv der Datenverwendung zu informieren und wird dazu angehalten, die Daten anonymisiert und verschlüsselt zu verwenden. Dass im Gesundheitsbereich in Zukunft trotz der hohen Sensitivität vermehrt Informationen und Daten gewonnen werden, zeigen die Expertenmeinungen deutlich auf. Je mehr Daten für Analysen zur Verfügung stehen, desto höher ist das Potenzial für die Schweizer Gesundheitsbranche. Die Gesellschaft darf also gespannt bleiben, welche Verbesserungen die kommenden Jahre im Gesundheitswesen mit sich bringen. Vielleicht ist dies sogar der Anfang eines wahren Gesundheitssystems, in welchem nicht mehrheitlich von kranken, sondern von gesunden Personen profitiert wird.

Literaturverzeichnis

Adobe Stock. Photos. Abgerufen am 06.05.2019 von https://stock.adobe.com/de/

Bundesgesetz über den Datenschutz [DSG] vom 19. Juni 1992, SR 235.1. EPD. Informationen. Abgerufen am 08.05.2019 von https://www.patientendossier.ch/de/bevoelkerung/informationen

Marmori, F. (2019). Head of Portfolio und Product Management, Swisscom Health AG. Interview, Zürich, 11.04.2019.

Meier, T. (2019). Juristischer Berater und Teamleiter Direktionsbereich Datenschutz, Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter (EDÖB). Interview, Bern, 18.03.2019.

Rafferty, K. A. (2019). Chief Executive Officer (CEO), Visionarity AG. Interview, Zürich, 17.04.2019.

Ruland, P. Y. (2019). Chief Technology Officer (CTO), Visionarity AG, Interview, Zürich, 17.04.2019.

Swica. Für Private. BENEVITA Bonusprogramm und Gesundheitsplattform. Abgerufen am 08.05.2019 von https://www.swica.ch/de-ch/fur-private/versicherungslosungen/benevita-bonusprogramm

Autoren

Anastasiia Chebatarova, Andreas Dorta & Carmela Wey

Contact us if you have any questions about the degree programme or for individual advice:
Tel.: +41 41 228 42 53 / E-mail: master.ids@hslu.ch


Data is the resource of the 21st century!
Register and join us for a free online Information-Event:

Monday, 2 June 2025 (Online, German)
Monday, 11 August 2025 (Online, English)

MORE INFORMATION TO THE MASTER’S PROGRAMME HERE:
MORE FIELD REPORTS & EXPERIENCES: Professional portraits & study insights
PROGRAMME INFO: MSc in Applied Information and Data Science
CHECK OUT OUR: Generalist profile
FREQUENTLY ASKED QUESTIONS: FAQ

AI vor Gericht: Schuldig oder nicht?

AI vor Gericht: Schuldig oder nicht?

Rechtliche und ethische Herausforderungen der zunehmenden Verbreitung von Artificial Intelligence.

Es ist ein Fall, der auch hierzulande für viel Aufregung gesorgt hat: Im Mai 2016 hat sich im US-Bundesstaat Florida erstmals eine Kollision mit einem hochautomatisierten Auto ereignet. Der Insasse des Fahrzeugs der Marke Tesla kam bei der Kollision mit einem Lastwagen ums Leben. Nun stellt sich die Frage, wer bei solchen Unfällen die Verantwortung trägt (Henkel, 2016).

Ein weiteres Beispiel für das Versagen von derartigen halb- bzw. hochautomatisierten Systemen ist der tödliche Unfall mit einem Fahrzeug der Firma Uber im März 2018. Das Auto kollidierte zu später Stunde mit einer Fahrradfahrerin, welche die Strasse abseits eines Fussgängerstreifens überquerte. Obwohl das Auto selbstfahrend unterwegs war, sass zum Zeitpunkt des Unfalls eine Frau hinter dem Steuer. Diese sogenannte Sicherheitsfahrerin war jedoch zu wenig aufmerksam und realisierte zu spät, dass das Fahrzeug die Fahrradfahrerin nicht als Hindernis einstufte (Hebermehl & Stegmaier, 2018).

Dieser Blogtext schildert anhand von Beispielen, in welchen Situationen Menschen mit Artificial Intelligence (AI) in Kontakt kommen und wer im Schadensfalle dafür haften muss oder sollte. Ein Professor für Maschinenethik und ein Experte für Recht im digitalen Zeitalter äussern sich zu möglichen Haftungsmodellen zur Schuldfrage sowie ethischen wie auch rechtlichen Herausforderungen im Zusammenhang mit der zunehmenden Verbreitung artifizieller Systeme. Ziel des Artikels ist, den LeserInnen verschiedene Denkanstösse zu bieten und etwas zur Sensibilisierung dieses heutzutage omnipräsenten Themas beizutragen.

Haftungsmodelle: Wer trägt die Schuld?

Der schnelle technologische Fortschritt könnte Anpassungen der rechtlichen Grundlagen erfordern. Aktuell werden daher verschiedene Haftungsmodelle zu künstlicher Intelligenz diskutiert und verglichen. Ein mögliches Beispiel wäre, AI als Naturgewalt anzusehen. Für Prof. Dr. Oliver Bendel von der Fachhochschule Nordwestschweiz ist dies jedoch kein sinnvoller Lösungsansatz. Als Dozent für Maschinenethik hat er sich ausgiebig mit der Thematik um autonome Systeme (im Besonderen auch autonome Fahrzeuge) und den damit zusammenhängenden Herausforderungen beschäftigt. Würde ein Unfall dieser Art als Naturereignis eingestuft, so käme dies der Denkweise gleich, das gelegentliche Sterben von Menschen in solchen Situationen als normal zu erachten. Frei nach dem Motto “Es kann nicht beeinflusst werden und ab und zu wird es Opfer geben”.

Oliver Bendel stuft diese Vorstellung als zynisch ein. Speziell im Bereich des autonomen Fahrens sieht er eine mögliche Lösung des Problems darin, selbstfahrende Autos nur im dafür geeigneten Umfeld einzusetzen. Konkret schlägt er dafür vor allem die Autobahn vor, da gerade dort aufgrund der fehlenden Einflussfaktoren wie Fussgänger oder Fahrradfahrer das autonome Fahren viel sicherer gestaltet werden kann.

Ein weiterer Aspekt, der gegen die Naturereignis-Idee spricht, ist die Tatsache, dass autonome Systeme schliesslich Produkte von Entwicklern sind. Auch Dr. Philip C. Hanke, Verlagsleiter bei Weblaw und Experte für Rechts-, Volkswirtschafts- und Politikwissenschaft, ist dieser Meinung.

Er vertritt die Ansicht, dass mit zunehmender Autonomie von Systemen die Verantwortung der Hersteller wächst und diese daher in vernünftigem Mass für ihre entwickelten Systeme haften sollten. Die Auslagerung dieser Verantwortung, beispielsweise an eine speziell dafür geschaffene elektronische Persönlichkeit, schaffe am Ende mehr Probleme, als dass sie welche lösen würde. Aktuell wird der Hersteller eines Produkts für Design- oder Produktionsfehler belangt. Bei Unfällen, die sich bei der Verwendung des Produkts ereignen, haftet hingegen in der Regel der Konsument. Bei einem solchen Haftungsmodell würden sich Autobesitzer aber zu Recht fragen, warum sie überhaupt ein selbstfahrendes Auto kaufen sollten, wenn sie als Fahrzeuginsasse letzten Endes für jegliche Zwischenfälle die Verantwortung trügen.

Das Rechtssystem müsse hier korrekte Anreize schaffen, um diese Bedenken zu beseitigen. Ansonsten würden die Menschen in Zukunft gar nicht die Vorzüge des autonomen Fahrens geniessen können. Es mache wenig Sinn, dass der Insasse eines komplett autonomen Fahrzeugs, das über kein Lenkrad und keine Pedale verfügt, die Schuld an einem Unfall tragen soll. Dies wiederum würde auch seitens der Hersteller Bestrebungen verstärken, sicherere Systeme zu entwickeln. Schlussendlich sollte die Haftungsfrage aber immer berücksichtigen, wer zum Zeitpunkt eines Unfalls in der besten Position war, diesen zu verhindern. Gerade bei selbstfahrenden Autos spielt die Unterteilung in die Faktoren teilautonom und vollautonom eine wichtige Rolle. Beim erwähnten tödlichen Unfall von Tesla steuerte der Autopilot das Fahrzeug zum Zeitpunkt des Unfalls. Der Fahrer wäre jedoch jederzeit in der Lage gewesen, wieder die volle Kontrolle zu übernehmen.

“Die Aktionen von autonomen Systemen sind keine Naturereignisse, sie sind das pure Gegenteil.”

Prof. Dr. Oliver Bendel

Wie aus  Internet-Videos hervorgeht, sind die Lenker eines solchen teilautonomen Fahrzeugs leider viel zu oft unvorsichtig (SRF, 2019). Nach Meinung von Oliver Bendel würden die Fahrer in solchen Situationen mitverantwortlich für ein Verkehrsunglück sein, da sie sich zu stark hätten ablenken lassen. Der Fahrzeughersteller hätte hier aus rechtlicher Sicht wohl keinen Fehler begangen. Prof. Dr. Bendel betont jedoch, dass hinsichtlich rechtlicher und ethischer Perspektiven unterschieden werden könne. Aus ethischer Sicht könne durchaus auch der Hersteller zur Verantwortung gezogen werden.

Denn Firmen wie Tesla oder Uber würden technisch noch nicht ausgereifte Autos auf den Markt bringen. Zuletzt sieht Prof. Dr. Oliver Bendel neben Lenker und Hersteller von autonomen Fahrzeugen einen Teil der Verantwortung auch beim Staat. Die Gesetze der USA beispielsweise seien zu locker und würden dadurch Unfälle dieser Art begünstigen.

Haftungsfrage (eigene Zeichnung)

Diskriminierung: Unfaire Entscheidungen von Algorithmen

Ein weiterer Aspekt, wie Menschen heute unter den Entscheidungen von künstlicher Intelligenz leiden können, ist die Diskriminierung. Computer sind fähig, riesige Mengen an Daten zu analysieren und darauf basierend Entscheidungen zu treffen. Diese Abläufe beinhalten immer eine gewisse Zweischneidigkeit. Einerseits ist es wünschenswert, dass ein Computer emotionslos und unvoreingenommen rein datenbasierte Entscheidungen trifft. Andererseits können so extrem harte und aus menschlicher Sicht nicht tragbare Konsequenzen entstehen. Ein gutes Beispiel dafür lieferte das Wall Street Journal im Artikel “Meet the new boss: Big Data” (Walker, 2012).

In diesem Bericht wird beschrieben, wie der Druckerhersteller Xerox die Daten der Call-Center-Mitarbeitenden mit einem massgeschneiderten Algorithmus analysiert hat. Zweck war es, herauszufinden, welche Eigenschaften Mitarbeitende haben müssen, um sie möglichst lange an die Firma zu binden. Anreiz für diese Analyse waren die relativ langen Trainingszeiten für neue Mitarbeitende und eine generell höhere Fluktuation in dieser Abteilung. Die Analyse hat ergeben, dass ein kurzer Arbeitsweg sowie eine tiefe Aktivität in sozialen Netzwerken entscheidend für die Anstellungsdauer sind. Basierend auf diesen Erkenntnissen wurde der Bewerbungsprozess bei Xerox für Call-Center-Mitarbeitende angepasst. Klassische Fragen bezüglich Arbeitserfahrung wurden durch jene mit computergenerierten Kriterien ersetzt. Dieses Vorgehen ist im Prinzip natürlich noch nicht diskriminierend. Es kann jedoch problematisch werden, wenn diese Kriterien von gewissen Bevölkerungsschichten nicht erfüllt werden können. Im Bericht des Jusletters (Daedelow, 2018) wird folgendes Beispiel verwendet, um die Problematik aufzuzeigen. Ein Bewerber ist auf der Suche nach einer längerfristigen Stelle und hat bereits Berufserfahrung in Call-Centern gesammelt. Er wird vom Computer jedoch als ungeeignet klassifiziert, weil sein Wohndomizil zu weit vom Arbeitsort entfernt ist. Der Wohnort des Bewerbers liegt in diesem Beispiel in einem Stadtbezirk mit einem hohen Ausländeranteil. Daedelow ist nun der Auffassung, das Auswahlkriterium “Wohnort nah am Arbeitsplatz” diskriminiere indirekt Bewerber ausländischer Herkunft, da diese von diesem Ablehnungskriterium überproportional betroffen sind.

Bestrafung von Robotern und die Zusammenarbeit mit diesen

Betrachten wir die Herausforderungen im Bereich des autonomen Fahrens und der Diskriminierung von Menschen durch AI, drängt sich das Gefühl auf, dass sich die Zusammenarbeit zwischen Mensch und Maschine in Zukunft schwierig gestalten wird. Zudem wird es vermutlich noch komplexer, sollten vermehrt auch humanoide Roboter zum Einsatz kommen. Laut Prof. Dr. Oliver Bendel neigen Menschen nämlich dazu, schnell eine Beziehung zu einem Roboter aufzubauen, ähnlich wie bei Tieren. Diese emotionale Bindung könnte bei Fehlfunktionen des Roboters das Verlangen hervorrufen, diesen zu bestrafen. Sowohl aus Expertensicht von Prof. Dr. Oliver Bendel und Dr. Philip C. Hanke sei es jedoch nicht sinnvoll, eine Art Gefängnisstrafe für Roboter oder allgemein künstliche Intelligenz vorzusehen. Dies bräuchte es in der Gegenwart und wohl auch in Zukunft nicht. Diesbezüglich sollten die Menschen nach Aussage von Prof.Dr. Oliver Bendel eher an sich selbst arbeiten, um sich nicht zu stark von Emotionen leiten zu lassen und so eine reibungslose Zusammenarbeit mit AI zu ermöglichen. Die Gefahr der emotionalen Falle schätze er nicht zu gross ein, da die meisten Menschen mit grosser Wahrscheinlichkeit nur gelegentlich mit Robotern zu tun haben werden. Vorsicht sei aber dort geboten, wo Personen ständig von Robotern umgeben sind. Insbesondere dort könnten sich gewisse Tendenzen von Menschen durch die ständige Präsenz von Robotern verstärken. Im schlimmsten Fall wäre dies eine Verstärkung persönlicher Probleme. Eine Möglichkeit, dem entgegenzuwirken, wäre die Einführung von sogenannten Verfremdungseffekten. Dadurch weist die künstliche Intelligenz den Menschen beispielsweise mit bewusst platzierten Aussagen darauf hin, dass sie nicht zu vermenschlichen sei. Tesla verfolgt bei ihrem Autopiloten einen ähnlichen Ansatz, obgleich es hier wohl zu weit ginge, von einem Verfremdungseffekt zu sprechen. Der Autopilot weist den Fahrer lediglich darauf hin, dass er weiterhin das Fahrzeug kontrollieren muss (Wolfangel, 2017). Prof. Dr. Bendel sieht hier aber die Problematik, dass sich Menschen an solche Hinweise gewöhnen und diese mit der Zeit gekonnt ignorieren könnten. Jedoch sei dieses Gebiet noch zu wenig erforscht und es wäre falsch, hier voreilige Schlüsse zu ziehen und gar Verbote für den Einsatz von autonomen Systemen und Robotern zu erlassen.

Rechtslage in der Schweiz: Sind wir schon soweit?

Der momentane Stand des Schweizer Rechts und verschiedene potentielle Ansätze zum Umgang mit der Schuldfrage bei Systemen künstlicher Intelligenz werden zurzeit umfassend in der juristischen Lehre diskutiert. Die Debatte reicht von Detailfragen bei bereits weit verbreiteten Technologien wie Roboter-Staubsaugern bis hin zu rein hypothetischen Science-Fiction-Terminator-Szenarien. Der rechtliche Rahmen beinhaltet jedoch zurzeit noch keine speziell auf autonome Systeme ausgelegte Inhalte, das heißt, es gibt noch keine spezifischen AI-Gesetze. Anpassungen, zum Beispiel des Produkthaftungsrechts, werden zwar diskutiert, aber es gibt noch keine konkreten Vorschläge dazu, wie der rechtliche Rahmen konkret verändert werden sollte. Es wird sich zeigen, wie die Gerichte die bestehenden Gesetze interpretieren und auslegen werden. Was an rechtlichen Anpassungen notwendig sein wird, werde daher von der künftigen Rechtsprechung abhängig sein, erklärt Dr. Philip C. Hanke. Bis jetzt gäbe es sehr wenige Urteile, in denen es um autonome Systeme ging. Erst wenn die ersten Urteile da sind, werde sich zeigen was mit den bestehenden Gesetzen und dem Ermessen der Richter gelöst werden könne, oder ob es gesetzliche Anpassungen brauche. Es sei noch zu früh zu sagen, welche Entwicklungen es geben würde. Bei vielen algorithmischen Verfahren sei es generell schwierig nachzuvollziehen, wie eine Entscheidung zustande gekommen ist. Man spricht daher auch oft von Blackbox-Algorithmen (Wolfangel, 2017). Dr. Hanke erklärt, dass dieses Verständnis für Unternehmen wichtig sein wird, wenn es darum geht, sich in einem Gerichtsverfahren zu verteidigen. Jedoch sei beispielsweise der Einsatz von neuronalen Netzwerken diesbezüglich nicht genau geregelt.

Möglicherweise werde es Übergangsregelungen für AI geben, wie früher bei der Einführung des Autos. Damals mussten Autos speziell gekennzeichnet werden und es musste sichergestellt werden, dass Autos die Pferde nicht erschreckten. Als das Auto dann verbreiteter war und es weniger Pferde gab, haben sich diese Regeln erübrigt.

Den eingangs erähnten Uber-Fall schätzt Dr. Philip C. Hanke dahingehend ein, dass in der Schweiz vermutlich ähnlich entschieden worden wäre. Da noch eine Fahrerin im Auto war, die noch hätte eingreifen können, sei es durchaus sinnvoll, eine gewisse Haftung bei dieser Person zu belassen. Schliesslich sei sie in der besten Position, um einen Unfall vermeiden zu können. Auch international findet momentan ein globaler Denkprozess statt. Man fragt sich, ob und wie AI umfasend reguliert werden soll. Philip C. Hanke plädiert für globale Lösungen und den internationalen Austausch.

Es sei wichtig, dass es keine Insellösungen gäbe. Die Schweiz werde nicht in der Lage sein, eine ganz individuelle Regelung einzuführen. Die Kompatibilität zwischen den Ländern müsse gegeben sein, denn selbstfahrende Autos sollten nicht nur in einem einzigen Land fahren können.

Wessen Regeln zählen?

Eine weitere Herausforderung bei der Einführung neuer Technologien ist jeweils deren Akzeptanz und Verbreitung in der Bevölkerung. Während die intelligenten Algorithmen und zunehmend automatisierten Fahrzeuge langsam mehr und mehr in unseren Alltag drängen, stellt sich die Frage, wessen Moral und Regeln sie letztendlich befolgen. Programmierer bringen den Maschinen bei, wie sie sich zu verhalten haben, aber nach welchen und wessen Regeln sollen sie funktionieren?

Eine einfache Handlung wie das Winken vor dem Zebrastreifen bedeute in Deutschland „Fahr weiter“, während die gleiche Geste in der Schweiz jedoch “Anhalten” bedeute. Mit diesem Beispiel zeigt Oliver Bendel auf, wie komplex der Einsatz von Künstlicher Intelligenz im Strassenverkehr ist. Jedes Fahrzeug müsste alle kulturellen und gesetzlichen Unterschiede kennen und sich je nach Land an verschiedene Verhaltensweisen und Gesetze anpassen können. Da das Fahrzeug den  momentanen Standort ermitteln könne, könnten die länderspezifischen Regeln nach dieser Information umgesetzt werden. Es bräuchte eine internationale und unabhängige Möglichkeit, den Strassenverkehr zu autonomisieren. Wenn es soweit kommen würde, dass globale Standards eingesetzt würden, müssten lokale wie auch individuelle Befindlichkeiten berücksichtigt werden, was wiederum hoch komplex sein würde. Mit diesen Argumenten erklärt sich Oliver Bendel zum autonomen Fahren insgesamt als sehr skeptisch.

Im Zusammenhang mit Herausforderungen durch AI und Robotik geben die drei Robotergesetze Asimovs (1942) eine umfassende Idee, was hierbei als relevant erachtet werden sollte. Für Maschinen- und Roboterethiker Oliver Bendel sind diese zwar eine Inspiration, tatsächlich funktionierten sie in diesem Umfang nach seiner Meinung aber nur in der Geschichte und kämen selbst da an ihre Grenzen. Alleine an der Anzahl der Gesetze könne erkannt werden, dass sie nicht ausreichend seien. Als Maschinenethiker baut Prof. Dr. Oliver Bendel mit seinem Team Chatbots, denen sie mit Hilfe von Metaregeln und Regeln eine gewisse Moral einpflanzen. Er forscht an sogenannten Moralmenüs, die eine Stellvertretermaschine mit einer Stellvertretermoral erzeugen. Auf das Beispiel von autonomen Fahrzeugen übertragen, würde das heissen, dass Besitzer ihre Autos so programmieren könnten, dass diese eine aggressive Fahrweise aufweisen oder nur auf die Sicherheit des Fahrers sensibilisiert würden.

Dies würde Oliver Bendel jedoch ablehnen – Moralmenüs eigneten sich nur bedingt für die offene Welt und den öffentlichen Raum.

Wird AI zur Pflicht? Conclusio und Ausblick

Die Verbreitung von AI bringt verschiedene ethische und rechtliche Herausforderungen mit sich. Anpassungen des rechtlichen Rahmens werden sowohl in der Schweiz als auch international intensiv diskutiert, jedoch gibt es noch keine konkreten Vorschläge, wie dieser rechtliche Rahmen verändert werden sollte. Erst die künftige Rechtsprechung wird zeigen, ob die momentane Gesetzgebung ausreicht, um Rechtsstreitigkeiten bezüglich AI zu lösen. Sollte dieser Zustand als Unsicherheit ausgelegt werden, könnte die Entwicklung und Einführung neuer Technologien gehemmt werden. Bei den Haftungsmodellen sind die elektronische Person sowie die Betrachtung als Naturereignis nicht zielführend. Ein Haftungsmodell mit Verantwortung beim Nutzer und Hersteller, bei welchem sich die Verantwortung mit zunehmendem Grad der Automatisierung zum Hersteller verschiebt, erscheint sinnvoller.

Es ist vorstellbar, dass in der Zukunft Verpflichtungen entstehen, Daten zu teilen.

Dr. Philip C. Hanke

Neben der Frage, welche rechtlichen und ethischen Herausforderungen die Verbreitung von künstlicher Intelligenz mit sich bringt, verdient auch die Umkehrfrage entsprechende Aufmerksamkeit: Was passiert, wenn künstliche Intelligenz nicht eingesetzt wird?

Über 90 Prozent aller Unfälle im Strassenverkehr sind auf Fehlverhalten oder Fehleinschätzungen der lenkenden Person zurückzuführen (BFU, 2019). Im Gegensatz zum Menschen wird künstliche Intelligenz nicht müde oder damit fehleranfälliger, weil sie länger arbeitet. Dr. Philip C Hanke erklärt, dass wir uns als Gesellschaft die Frage stellen müssten, ob es nicht bald sogar zu Verpflichtungen kommen würde, künstliche Intelligenz einzusetzen:

“Meine Vorhersage ist, dass es in ein paar Jahrzehnten verboten sein wird, ein Auto selbst zu fahren, weil es als zu gefährlich eingestuft werden wird. So wie es heute verboten ist, ohne Sicherheitsgurte oder ohne Scheinwerfer zu fahren, wird es in der Zukunft verboten sein, ohne Autopiloten zu fahren.”  

Zum Thema Datenschutz fügt er ausserdem hinzu:

“Personen haben ein legitimes Interesse, dass persönliche Daten nicht eingesehen werden. Aber was, wenn diese Daten die Systeme viel besser machen? Entsteht daraus eine zumindest moralische Verpflichtung die Daten zu teilen, weil dies das Leben von anderen retten könnte? Es ist vorstellbar, dass in der Zukunft Verpflichtungen entstehen, Daten zu teilen.”

Möglich sei also auch, dass trotz momentan noch offenen ethischen und rechtlichen Fragen der Einsatz von AI zur Pflicht würde und wir mit unseren Daten dazu beitragen, die Systeme zu verbessern. Die oben erwähnten Unfallzahlen würden zeigen, ob sich der Einsatz lohnt.

Quellen

Bendel, O. (2019). Künstliche Intelligenz und deren rechtliche und ethische Herausforderungen. Interview, Brugg, 21.03.2019.

BFU (2019). Fahrassistenzsysteme – selbstfahrende Autos. Abgerufen am 5. Mai 2019 von https://www.bfu.ch/de/ratgeber/ratgeber-unfallverh%C3%BCtung/strassenverkehr/autofahrer/fahrerassistenz-systeme/fahrerassistenz-systeme

Daedelow R. (2018). Jusletter. Wenn Algorithmen (unfair) über Menschen entscheiden

Hanke, P. C. (2019). Künstliche Intelligenz und deren rechtliche Herausforderungen. Interview, Bern, 25.04.2019.

Hebermehl, G., Stegmaier, G. (2018). Sicherheitsfahrerin streamte Fernsehprogramm | auto-motor-und-sport.de. Abgerufen am 9. Mai 2019 von https://www.auto-motor-und-sport.de/news/toedlicher-unfall-autonom-fahrendes-auto-uber-volvo-video/

Henkel, C. H. (2016). Wenn der «Roboter am Lenkrad» einen Fehler macht | NZZ. Abgerufen 4. Mai 2019, von https://www.nzz.ch/wirtschaft/unternehmen/haftungsfrage-nach-toedlichem-tesla-unfall-wenn-der-roboter-am-lenkrad-einen-fehler-macht-ld.103508

SRF (2019). Tödlicher Unfall mit Tesla ruft Behörden auf den Plan. Abgerufen am 4. Mai 2019 von https://www.srf.ch/news/international/aehnlichkeit-mit-crash-2016-toedlicher-unfall-mit-tesla-ruft-behoerden-auf-den-plan

Walker, J. (2012). Walll Street Journal. Meet the new Boss: Big Data – Companies Trade in Huch-Based Hiring for Computer Modeling. Abgerufen am 29. April 2019 von https://www.wsj.com/articles/SB10000872396390443890304578006252019616768

Wolfangel, E. (2017). Künstliche Intelligenz voller Vorurteile | NZZ. Abgerufen 5. Mai 2019, von https://www.nzz.ch/wissenschaft/selbstlernende-algorithmen-kuenstliche-intelligenz-voller-vorurteile-ld.1313680

Autoren

Ayse Yildiz, Silvan Burnand, Luis Limonta, Patrick Sommer & Lars Gisler

Contact us if you have any questions about the degree programme or for individual advice:
Tel.: +41 41 228 42 53 / E-mail: master.ids@hslu.ch


Data is the resource of the 21st century!
Register and join us for a free online Information-Event:

Monday, 2 June 2025 (Online, German)
Monday, 11 August 2025 (Online, English)

MORE INFORMATION TO THE MASTER’S PROGRAMME HERE:
MORE FIELD REPORTS & EXPERIENCES: Professional portraits & study insights
PROGRAMME INFO: MSc in Applied Information and Data Science
CHECK OUT OUR: Generalist profile
FREQUENTLY ASKED QUESTIONS: FAQ

fh-zentralschweiz