Projektbeschreibung
VERDI (Vertrauen in Digitalisierung am Beispiel von Systemen zum [teil-]autonomen Fahren und Fahrassistenzsystemen)
Die fortschreitende Digitalisierung und Automatisierung vieler Aufgabenbereiche durch zunehmend komplexer werdende Systeme wirft nicht nur Fragen nach deren adäquater Benutzung und ihrer gesellschaftlichen Annahme auf, sondern muss gleichzeitig deren Konformität mit europäischen Grundrechten und Werten sowie deren Vertrauenswürdigkeit thematisieren. Im Automobilsektor spiegeln sich diese Prozesse in der Entwicklung von Fahrassistenzsystemen wider, die immer umfangreichere Fahrfunktionen übernehmen und dabei das gewohnte Verständnis von rechtlicher Verantwortung, Sicherheit und Privatsphäre herausfordern. Aufbauend auf den vorangegangenen Arbeiten der steirischen Forschungspartnerinnen (die Universität Graz und das Forschungs- und Kompetenzzentrum – Das Virtuelle Fahrzeug Forschungsgesellschaft mbH[1]) in zwei EU Projekten (TRUESSEC[2] und SCOTT[3]) ist das Ziel von VERDI die Erforschung der Vertrauenswürdigkeit von hoch automatisierten Fahrzeugen (SAE Lv. 3) aus einer interdisziplinären Perspektive (Recht, Ethik, Psychologie und Soziologie).
Vertrauen stellt ein zentrales Konzept zur Analyse einer adäquaten Benutzung von automatisierten Systemen dar: Unangebrachtes Vertrauen („over-trust“) kann zu Fehlgebrauch oder Missbrauch, zu wenig Vertrauen („under-trust“) zur Ablehnung, also Nicht-Benutzung eines Systems führen. Der erhoffte Nutzen von hoch automatisierten Fahrzeugen kann sich nur manifestieren, wenn BenutzerInnen (ebenso wie alle anderen beteiligten VerkehrsteilnehmerInnen) der Automatisierung mit „kalibriertem Vertrauen“ begegnen und damit die Grenzen des Systems kennen und wissen, in welchen Situationen Vertrauen angebracht ist.
Im Rahmen von VERDI wird dazu ein auf den Europäischen Grundrechten basierender Kriterienkatalog für die Vertrauenswürdigkeit von hoch automatisierten Fahrzeugen entlang der aus den Vorgängerprojekten angepassten Kernbereiche Transparenz, Privatsphäre, Antidiskriminierung, Autonomie, Respekt, Schutz und Funktionalität entwickelt werden. Die dabei gefundenen Ergebnisse sollen zu einem zukünftigen Standardisierungsprozess beitragen. Weiters wird eine reliable Erhebungsmethodik vorgestellt, die Vertrauen auf vielfältigen Ebenen erfasst, um zukünftige Systeme verlässlich zu evaluieren.
[1] <www.v2c2.at/about> (27.08.2019)
[2] <www.truessec.eu> (27.08.2019)
[3] <www.scottproject.eu> (27.08.2019)
Kontakt
Univ.-Prof. Dr. Elisabeth Staudegger
Institut für Rechtswissenschaftliche GrundlagenUniversitätsstraße 15 C/1
8010 Graz
Kontakt
Hofrat Dipl.-Ing. Robert Link
freesia innovation e.U.