Wie funktioniert das Zusammenspiel zwischen Menschen und Roboter? Was braucht es, damit Vertrauen in Maschinen und künstliche Intelligenz entsteht? Wie kann Wissen über KI wirksam Verbreitung finden? Diese und mehr Fragen stehen im Mittelpunkt der Forschung des LIT Robopsychology Lab der JKU in Linz. Dr.in Sandra Maria Siedl, BA MA, Alumna der FERNFH, ist seit Juli 2020 als wissenschaftliche Mitarbeiterin dort tätig. In ihrem Impulsvortrag, initiiert vom Alumni-Netzwerk der FERNFH, ließ sie die Teilnehmenden im Rahmen dreier Blitzlichter an bisher gewonnenen Erkenntnissen teilhaben, die in den folgenden Abschnitten kurz skizziert werden:
ExoBility. Akzeptanz und Effekte industrieller Exoskelette am Arbeitsplatz
Industrielle Exoskelette sind physische Assistenzsysteme, die direkt am Körper getragen werden. Sie gewinnen als neue technische Hilfsmittel zur Unterstützung von Mitarbeiter*innen bei körperlich anstrengenden Arbeiten zunehmend an Bedeutung, werfen jedoch vielfach Fragen hinsichtlich ihrer Akzeptanz und Wirkung auf. So ist beispielsweise bis dato unklar, inwieweit Exoskelette die Selbstwahrnehmung von Nutzer*innen beeinflussen können. Im Rahmen einer Studie mit aktivem Hand-Exoskelett, die der Untersuchung möglicher Dehumanisierungseffekte diente, konnten die Forscher*innen folgendes feststellen: Die Verwendung des robotischen Hand-Exoskeletts führte bei Träger*innen dazu, dass sie sich als signifikant kälter, maschinenhafter und weniger attraktiv wahrnahmen. Neben Implikationen für das Systemdesign wird die hohe Relevanz einer gut begleiteten und kommunizierten Systemimplementierung in Unternehmen deutlich.
HOXAI. Hands-on Explainable Artificial Intelligence
Mit Bezug zum Projekt „Hands-on Explainable AI“ wurde die Bedeutung visueller Erklärungsstrategien für das Vertrauen, das Menschen in KI-unterstützten Entscheidungen setzen, thematisiert. Die Forscher*innen stellten sich konkret die Frage, wie Nutzer*innen dabei unterstützt werden können, ihr Vertrauen in KI zu „kalibrieren“ und folglich Über- und Untervertrauen zu vermeiden. Auf Basis einer für Studienzwecke entwickelten KI-basierten Applikation zur Schwammerlsuche wurde in einem experimentellen Studiensetting eine Interface-Variante mit zusätzlichem Erklärformat (Heatmap und Nearest Neighbours) mit einer Variante ohne Erklärstrategie verglichen. Es zeigte sich, dass die zusätzlichen Erklärungen dazu beitragen konnte, den Nutzer*innen ein realistischeres Bild betreffend die Leistungsfähigkeit und Zuverlässigkeit des Systems zu vermitteln (was im konkreten Fall ein geringeres Vertrauenslevel der Nutzer*innen bei schlechter Identifikationsleistung des Systems bedeutete).