Scroll Top
victoria-albert-museum-x-va-pepr-projekt

VA-PEPR im Victoria and Albert Museum

Im Rahmen des London Design Festivals nahm VA-PEPR am Digital Design Weekend 23 teil

Die interaktive Installation des VA-PEPR-Projekts (genannt: Voice Matters) wurde wĂ€hrend des Digital Design Weekend 23 im Victoria and Albert Museum in London im Rahmen des London Design Festival 🎉 👏 ausgestellt.

Das Team prĂ€sentierte „Voice Matters“, eine Installation, die zum Nachdenken anregt und die faszinierende Schnittmenge von KI und menschlicher Interaktion erforscht. Die Installation befasste sich mit der FĂ€higkeit der KI, unsere GesprĂ€che zu hören, zu verstehen und zu interpretieren. đŸ€– Teilnehmer aller Altersgruppen erlebten aus erster Hand, wie viel von unseren tĂ€glichen GesprĂ€chen von den uns umgebenden intelligenten GerĂ€ten verstanden und zusammengefasst werden kann.

Herzlichen GlĂŒckwunsch an Michael Shorter, Jon Rogers, Melanie Rickenmann, Aurelio Todisco, Aysun Aytaç, Sabine Junginger und Edith Maier!

Die Installation wird demnĂ€chst an der Hochschule Luzern – Design & Kunst (HSLU D&K) zu sehen sein. Stay tuned!

Wie funktioniert VOICE MATTERS?

Die Mikrofone Die Mikrofone in Voice Matters ist mit einer Reihe von Raspberry Pis verbunden und lĂ€uft mit Microsofts Cloud-basierter KI, Azure. Gemeinsam hören sie stĂ€ndig zu, verstehen und ĂŒbersetzen alles, was gehört wird. Diese Daten werden dann in ein stĂ€ndig wachsendes Textdokument eingefĂŒgt, das dann auf verschiedene Weise analysiert wird. Dieses wird auf den 7 Bildschirmen von Voice Matters angezeigt.

Bildschirm 1: Kosten der Spracherkennung Auf diesem Bildschirm werden die Kosten fĂŒr den Betrieb von Voice Matters angezeigt, zu denen auch der Echtzeit-Dienst „Sprache zu Text“ von Microsoft und der Chat-GPT-Dienst von OpenAI gehören. Wir bezahlen dafĂŒr, dass wir unserer Umgebung stĂ€ndig zuhören. Wir wollten, dass die Betrachter darĂŒber nachdenken, ob sie dies gerne bezahlen wĂŒrden. Oder sollte die Spende ihrer Daten an Technologieunternehmen ausreichen?

Bildschirm 2: Das letzte Wort Dieser Bildschirm zeigt das letzte Wort an, das Microsofts Sprache-zu-Text-Dienst glaubt, gehört zu haben. So kann der Betrachter sehen, wie Akzente verstanden werden, aber auch, wie empfindlich die Hardware ist.

Bildschirm 3: Vertrauen in die Maschine Die Technologie ist nicht zu 100 % von ihrer eigenen FĂ€higkeit ĂŒberzeugt, genau zu hören. Dieser Bildschirm hebt die Klappe zu dieser Blackbox-Technologie und ermöglicht es dem Betrachter zu sehen, wie sicher die KI bei allen Wörtern war, die sie gehört hat. Noch interessanter sind die Wörter, die sie nicht gehört hat: die Wörter, bei denen maschinelles Lernen zum AusfĂŒllen von LĂŒcken verwendet wird.

Bildschirm 4: WordCloud Auf diesem Bildschirm wird eine WordCloud mit dem angezeigt, was die KI gehört hat. Je grĂ¶ĂŸer das Wort ist, desto hĂ€ufiger wurde es gehört.

Bildschirm 5: Themen Hier nutzen wir die Möglichkeiten von ChatGPT, um die Sprachdaten zu analysieren und eine aussagekrĂ€ftige Zusammenfassung zu erstellen. Dieser Bildschirm zeigt das Ergebnis der Aufforderung an ChatGPT, die fĂŒnf wichtigsten Themen in der Reihenfolge ihrer Wichtigkeit zu generieren.

Bildschirm 6: Zusammenfassung Dieser Bildschirm zeigt die Ausgabe der Aufforderung an ChatGPT an, eine Zusammenfassung mit 75 Wörtern aus den Sprachdaten zu erstellen.

Bildschirm 7: KreativitÀt Wie kreativ ist ChatGPT? Dieser Bildschirm erzeugt ein Bild und ein Haiku aus allem, was die Maschine gehört hat.