Erlernen der Grundlagen der Conversational UI mit einem UX Designer für Amazon Alexa

https://arstechnica.com/gadgets/2017/05/amazon-alexa-ads-voicelabs/

Während meines Praktikums bei Intuit im letzten Sommer war ich Teil eines Hackathon-Teams, das eine Konversations-UI-Erfahrung geschaffen hat. Wir haben einige Leute interviewt, die Erfahrung auf diesem Gebiet hatten, und ich hatte die Gelegenheit, Angela Nguyen zu interviewen. Angela ist UX-Designerin bei Amazon und arbeitet im Alexa-Team. Sie können ihre Arbeit hier sehen.

Wie gestalten Sie Konversationsbenutzeroberflächen?

Es kommt auf das Gespräch an. Ich arbeite hauptsächlich mit Einkaufsfragen, weil ich im Einkaufsteam bin.

Mein Prozess beginnt immer beim Kunden und seinen Bedürfnissen.

Wenn sie zum Beispiel versuchen, Papierhandtücher zu kaufen, denke ich zuerst über die Reaktion der KI nach. Wird es Papierhandtücher zurückgeben, wenn es bereits gekauft wurde oder in der gegenwärtigen Situation? Wo machen sie diese Bestellung oder können sie eine Bestellung per Kreditkarte machen? Dies hängt von den Kriterien dieser Person ab, da jede Person, die dieselbe Frage stellt, dazu führen kann, dass die KI auf andere Weise antwortet.

Jede Situation ist für jeden Menschen anders.

Nehmen wir an, eine bestimmte Person kauft immer Papiertücher, und vielleicht sind es die gleichen Handtücher. Ich erstelle gerne einen Antwortbaum („Mind Mapping“). Es beginnt mit dieser einen Frage, abhängig von den Umständen dieser Person. Diese Person hat dieses Handtuch oft gekauft, daher könnte Alexa antworten: "Möchten Sie wieder Papiertücher kaufen?" Wenn Sie noch nie ein Handtuch gekauft haben, empfiehlt die KI möglicherweise eine Marke.

Wie entwirft man eine Benutzeroberfläche für Voice oder Chatbots?

Es gibt kopflose Geräte, Sprachprodukte ohne Gesicht oder Benutzeroberfläche. Dies ist komplett Voice UX. Dann gibt es "Gesichtsgeräte", die einen Bildschirm haben, ähnlich wie Siri.

Wenn Sie für Produkte mit Gesicht entwerfen, sollten Sie die Frage berücksichtigen: "Möchten Sie die gleichen Grafiken anzeigen, die die Stimme sagt?" Wenn eine Stimme sagt, ich habe Papiertücher, die 10 US-Dollar kosten und in 2 Stunden geliefert werden, hat sie dann das Bild, den Preis usw. oder nur das Bild? Es ist nur gut zu überlegen, ob eine Person etwas sieht.

Können wir die Grafiken oder Stimmen vereinfachen?

Ein gutes Beispiel dafür ist YouTube. Wenn Sie sich jemals ein Video ansehen und auf der Seite landen, wird das Video abgespielt. Sie können jedoch trotzdem zu den Videos scrollen, während Sie das Hauptvideo ansehen.

Während Ihr Gehirn das Audio versteht, nehmen Ihre Augen andere Informationen auf. Das menschliche Gehirn kann mehrere Aufgaben ausführen. Wenn wir also Audio hören und Bilder erhalten, müssen diese nicht übereinstimmen. Sie können gleichzeitig zuhören und Kommentare anzeigen. Sie können dies beim Entwerfen der Benutzeroberfläche und der Sprache berücksichtigen. Sie müssen nicht die Dinge zeigen, die Sie sagen.

Wie sieht die visuelle Darstellung von Text bei einigen Produkten aus, an denen Sie gearbeitet haben?

Die Benutzeroberfläche könnte ein Bild eines Papiertuchs sein, während die Stimme sagen würde: „Dies ist die Wahl von Amazon für Papiertücher. Dies ist das beste Ergebnis, das am höchsten bewertet wird und 10 US-Dollar kostet. Du kannst es mittags bekommen. “ Die Stimme würde es genauer erklären, während Grafiken das sind, was Sie sich ansehen würden.

Wie erstellt man einen Prototyp mit einer Konversations-Benutzeroberfläche?

Am einfachsten ist es, einen grafischen Prototyp wie eine App oder eine Website zu erstellen. Es ist genau der gleiche Vorgang wie beim UX-Design, aber Sie fügen der Animation zusätzlich eine Stimme hinzu. Wenn Sie es mit Personen testen, können Sie sie fragen: „Wie würden Sie mit dem Gerät sprechen?“, Und sie dazu bringen, es zu berühren und damit zu spielen.

Sie können Einblicke erhalten, wie Menschen auf etwas reagieren oder darüber sprechen. Ein Beispiel ist die Frage nach dem Wetter. Sie könnten fragen: "Wie ist das Wetter?" versus "Was ist die Temperatur?" Sobald sie mit der KI kommunizieren, können Sie die von Ihnen erstellte Animation wiedergeben und ihre Reaktionen und Interaktionen mit dem Prototyp anzeigen.

Es gibt viele Dinge zu beachten. Was soll der Benutzer zum Beispiel sagen? Müssen sie ihre Stimme erheben? Was ist, wenn sie nur Gesten oder nur Stimme und keine Gesten verwenden? Sind die Informationen zu viel, zu wenig, zu kurz?

Es gibt auch Reaktionsgeschwindigkeit. Bei der Stimme gibt es so viele Dinge zu beachten. Wenn Sie sich mit Technologie beschäftigen, müssen Sie Dinge wie Latenz berücksichtigen. Wie lange dauert es, bis die KI reagiert, bis etwas nicht stimmt?

An welchen Stellen wird die Benutzeroberfläche für Konversationen verwendet, und welche Auswirkungen haben diese Auswahlmöglichkeiten?

Derzeit ist die Benutzeroberfläche für Konversationen sehr neu. Die Leute haben immer noch Angst, mit Geräten zu sprechen. Ich habe heute zum ersten Mal mit jemandem über seine Erfahrungen mit seinem Echo gesprochen. Sie erklärte ihre ersten Reaktionen darauf. Sie fand es seltsam, über etwas zu sprechen, das nicht da war.

In einem kürzlich erschienenen Artikel über Alexa und den Home Pod wird es unangenehm sein, mit dem Home Pod zu sprechen, weil Sie „Siri“ sagen müssen. Es ist ein Roboter und es ist eine goldene Äußerung, mit diesem Gerät zu sprechen. Alexa ist gesprächiger, als wenn Sie mit einer Person sprechen.

Das Ziel ist es, die Menschen vergessen zu lassen, dass ein Gerät ein Roboter ist, sondern ein Mensch. Das liegt daran, dass die Leute Angst vor Technik haben. Als der Computer herauskam, sagten die Leute zum Beispiel: "Was, du musst nicht mehr in die Bibliothek gehen?". Wir hatten diese Dinge jahrhundertelang nicht, so wie als Uber herauskam. Sie rufen im Grunde eine Person aus dem Internet an und sie taucht auf.

Veränderungen in der Technik machen die Leute verrückt.

Wenn wir als Designer diesen Übergang für die Menschen viel einfacher machen können, fällt es den Menschen leichter, auf KI zu reagieren und neue Technologien einzuführen. In Bezug auf die Nutzung ist es für die Bequemlichkeit. Zum Beispiel, wenn Sie ein Gerät nach einem Zeitplan oder Kochen fragen können oder wenn es eine Möglichkeit gibt, einen Tisch zu decken oder nach Maßen zu fragen (von Tassen bis Millimetern).

Wo sehen Sie die Zukunft der Konversations-Benutzeroberfläche und was denken Sie dahinter?

Die Benutzeroberfläche für Konversationen sieht so aus, als würde Ihnen ein Mensch folgen.

Ganz ehrlich, ich denke, es wird Teil des Alltags. Als Sie gefragt haben, wo Sie jetzt die Benutzeroberfläche für Konversationen sehen, habe ich gesagt, dass sie in praktischen Bereichen und in Hubs platziert wurde, in denen die KI platziert wird, z. B. in der Küche. Die Benutzeroberfläche für Konversationen ist überall verfügbar. In dem Moment, in dem Sie aufwachen, steigen Sie ins Auto. Es wird der gleiche Moment sein. Es wird nahtlos, wenn wir uns von Ort zu Ort bewegen.

Schauen Sie sich meinen Skillshare-Kurs zur UX-Forschung an und lernen Sie etwas Neues!

Um Ihnen den Einstieg in Ihre Designkarriere zu erleichtern, finden Sie hier einige erstaunliche Tools von Rookieup, einer Website, auf der ich Mentoring von erfahrenen Designern erhalten habe. Wenn Sie die unten angegebenen Links verwenden, erhalten Sie einen Rabatt:

  • Erstellen Sie mit Hilfe eines erfahrenen Designers ein Portfolio
  • Wichtige Werkzeuge zur Stärkung und zum Aufbau Ihres Portfolios
  • Übernehmen Sie die Kontrolle über Ihre Zeit und Karriere, indem Sie Freiberufler werden
  • Tipps und Tricks, um einen fantastischen Designjob zu bekommen

Links zu einigen anderen coolen Lesungen:

  • Der Untergang von Designteams und -produkten - Wiederherstellung und Erleichterung einer integrativen Designkultur
  • Wie das Schreiben von 106 Artikeln in einem Jahr mir geholfen hat, als Designer zu wachsen
  • Ich habe bei Facebook als neuer Absolvent interviewt. Folgendes habe ich über Design gelernt
  • Als Design Leader aufstehen
  • Journey Mapping ist der Schlüssel, um Empathie zu gewinnen
  • UX basiert auf Begründung, nicht auf Design