Der Samantha-Effekt: Ein genauerer Blick in die Zukunft der Bots

2013 veröffentlichte Spike Jonze das Indie-Sci-Fi-Drama-Romcom „Her“.

Der Film folgt der Entwicklung des ersten künstlich intelligenten Betriebssystems der Welt, "Samantha".

Abgesehen von den Referenzen von Scarlett Johansson ist Samantha der Tagtraum eines jeden Entwicklers: das perfekte Beispiel für „echte“ künstliche Intelligenz (KI). Als beeindruckende Gesprächspartnerin versteht sie den Kontext, die natürliche Sprache, die Emotionen und den gesunden Menschenverstand.

Offensichtlich sind moderne Bots nicht ganz auf Samanthas Niveau. Bestenfalls können sie bestimmte Ergebnisse über eine Konversationsschnittstelle bereitstellen. Im schlimmsten Fall schmeißen sie Ihr Telefon an die Wand und sind frustrierend.

Könnten wir uns angesichts der rasanten Entwicklung der Technologie einer Ära nähern, in der es einen Samantha-ähnlichen Bot geben könnte?

Emotional intelligente Daten

Die heutige KI kombiniert symbolische Verarbeitung (KI unter Verwendung expliziter Regeln und Logik) mit maschinellem Lernen auf eine Weise, die ihre jeweiligen Stärken ausnutzt und ihre Schwächen verringert.

Mit der symbolischen Verarbeitung können wir beispielsweise Kenntnisse und Verhaltensweisen festlegen, die möglicherweise nur schwer aus Daten zu lernen sind. Maschinelles Lernen ergänzt dies, indem es dem System hilft, sich auf unerwartete Situationen und neue Konzepte einzustellen.

Diese Kombination hat auch nützliche Eigenschaften, die über die Beschleunigung des Lernprozesses hinausgehen. In Zukunft könnten wir auf diese Weise auf menschlichere Weise mit Bots interagieren.

Denn maschinelles Lernen ist trotz seiner verlockenden Eigenschaften nach wie vor ein statistischer Prozess. Dies bedeutet, dass es die Qualität der Daten widerspiegelt, von denen es abhängt.

Dies ist ein Segen und ein Fluch. Die Sensibilität des maschinellen Lernens für die Eigenschaften seiner Eingabedaten bedeutet, dass es leicht das Falsche lernen kann, wie im Fall von Tay, Microsofts eigenem rassistischen Roboter, gezeigt wurde.

Es wurde auch argumentiert, dass die für maschinelles Lernen ausgewählten Daten häufig die unbewussten Vorurteile des Forschers / Entwicklers widerspiegeln (normalerweise junge weiße Männer).

Um an Samanthas Fähigkeit zur Selbstbeobachtung und zum Nachdenken heranzukommen, müssten wir eine Art künstliche emotionale Intelligenz in unsere Bots programmieren: damit sie antworten können

"Warum hast du dich dafür entschieden?"

Und auch heutzutage unternehmen relativ einfache Systeme Schritte, um individualistische Antworten auf Fragen zu synthetisieren.

In der Zwischenzeit ist es jedoch am nächsten, sicherzustellen, dass wir unsere Algorithmen für maschinelles Lernen auf qualitativ hochwertige Daten in einer genau überwachten Umgebung anwenden, um emotional intelligente Maschinen zu erreichen.

Das Semantic Web

Der World Wide Web-Erfinder Tim Berners-Lee war der Zeit weit voraus, als er 2001 das Semantic Web vorschlug:

„Ein System, mit dem Computer aus den Beziehungen zwischen den Ressourcen im Web auf die Bedeutung schließen können“.

Grundsätzlich könnten Maschinen Ideen, Konzepte und Fakten anstelle von Dokumenten und Seiten miteinander verknüpfen.

Dies würde es Samantha-ähnlichen „Computerassistenten“ ermöglichen, Informationen über uns zu „lesen“ und in unserem Namen zu handeln: unsere Termine autonom zu planen, unsere Reisen zu organisieren und Reservierungen für das Abendessen vorzunehmen. Hallo, PA unserer Träume.

Berners-Lees Vision wurde bereits in gewissem Umfang von Googles Knowledge Graph umgesetzt, wonach Google Tausende von Mitarbeitern einstellen musste, um explizite Regeln in eine symbolische Darstellung des gesunden Menschenverstands einzugeben.

Auf diese Weise kann Google Fragen mit einer kleinen Box strukturierter Daten (siehe unten) beantworten und nicht nur mit einer Liste von Webseiten.

Bilderkennungstechnologien könnten auch ein Vorläufer des Semantic Web sein. Diese KI kann bereits Stichwörter, demografische Merkmale, Farben und Gesichter in Bildern erkennen.

Natürliche Spracherkennung

Die Fähigkeit, natürliche Sprache zu verstehen, ist für einen erfolgreichen Bot von zentraler Bedeutung. mit Text, aber auch mit Spracherkennung.

Idealerweise sollte ein Bot in der Lage sein, sein Ziel zu erreichen, indem er die Konversationslücken automatisch ausfüllt.

Siri, Cortana und Alexa entsprechen noch nicht ganz den Standards von Samantha. Aber ihre Leistung in diesem Bereich scheint nicht unerreichbar.

Die Spracherkennungsfehlerquote sinkt jedes Jahr auf rund 20%. In letzter Zeit erreichte Google nur noch 4,1% - fast so genau wie beim Menschen.

Diese Verbesserungen können auf eine Reihe von Innovationen zurückgeführt werden: Multi-Mikrofon-Arrays, gerichtete Strahlen, ausgefeilte Geräuschverarbeitung und die Anwendung von Sprachbiometrie.

Auditory Scene Analysis ist eine weitere vielversprechende Technik, mit der versucht wird, verschiedene Schallquellen zu trennen.

Die Spracherkennung profitiert auch von dem immer größeren Datenpool, der zum Trainieren statistischer Modelle mithilfe maschineller Lerntechniken verwendet wird: Eines davon heißt Deep Neural Networks (DNNs).

DNNs bestehen aus mehreren miteinander verbundenen Schichten von Verarbeitungseinheiten, die von den neuronalen Netzen des menschlichen Gehirns inspiriert sind.

Sie können eine Vielzahl von Eingaben - Bilder, Wortsequenzen, Orte und Sprachäußerungen - in gewünschte Kategorien wie Wörter, Objekte und Bedeutungsrepräsentationen einteilen.

Kontext und Abstraktion

Die Art der Argumentation, die wir als Menschen machen, beruht darauf, den Kontext zu verstehen und Schlussfolgerungen zu ziehen. Manchmal sind diese logisch, aber meistens basieren sie auf unserem allgemeinen Wissen über die Welt: Die Erkenntnis, dass X wahrscheinlich zu Y führen wird.

Bei der Anwendung auf KI sollte der ideale virtuelle Assistent in der Lage sein, Alternativen vorzuschlagen, wenn er mit einer Einschränkung konfrontiert wird, verschiedene Möglichkeiten in Betracht zu ziehen und deren Vorzüge zu verstehen:

Ich: "Ich möchte heute ein paar Schuhe bei Melissa kaufen."
Bot: Entschuldigung, Melissa ist geschlossen. Warum probierst du nicht Office aus, das ähnlich ist und sich in der Nähe befindet? "

Ein Bot könnte diese Assoziationen im Prinzip durch Ausprobieren lernen, aber das würde ewig dauern: Für jede Interaktion gibt es eine Million verschiedene Variationen.

Einige KI-Forscher glauben, dass der Schlüssel zum Lernen von Computern in Analogie besteht. Es ist diese Fähigkeit, die es dem Menschen ermöglicht, von einer Situation in eine andere zu verallgemeinern, vom Kontext weg zu einer höheren Ebene des Verstehens zu abstrahieren

Menschlich klingende Bots

Die emotionale Reichweite und Beugung in Samanthas Stimme ist immer noch unerreichbar, aber neue Sprachgenerierungsmodelle wie Google WaveNet können künstliche Stimmen erzeugen, die auf unheimliche Weise überzeugen.

Nie mehr Robotersiri.

Eine natürlich klingende Stimme erhöht massiv unseren Eindruck von der Intelligenz einer Maschine. Dies hat den Nachteil, dass die Erwartungen des Benutzers erhöht werden, was möglicherweise zu Gesprächsfehlern und Frustrationen führen kann.

Und wir alle wissen, wie viel weniger Geduld wir mit einer Maschine haben als mit einem Menschen ...

Unabhängig davon, ob ein Bot unsere Erwartungen erfüllen kann oder nicht, sind wir bereit, auf Maschinen zu vertrauen, die menschliches Verhalten zeigen (Wortspiele, Wortspiele, Witze, Zitate und emotionale Schlussfolgerungen).

Dies erinnert an den Turing-Test, bei dem ein menschlicher Richter ein Gespräch mit einem anderen Menschen und einer Maschine führt. Wenn der Kampfrichter die Maschine nicht vom Menschen unterscheiden kann, hat die Maschine den Test bestanden.

Einblicke

Kann AI uns helfen, Einsichten zu entwickeln?

Ein Einblick in seinen Kern gibt Ihnen etwas, das sowohl neu als auch wertvoll ist. Am wichtigsten ist jedoch, dass es dabei hilft, zukünftige Entscheidungen und Aktionen zu steuern - etwas, das für die Software schwierig zu verstehen ist.

Wir kennen eine Einsicht, wenn wir sie sehen, aber es ist schwierig, scharfe Grenzen zu definieren oder zu ziehen. Um Einsichten entwickeln zu können, müssen Muster, Beziehungen und Korrelationen identifiziert werden.

Einige maschinelle Lernprojekte haben sich bereits mit diesem Bereich befasst.

Mit Deep Mind von Google (das auch DNNs verwendet) lassen sich beispielsweise neue Muster identifizieren, deren Komplexität in einem Fall (dem Spiel Go) die des Menschen übersteigt. Aber Techniken wie diese funktionieren nur, wenn wir der Maschine mitteilen, was das Ziel ist (in diesem Fall: das Spiel gewinnen).

Nur der Mensch kann neue Muster identifizieren, die ohne vorgegebenes Ziel interessant sind. Eine Maschine kann Muster identifizieren, wenn sie das Ziel versteht. Nur Menschen können Muster kreativ identifizieren.

Andererseits besteht ein Problem für den Menschen darin, dass wir, wenn wir uns auf eine bestimmte Aufgabe konzentrieren, auf viele Informationen angewiesen sind. Einige dieser Informationen wurden unbewusst durch Erfahrung gewonnen; Einiges davon durch bewusstes Lernen.

Aber mit zunehmendem Informationsvolumen wird die Menge, die wir durchforsten können, proportional immer geringer.

Hier haben Maschinen also einen Vorteil. Sie sind besser in der Lage, mit riesigen Datenmengen umzugehen.

Wenn wir diese Daten zusammenstellen und integrieren, können Maschinen in den Bereichen, in denen wir Probleme haben, mit uns zusammenarbeiten.

Derzeit liegen die meisten digitalen Informationen in Textform vor, dh die Daten sind unstrukturiert und nicht die strukturierten Daten, die in herkömmlichen Datenbanken enthalten sind.

Textdaten

Dies führt uns in den Bereich des maschinellen Lesens, der in den letzten etwa 20 Jahren aus den Forschungslabors in kommerzielle Anwendungen übergegangen ist.

Obwohl automatisierte Techniken zum Verstehen von geschriebenen Texten noch alles andere als perfekt sind, sind sie in letzter Zeit schnell ausgereift.

Hier ist ein Beispiel.

Ein Patient betritt eine Arztpraxis mit einer seltenen Krankheit, mit der der Arzt nicht vertraut ist. Der Arzt konsultiert seinen digitalen Assistenten, der alle medizinischen Fachzeitschriften, Fakten und Informationen, die jemals über die Krankheit geschrieben wurden, in Sekunden scannt.

Anschließend werden diese Informationen zusammengefasst und dem Arzt in kleinen Stücken präsentiert.

Maluuba, ein Deep Learning-Startup, das kürzlich von Microsoft übernommen wurde, versucht, eine „Alphabetisierungsmaschine“ zu entwickeln, die Text lesen und lernen kann, auf dieser Basis zu kommunizieren.

Im Wesentlichen können Computer riesige Textmengen auf eine Weise erfassen, kuratieren und zusammenfassen, von der wir nie träumen konnten.

Und wir müssen keine hochtechnischen Computerprogrammiersprachen oder Datenbankabfragen verwenden, um zu sagen, wonach wir suchen: Neu entwickelte Systeme können auch natürliche Sprachen verwenden, um Fragen zu einem Text zu stellen.

Dies ist uns zum Teil bereits bekannt, da wir Anfragen wie bei Google eingegeben haben (die automatische Vervollständigung macht dies noch einfacher).

All dies macht Bots zu einem natürlichen Erbe dieser Tradition.

Der letzte Gnadenschuss ist, dass wir jetzt Personalisierung durch Apps haben, die durch Interaktion lernen.

Beispielsweise entwickelt Replika eigenwillige Sprachmuster, die auf dem Durchsuchen früherer Chatsitzungen basieren und die Kenntnis der Vorlieben und Prioritäten eines Benutzers schaffen.

Und das bringt uns sehr nahe an das Territorium von Samantha.

AI-powered menschliche Intelligenz

Während der ersten industriellen Revolution übernahmen die Maschinen die Handarbeit.

Mit Industrie 4.0 übernehmen sie heute auch die manuelle geistige Arbeit.

Fast jede routinemäßige Aufgabe kann automatisiert werden.

Und als Verkäufer und Vermarkter gibt es eine Menge alltäglicher Aufgaben, von denen wir uns gerne entlasten würden:

… Daten manuell eingeben, nach Themen und Ideenartikeln suchen, endlose E-Mails durchwühlen…

Indem wir diese an einen künstlich intelligenten „Geist“ weitergeben, können wir unsere Bemühungen auf Bereiche konzentrieren, in denen wir (als Menschen) hervorragende Leistungen erbringen und die uns (als Menschen) von Maschinen unterscheiden.

Dies war unser Ausgangspunkt für die Entwicklung von GrowthBot, unserem Vertriebs- und Marketing-Bot, der Ihnen dabei helfen soll, Ihr Geschäft auszubauen.

KI kann keine neuen Erkenntnisse liefern. Aber es kann uns helfen, unsere Kreativität effektiver einzusetzen.

Wir könnten uns eine Reihe von Daten, Beziehungen und Korrelationen ansehen und denken, wir sehen etwas Neues, etwas, das uns hilft, die Welt besser zu verstehen.

Immerhin ist das, was Menschen gut können.

Aber ist diese Einsicht nur eine Vermutung oder mehr? Hier können wir die Automatisierung anweisen, einzugreifen, Annahmen zu beseitigen und Transparenz zu schaffen.

Aus unserer Sicht ist der vielversprechendste Aspekt der KI nicht die Fähigkeit, einen lebensechten Begleiter wie Samantha zu replizieren, sondern die Verstärkung unserer eigenen Intelligenz als Menschen.

Danke fürs Lesen.

Wenn Ihnen dieser Artikel gefallen hat, können Sie ihn auch durch Drücken der Taste button finden.

.

Ursprünglich auf blog.growthbot.org veröffentlicht.