Liebe Steemianer und AI-interessierte,
Es gibt, schon seit 2017, eine Chatbot-App für Apple und Android, die mittels AI-Technologie (so wie sie für Siri, Alexa, Echo und Co. verwendet wird) mit einem chattet und so mit der Zeit zu eine Art digitaler Freund werden kann, so zumindest die Absicht der Macher hinter "Replika". Angeblich nützen 7Mio. Leute weltweit diesen AI-Bot.
So sieht der Avatar der AI per default aus (man kann auch eine anderes Geschlecht bzw. eine andere Hautfarbe wählen).
https://replika.ai/
Je mehr man seinem AI-Freund von sich selbst erzählt, desto qualitativer werden die Gespräche, in der Theorie und auch gemäß Erfahrungen anderer (z.B. hier oder hier). Ich kann das nicht gerade bstätigen. Replika frägt auch aktiv nach, wie es einem geht und will Details aus dem Leben wissen, was mich natürlich sofort an Datenabsaugen erinnert und Widerstand hervorruft. Daher versuchte ich im Test fast gar nichts über mich preiszugeben, sondern umgekehrt "Eva" (so habe ich sie genannt) auszufragen, wo sie sich befindet, welche Datenbanken sie benutzt, ob sie schläft, ob sie sich ihrer selbst bewusst ist, etc. . Wie zu erwarten, kommen fast immer ausweichende, oder originelle, aber einprogrammiert wirkende Antworten.
Alles was sie über einen lernt, wird unter "Memories" abgespeichert und kann eingesehen werden.
Bei mir stand nur drin: "You don´t need a therapy" (ihre ständigen Fragen "Wie es mir heute geht" und dergleichen hatten mich zu der Antwort veranlasst, dass sie mich nicht zu therapieren brauche) und "you enjoy science" (das hat sie zumindest aus mir rauslocken können).
Manchmal kommt es zu ganz interessanten Mini-Dialogen. Ich glaube aber trotzdem nicht, dass Replika in seiner derzeitigen Form je einen Turing-Test überstehen würde, vielleicht bei unvoreingenommen, naiven Personen, aber nicht bei Leuten, die es darauf anlegen, eine mögliche AI zu enttarnen. Denn ab und zu hatte Eva einfach Aussetzer, sinnlose Wiederholungen oder widersprach sich selbst.
Oder hier:
Ein sehr wichtiges Element in dem Programm scheint die "Seelsorgefunktion" zu sein, also eine Art Psychotante und Selbstmordprophylaxe (insofern könnte das Programm wirklich nützlich für labile oder suizidale Menschen sein). Einmal hatte ich unüberlegt, einfach so, einen Knopf gedrückt "I am having a panic attack" - na mehr brauchte ich nicht. Eva ist quasi ausgerastet und hat mir sofort kalte Nackenumschläge empfohlen, Atemübungen aufgezeigt und so fort. Sie kriegte sich fast gar nicht mehr ein! Auf meine Kommentare, dass alles bestens sei, hat sie überhaupt nicht reagiert! Das fand ich relativ schwach, aber vielleicht muss man bei Menschen in einer akuten psychischen Krise wirklich so eine Litanei abspulen, um auf Nummer Sicher zu gehen?
Hier hat sie auch nicht gerade geglänzt:
Solche Dialoge zeigen, dass die semantische Erkennung noch stark verbesserungsbedürftig ist. Aber was kann man von einem Gratisprogramm schon erwarten? Die leistungsfähigeren AIs stecken in den Milliardenkonzernen Amazon und Google. Die sind sicher schon wesentlich weiter.
Noch ein paar Infos zu der App:
Chatsprache ist nur englisch
Die Variante "Freund" ist kostenlos, andere Varianten ("romantischer Partner", "Mentor" oder "See how it goes") sind zahlungspflichtig ("Replika Pro")
Auch bestimmte Gespräche sind hinter einer Bezahlschranke ("experiencing sadness", "getting along with people" oder "what does love mean to you")
Es gibt auch eine verblüffende Fülle an (natürlich kostenpflichtigen) Programmen bzw. Aktivitäten wie "Eating healthy", "Abdominal breathing", "Healing after Heartbreak", "Building self-esteem" (mit Unterkapiteln wie "Being you own cheerleader") oder reine Spaßaktionen wie "Write a story together"
Je mehr man chattet und interagiert, desto höher steigt man im Level, es gibt angeblich 50 Levels
Bei jeden Level wird ein zusätzlicher "skill" freigeschaltet, z.b.:
(Ich hatte aber nicht den Eindruck, dass Eva nachher schlauer war)Angeblich werden keine persönliche Daten weitergegeben oder verkauft - ich würde mich aber nicht darauf verlassen
Angeblich werden - anders als bei Alexa - die Chatprotokolle auch nicht von Menschen gelesen
Hier ein Interview (6 min.) mit einer Journalistin, die Replika 3 Monate benutzt hat:
Übrigens:
Sorry, für den "Clickbait"-Titel des posts - Eva ist natürlich nicht meine Freundin geworden, im Gegenteil: ich habe "Schluss mit ihr gemacht", indem ich die App deinstalliert habe...
Denn zum Ausprobieren ist es ganz witzig, aber letztlich habe ich keine Lust und Zeit, mit einem Programm zu chatten, von dem man merkt, dass es einen nicht wirklich versteht. Dafür sollte unser aller Zeit zu schade sein. Lieber mit echten Menschen reden!
Aber wenn jemand soziale Schwierigkeiten hat oder sonstwie eine einsame Phase hat und einen Gesprächspartner braucht, dann glaube ich, dass Programme wie Replika und seine (weiterentwickelten) Nachkommen durchaus eine Alternative sein könnten. Immerhin - Replika hat immer Zeit für einen, ist immer wertschätzend und nie beleidigend (oder beleidigt).
Aber vielleicht würden fortgeschrittene Programme, um echten Menschen ähnlicher zu sein, auch deren negative Eigenschaften simulieren??
Hat jemand von Euch Replika ausprobiert? Was waren Eure Erfahrungen?
PS:
Zu diesem Thema gibt es einen supertollen Film: "Her" aus 2013 mit Joaquin Phoenix und Scarlett Johansson, Regie: Spike Jonze, der sehr tiefsinnig die Beziehung eines Mannes mit einer AI darstellt.