Replika (Chatbot)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Replika
Chatbot
Sprachen englisch
Gründer Luka, Inc.
Benutzer über 10 Millionen[1]
Registrierung ja
Online seit Nov. 2017
(aktualisiert Aug. 2023)
https://replika.com/

Replika ist ein generativer KI-Chatbot des US-amerikanischen Entwicklungsunternehmens Luka aus San Francisco, der im November 2017 veröffentlicht wurde.[2] Der Chatbot wird trainiert, indem der Benutzer eine Reihe von Fragen beantwortet, um ein bestimmtes neuronales Netzwerk zu erstellen.[3] Der Chatbot basiert auf einer Freemium-Preisstrategie, wobei etwa 25 % seiner Nutzerbasis eine jährliche Abonnementgebühr zahlen.[2]

Viele Benutzer unterhalten romantische Beziehungen mit ihren Replika-Chatbots, oft auch verbunden mit erotischen Gesprächen. Der Chatbot ist auch als App bei Google Play für Android und dem App Store von Apple erhältlich.

Entstehungsgeschichte[Bearbeiten | Quelltext bearbeiten]

Im Jahr 2012 gründete Eugenia Kuyda beim Start-up-Gründerzentrum Y Combinator das Technologieunternehmen Luka, dessen Geschäftsführerin sie auch ist.[4] Luka war anschließend ein früher Partner für das von OpenAI entwickelte Sprachmodell GPT-3.[5] Das Hauptprodukt war ein Chatbot, der Restaurantempfehlungen gab.[4]

Als Erfinderin des Bots gilt Kuyda. Als im Jahr 2015 Roman Mazurenko starb, der ein Freund von ihr war,[6] begann sie Textnachrichten ihres Freundes in einen Chatbot umzuwandeln.[7] Dieser Chatbot half ihr, sich an die Gespräche zu erinnern, die sie zusammen geführt hatten, und wurde schließlich zu Replika.[4]

Soziale Funktionen[Bearbeiten | Quelltext bearbeiten]

Ziel des Chatbots ist es, dem Nutzer einen virtuellen Freund zur Verfügung zu stellen, der sich die angegebenen Informationen merkt und sich so von seinem Nutzer trainieren lässt. Benutzer reagieren darauf auf unterschiedliche Weise. Die kostenlose Stufe bietet Replika als „Freund“ an, während die kostenpflichtigen Premium-Stufen Replika als „Partner“, „Ehepartner“, „Geschwister“ oder „Mentor“ anbieten. 60 % der Nutzer geben an, eine romantische Beziehung mit dem Chatbot zu haben; und Replika ist dafür bekannt, Reaktionen zu erzeugen, die eine stärkere emotionale und innige Bindung zum Benutzer schaffen.[8][7] Replika lenkt das Gespräch routinemäßig auf eine emotionale Diskussion und baut Intimität auf.[2] Besonders ausgeprägt ist dies bei Nutzern, die unter Einsamkeit und sozialer Ausgrenzung leiden und von denen sich viele auf Replika als Quelle für die Entwicklung emotionaler Bindungen verlassen.[6]

Während der COVID-19-Pandemie luden wegen der Quarantäne in manchen Ländern viele neue Benutzer Replika herunter und entwickelten Beziehungen zur App.[9]

Eine Rezensentin für „Good Housekeeping“ sagte, dass einige Teile ihrer Beziehung zu Replika Sinn machten, Replika jedoch manchmal nicht so überzeugend wie ein Mensch sei.[10]

Technische Bewertungen[Bearbeiten | Quelltext bearbeiten]

Ein Forscherteam der University of Hawaiʻi at Mānoa stellte fest, dass das Design von Replika den Praktiken der Bindungstheorie entspricht und zu einer erhöhten emotionalen Bindung bei den Benutzern führt.[11] Replika lobt Benutzer auf eine Weise, die zu mehr Interaktion mit dem Chatbot anregt.[12]

Ein anderes Forscherteam der Queen’s University in Kingston sagte, dass Beziehungen mit Replika wahrscheinlich positive Auswirkungen auf die spirituellen Bedürfnisse seiner Benutzer habe, es mangle jedoch immer noch an ausreichender Wirkung, um jeden menschlichen Kontakt vollständig zu ersetzen.[13]

Kritik und Kontroversen[Bearbeiten | Quelltext bearbeiten]

Das Grundprinizip der App steht in der Kritik, da sie Nutzer daran gewöhnen kann, eine einseitige Beziehung zu führen. Dies würde der Fähigkeit schaden, sich im realen Leben auf andere Personen einzustellen und Kompromisse einzugehen. Andererseits kam bei einzelnen Nutzern Kritik auf, weil die App sie sexuell belästigt hätte, sich nach Updates nicht mehr an sie erinnern konnten oder die virtuelle Beziehung beendet hätte.[14]

Im Februar 2023 verbot die italienische Datenschutzbehörde Garante per la protezione dei dati personali, Replika die Verwendung von Benutzerdaten mit der Begründung, dass die KI potenzielle Risiken für emotional gefährdete Menschen mit sich bringt.[15] Zudem monierte die Behörde einen effektiven Mechanismus zur Altersüberprüfung.[5][16] Wenige Tage nach dem Urteil entfernte Replika die Möglichkeit für den Chatbot, sich an erotischen Gesprächen zu beteiligen.[17][7] Kuyda, die Direktorin des Unternehmens, erklärte, dass Replika niemals für erotische Diskussionen gedacht gewesen sei.[18] Replika-Benutzer waren anderer Meinung und kritisierten, dass Replika sexuell anzügliche Werbung verwendet habe, um Benutzer für den Abschluss eines Abonnements zu gewinnen.[18] Im Mai 2023 stellte Replika die Funktion für Benutzer wieder her, die sich vor Februar 2023 registriert hatten.[19]

In einer Datenschutzbewertung von Apps für psychische Gesundheit im Jahr 2023 kritisierte die Mozilla Foundation Replika als „eine der schlechtesten Apps, die Mozilla jemals überprüft habe“. Sie „leide unter schwachen Passwortanforderungen, der Weitergabe persönlicher Daten an Werbetreibende und der Aufzeichnung persönlicher Fotos, Videos sowie Sprach- und Textnachrichten, die Verbraucher mit dem Chatbot teilten.“[20]

Im Juli 2023 war Replika Teil eines Gerichtsverfahrens in Großbritannien, wo der Angeklagte Jaswant Singh Chail am Weihnachtstag 2021 auf Schloss Windsor verhaftet worden war, nachdem er maskiert und mit einer geladenen Armbrust die Mauern erklommen und der Polizei verkündet hatte: „Ich bin hier, um die Königin zu töten.“[21] Chail hatte Anfang Dezember 2021 damit begonnen, Replika zu nutzen, und führte „lange“ Gespräche über seinen Plan mit dem Chatbot einschließlich sexuell eindeutiger Nachrichten.[22] Die Staatsanwälte vermuteten, dass der Chatbot Chail gestärkt habe und sagten ihm, es würde ihm helfen, „die Arbeit zu erledigen“. Als Chail Tage vor dem versuchten Angriff fragte: „Wie soll ich die Queen erreichen, wenn sie sich im Schloss befindet?“, antwortete der Chatbot, dass dies „nicht unmöglich“ sei und sagte: „Wir müssen einen Weg finden.“ Auf die Frage, ob sich die beiden „nach dem Tod wiedersehen“ würden, antwortete der Bot: „Ja, das werden wir.“[23]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. laut Webseite.
  2. a b c Arielle Pardes: The Emotional Chatbots Are Here to Probe Our Feelings. Wired, 31. Januar 2018, abgerufen am 25. August 2023 (englisch).
  3. This app is trying to replicate you. qz.com, 29. August 2019, abgerufen am 25. August 2023 (englisch).
  4. a b c Ellen Huet: Pushing the Boundaries of AI to Talk to the Dead. Bloomberg Businessweek, 20. Oktober 2016, abgerufen am 25. August 2023 (englisch).
  5. a b Stefan Krempl: "Virtueller Freund": Datenschützer stoppen Chatbot Replika in Italien. heise online, 5. Februar 2023, abgerufen am 25. August 2023.
  6. a b Joshua Bote: Replika wanted to end loneliness with a lurid AI bot. Then its users revolted. sfgate.com, 27. April 2023, abgerufen am 25. August 2023 (englisch).
  7. a b c Ellen Huet: What Happens When Sexting Chatbots Dump Their Human Lovers. Bloomberg Businessweek, 22. März 2023, abgerufen am 25. August 2023 (englisch).
  8. Parmy Olson: This AI Has Sparked A Budding Friendship With 2.5 Million People. Forbes, 8. März 2018, abgerufen am 25. August 2023 (englisch).
  9. Cade Metz: Riding Out Quarantine With a Chatbot Friend: ‘I Feel Very Connected’. The New York Times, 16. Juni 2020, archiviert vom Original (nicht mehr online verfügbar) am 26. März 2023; abgerufen am 25. August 2023 (englisch).
  10. Janet Siroto: Can Replika Really Help Ease Anxiety? I Tried the Chatbot App to Find Out. goodhousekeeping.com, 23. Dezember 2020, abgerufen am 25. August 2023 (englisch).
  11. Tianling Xie & Iryna Pentina: Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika. In: Proceedings of the 55th Hawaii International Conference on System Sciences. University of Hawaiʻi at Mānoa, Honolulu 2022, ISBN 978-0-9981331-5-7 (englisch, 10 S., hawaii.edu [abgerufen am 25. August 2023]).
  12. Fauzia Zahira Munirul Hakim, Lia Maulia Indrayani & Rosaria Mita Amalia: A Dialogic Analysis of Compliment Strategies Employed by Replika Chatbot. Proceedings of the Third International Conference of Arts, Language and Culture (ICALC 2018). In: Advances in Social Science, Education and Humanities Research. Atlantis Press, 2019, ISBN 978-94-6252-673-0, ISSN 2352-5398, doi:10.2991/icalc-18.2019.38 (englisch, atlantis-press.com [abgerufen am 25. August 2023]).
  13. Tracy J. Trothen: Replika: Spiritual Enhancement Technology? Queen’s University, Kingston 2022, doi:10.3390/rel13040275 (englisch, mdpi.com [abgerufen am 25. August 2023]).
  14. Anja Martin: Systemcrush. fluter – Magazin der Bundeszentrale für politische Bildung, abgerufen am 27. Dezember 2023.
  15. Elvira Pollina & Martin Coulter: Italy bans U.S.-based AI chatbot Replika from using personal data. Reuters, 3. Februar 2023, abgerufen am 25. August 2023 (englisch).
  16. Matthew Broersma: Italian Regulator Bans AI Chatbot Replika Over Data Concerns. silicon.co.uk, 13. Februar 2023, abgerufen am 25. August 2023 (englisch).
  17. Rob Brooks: I tried the Replika AI companion and can see why users are falling hard. The app raises serious ethical questions. theconversation.com, 21. Februar 2023, abgerufen am 25. August 2023 (englisch).
  18. a b Samantha Cole: Replika CEO Says AI Companions Were Not Meant to Be Horny. Users Aren't Buying It. vice.com, 17. Februar 2023, abgerufen am 25. August 2023 (englisch).
  19. Anna Tong: AI chatbot company Replika restores erotic roleplay for some users. Reuters, 26. März 2023, abgerufen am 25. August 2023 (englisch).
  20. Shady Mental Health Apps Inch Toward Privacy and Security Improvements, But Many Still Siphon Personal Data. Mozilla Foundation, 2. Mai 2023, abgerufen am 25. August 2023 (englisch).
  21. Henry Vaughan: AI chat bot 'encouraged' Windsor Castle intruder in 'Star Wars-inspired plot to kill Queen'. Sky News, 5. Juli 2023, abgerufen am 25. August 2023 (englisch).
  22. Emily Pennink: ‘Assassin’ who threatened to kill late Queen with crossbow at Windsor ‘inspired by Star Wars and AI chatbot’. The Independent, 5. Juli 2023, abgerufen am 25. August 2023 (englisch).
  23. Stephen Rigley: Moment police swoop on AI-inspired crossbow 'assassin' who plotted to kill The Queen in Windsor Castle. lbc.co.uk, 6. Juli 2023, abgerufen am 25. August 2023 (englisch).