Freilich-Studie über die „Grünen“ veröffentlicht!Mehr erfahren 

Die neue Ausgabe des Freilich-Magazins ist erschienen.

Microsoft plant Chatbot mit Daten verstorbener Menschen

Bereits 2016 hatte das Unternehmen versucht, einen Chatbot zu entwickeln. Nun folgt der zweite Anlauf.

2 Minuten Lesezeit
<p>Symbolbild: Laptop via <a href="https://pixabay.com/de/users/councilcle-14038644/?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=4571732">councilcle</a> auf <a href="https://pixabay.com/de/?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=4571732">Pixabay</a></p>

Symbolbild: Laptop via councilcle auf Pixabay

Der Tech-Konzern Microsoft hat ein neues Patent für einen Chatbot angemeldet, der die Daten verstorbener Menschen nutzen soll, um diese möglichst realistisch repräsentieren zu können. Auf Basis von allen möglichen Daten wie Bildern, Sprachnotizen, Social-Media-Posts und Nachrichten soll ein Chatbot erstellt werden, der dann Hinterbliebenen zur Verfügung stehen könne, berichtet die britische Zeitung The Independent.

Chatten mit Freunden, Familie, Prominenten

Der Bot könnte dann zum Beispiel einen verstorbenen Freund, ein Familienmitglied oder sogar eine berühmte Persönlichkeit repräsentieren, mit dem sich Nutzer unterhalten können. „Eine entworfene Person kann auch dem Nutzer selbst entsprechen (der ihn zum Beispiel erstellt oder trainiert)“, erklärt Microsoft weiter. Man könnte demnach also eine digitale Chatbot-Version von sich selbst tranieren, im Falle des eigenen Todes. Zusätzlich wurde offenbar die Möglichkeit aufgeworfen, ein 2D- oder 3D-Modell einer Person mitteils Bildern und Videos erstellen zu können.

Ähnliches haben bereits andere Konzerne probiert. So zum Beispiel Eugenia Juyda, Mitgründerin der Tech-Firma „Luka“. Mittels 8.000 Zeilen Textnachrichten, die sie mit einem verstorbenen Freund ausgetauscht hatte, entwarf sie einen Chatbot, der ihren Freund und seine Art zu sprechen imitieren konnte, berichtet The Independent weiter.

Erste Versuche waren nicht erfolgreich

Allerdings ging der Versuch, einen intelligenten Chatbot zu kommerzialisieren, nach hinten los. Erst Mitte Jänner wurde ein südkoreanischer Chatbot mit dem Namen „Lee Luda“ vom Netz genommen, weil er offenbar lernte, homophob zu sein. Als es in einer Unterhaltung mit dem Bot etwa um Schwule und Lesben ging, beschrieb „Lee Luda“ diese als „widerlich“ und merkte zusätzlich noch an, dass sie diese „wirklich hassen“ würde, wie der Guardian berichtete. Der Bot, der eine 20-jährige Universitätsstudentin simulieren sollte, hatte alte Chatverläufe aus der koreanischen Messenger-App KakaoTalk analysiert, um sich das Kommunizieren beizubringen.

Tatsächlich hatte auch Microsoft bereits 2016 probiert, einen Chatbot namens „Tay“, der mittels Algorithmus Twitter-Konverstaionen simulieren und das Führen von Unterhaltungen lernen sollte, zu etablieren. Doch auch dieser musste wegen rassistischer Tweets bereits einen Tag nach Veröffentlichung wieder offline genommen werden. Auch beim neuesten Entwurf von Microsoft dürfte der Nutzer selbst also als Risikofaktor bestehen bleiben.

Cover der Freilich-Ausgabe #10
Freilich Nr. 11 "Schlecht gerüstet" erschienen!
Der Soldat allein ist längst kein freier Mann mehr. Und um den Zustand der heimischen Armeen steht es schlecht. Dabei drohen uns immer mehr Gefahren. Wie die Zukunft des Krieges aussieht und ob wir dafür gerüstet sind, lesen Sie in unserer aktuellen Ausgabe des FREILICH Magazins.
Jetzt abonnieren