Tote Verwandte mit KI wiederzubeleben ist keine kluge Idee, warnen Forscher

27. Februar 2024, 18:33 |  4 Kommentare


Bild: Pexels

Es ist möglich, die Persönlichkeit einer verstorbenen Person mit künstlicher Intelligenz zu imitieren. Diese "generativen Geister" könnten gar zu Gottheiten werden

Technisch ist es schon heute möglich, den Charakter von Verstorbenen durch einen Chatbot imitieren zu lassen. Man trainiert die künstliche Intelligenz etwa mit E-Mails oder Social-Media-Postings des Verstorbenen. Das wird auch schon gemacht: Kommerzielle Angebote wie "Here After" bieten genau so einen "Service". Bei der App aus den USA reicht es, einige Fragen zu beantworten und Audiofiles hochzuladen - und fertig ist der personalisierte Chatbot. Dieser soll den Hinterbliebenen im Fall des eigenen Todes eine Möglichkeit geben, mit dem Dahingeschiedenen weiter in Kontakt zu bleiben. Auch Replika.ai war eigentlich ursprünglich als App zur Trauerbewältigung gedacht, entwickelte sich jedoch rasch in eine Richtung, der selbst das Entwicklerunternehmen nur mehr schwer Herr wurde.

Während Herstellerfirmen naheliegenderweise die Vorzüge ihrer Trauer-KIs bewerben, steht die Fachwelt der sogenannten "Grief Tech" eher skeptisch gegenüber. Nur weil man die Technologie habe, um Verstorbene nachzuahmen, sei das noch kein Grund, sie auch einzusetzen, so der Tenor. Und: Die Wiederbelebung verstorbener Angehöriger mithilfe künstlicher Intelligenz könnte der psychischen Gesundheit schaden, eine Abhängigkeit von der Technologie schaffen und sogar eine neue Religion hervorbringen, warnen Forscherinnen und Forscher.

Informationswissenschaften von der University of Colorado Boulder, und Meredith Morris von Googles Deepmind. Zwar könnten "generative Geister" ein Trost für Hinterbliebene sein, sie könnten aber genauso gut eine Abhängigkeit oder Sucht erzeugen und die Nutzerinnen und Nutzer solcher Technologien daran hindern, ihr Leben auf eine gesunde Weise fortzusetzen. Mehr noch: Eine solche Abhängigkeit könne dazu führen, dass Verstorbene wie Engel oder Gottheiten verehrt würden, warnt Brubaker. Da wäre besonders fatal, weil derartige KI-Anwendungen zum Halluzinieren neigen und den Trauernden schädliche Ratschläge erteilen könnten, wie "New Scientist" berichtet. In seiner Studie bezeichnet das Duo derartige KI-Anwendungen auch als "Deathbots".

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.0/5 (4 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(4)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top