schaf am 13. Juni 2022 um 12:34 |  0 Kommentare | Lesezeit: 1 Minute, 1 Sekunde

Streit bei Google um eine KI, die ein eigenes Bewusstsein erlangt haben soll



Blake Lemoine ist der Ansicht, dass "LaMDA" den geistigen Entwicklungsstand eines Kindes erreicht hat. Nach einer Auseinandersetzung hat Google ihn beurlaubt

In den vergangenen Jahren sind gerade bei der Entwicklung im Bereich künstliche Intelligenz einige bedeutende Fortschritte erzielt worden. Neuronale Netzwerke, die auf einfacher Ebene die Funktion eines Gehirns imitieren, und die Auswertung großer Datenmengen sorgen dafür, dass KIs sich immer mehr mögliche Einsatzbereiche erschließen.

Gerade beim Sprachverständnis sind die Verbesserungen gut zu sehen. Systeme wie GPT-3 oder Googles LaMDA (Language Model for Dialogue Applications) geben in Demonstrationen immer wieder einen Ausblick darauf, wie Hürden wie Kontexterkennung immer weiter erodiert werden. Das wirft freilich auch ethische Fragen auf. Was darf eine KI, mit der man sprechen oder chatten kann, können? Welche Befehle soll sie verweigern? Und wo ist die Grenze, ab der man am anderen Ende nicht mehr unterscheiden kann, ob man sich mit einer realen Person oder einem Computer unterhält?

Diesen Erörterungen ist auch Blake Lemoine nachgegangen, schreibt die "Washington Post". Er arbeitet für Googles "Responsible AI"-Abteilung, die sich mit dem ethischen, verantwortungsvollen Umgang mit künstlicher Intelligenz befasst.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 2.3/5 (6 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top