Siri glaubte, dass Donald Trump ein Penis ist
23. Nov. 2018, 22:19 | 10 KommentareBild: The Verge
Ein User hatte das Bild eines männlichen Geschlechtsteils auf Wikipedia geladen und dadurch Siri ausgetrickst.
iPhone-Besitzer wurden gestern mit einem seltsamen Bug konfrontiert: Fragte man Siri nach dem Alter des US-Präsidenten Donald Trump, so spuckte die KI neben der Biografie nicht ein Portrait des Politikers, sondern das Bild eines Penis aus.
Von Experten wurde gemutmaßt, dass jemand Siris Algorithmus austrickst oder regelmäßig Donald Trumps Wikipedia-Eintrag editiert. Gegenüber The Verge bestätigte ein Sprecher von Wikipedia, dass die zweite Theorie stimmt: Tatsächlich hat jemand regelmäßig das Bild eines männlichen Geschlechtsteils auf die Trump-Wikipediaseite geladen. Der Nutzer wurde nun geblockt, die Editing-Historie der Seite zeigt das Hin und Her des Bearbeitungswettkampfs.
Mehr dazu findest Du auf futurezone.at
Kurze URL:
Das könnte Dich auch interessieren:
Selbst in den USA ist Apple offenbar noch weit von einer Veröffentlichung für die breite Masse entfernt. In Europa ist der Zeitplan ohnehin komplett offen
Apple-Nutzer können noch in diesem Jahr mit erheblichen Verbesserungen an Siri, dem virtuellen Assistenten des Unternehmens, rechnen, auch wenn Apple Intelligence erst 2025 kommt.
Ähnliche News:
Siri mit KI soll zur WWDC erscheinen
Datenpassen bei Lufthansa: Siri ruft Buchungsdaten fremder Fluggäste ab
iOS 18: Siri soll endlich brauchbar werden
Apples Sprachassistent könnte bald ohne "Hey Siri!"-Befehl auskommen
Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können
Statt "Hey Siri" soll man künftig nur noch "Siri" sagen
Alexa, Siri und Co könnten der Entwicklung von Kindern schaden
Siri bekommt neue, geschlechtsneutrale Stimme zur Auswahl
Apple: Gespräche mit Siri wurden aufgezeichnet, trotz Opt-Out
Siri mit iOS 15 ein wenig dümmer
Datenpassen bei Lufthansa: Siri ruft Buchungsdaten fremder Fluggäste ab
iOS 18: Siri soll endlich brauchbar werden
Apples Sprachassistent könnte bald ohne "Hey Siri!"-Befehl auskommen
Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können
Statt "Hey Siri" soll man künftig nur noch "Siri" sagen
Alexa, Siri und Co könnten der Entwicklung von Kindern schaden
Siri bekommt neue, geschlechtsneutrale Stimme zur Auswahl
Apple: Gespräche mit Siri wurden aufgezeichnet, trotz Opt-Out
Siri mit iOS 15 ein wenig dümmer
Weitere News:
EU-Produkthaftungsrichtlinie: Anbieter haften für Softwarefehler
Gema verklagt OpenAI wegen unlizenzierter Songtexte
Micron stellt 60-TByte-PCI-Express-5.0-SSD vor
Copy-Paste-Fehler kostet Krypto-Trader Millionen
Kritische Kerberos-Lücke gefährdet Windows-Server-Systeme
CEO von The Line tritt zurück
Blizzard hat Warcraft Remastered veröffentlicht
DeepL Voice ermöglicht jetzt Echtzeit-Sprachübersetzung
Amazon kopiert Temu
Skynet-1A: Britischer Satellit wurde bewegt und keiner weiß, warum
Gema verklagt OpenAI wegen unlizenzierter Songtexte
Micron stellt 60-TByte-PCI-Express-5.0-SSD vor
Copy-Paste-Fehler kostet Krypto-Trader Millionen
Kritische Kerberos-Lücke gefährdet Windows-Server-Systeme
CEO von The Line tritt zurück
Blizzard hat Warcraft Remastered veröffentlicht
DeepL Voice ermöglicht jetzt Echtzeit-Sprachübersetzung
Amazon kopiert Temu
Skynet-1A: Britischer Satellit wurde bewegt und keiner weiß, warum
Einen Kommentar schreiben
Kommentare
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
(10)
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
Kommentare:
Du hast bereits für diesen
Kommentar abgestimmt...
;-)
© by Ress Design Group, 2001 - 2024