Siri glaubte, dass Donald Trump ein Penis ist
23. Nov. 2018, 22:19 | 10 KommentareBild: The Verge
Ein User hatte das Bild eines männlichen Geschlechtsteils auf Wikipedia geladen und dadurch Siri ausgetrickst.
iPhone-Besitzer wurden gestern mit einem seltsamen Bug konfrontiert: Fragte man Siri nach dem Alter des US-Präsidenten Donald Trump, so spuckte die KI neben der Biografie nicht ein Portrait des Politikers, sondern das Bild eines Penis aus.
Von Experten wurde gemutmaßt, dass jemand Siris Algorithmus austrickst oder regelmäßig Donald Trumps Wikipedia-Eintrag editiert. Gegenüber The Verge bestätigte ein Sprecher von Wikipedia, dass die zweite Theorie stimmt: Tatsächlich hat jemand regelmäßig das Bild eines männlichen Geschlechtsteils auf die Trump-Wikipediaseite geladen. Der Nutzer wurde nun geblockt, die Editing-Historie der Seite zeigt das Hin und Her des Bearbeitungswettkampfs.
Mehr dazu findest Du auf futurezone.at
Kurze URL:
Das könnte Dich auch interessieren:
Selbst in den USA ist Apple offenbar noch weit von einer Veröffentlichung für die breite Masse entfernt. In Europa ist der Zeitplan ohnehin komplett offen
Apple-Nutzer können noch in diesem Jahr mit erheblichen Verbesserungen an Siri, dem virtuellen Assistenten des Unternehmens, rechnen, auch wenn Apple Intelligence erst 2025 kommt.
Ähnliche News:
Siri mit KI soll zur WWDC erscheinen
Datenpassen bei Lufthansa: Siri ruft Buchungsdaten fremder Fluggäste ab
iOS 18: Siri soll endlich brauchbar werden
Apples Sprachassistent könnte bald ohne "Hey Siri!"-Befehl auskommen
Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können
Statt "Hey Siri" soll man künftig nur noch "Siri" sagen
Alexa, Siri und Co könnten der Entwicklung von Kindern schaden
Siri bekommt neue, geschlechtsneutrale Stimme zur Auswahl
Apple: Gespräche mit Siri wurden aufgezeichnet, trotz Opt-Out
Siri mit iOS 15 ein wenig dümmer
Datenpassen bei Lufthansa: Siri ruft Buchungsdaten fremder Fluggäste ab
iOS 18: Siri soll endlich brauchbar werden
Apples Sprachassistent könnte bald ohne "Hey Siri!"-Befehl auskommen
Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können
Statt "Hey Siri" soll man künftig nur noch "Siri" sagen
Alexa, Siri und Co könnten der Entwicklung von Kindern schaden
Siri bekommt neue, geschlechtsneutrale Stimme zur Auswahl
Apple: Gespräche mit Siri wurden aufgezeichnet, trotz Opt-Out
Siri mit iOS 15 ein wenig dümmer
Weitere News:
KI-Klage der New York Times: OpenAI löscht versehentlich Beweise
7-Zip-Lücke lässt Angreifer Schadcode ausführen
Whatsapp kann Sprachnachrichten transkribieren
Tesla mit höchster Rate tödlicher Unfälle
Valve: Steam ändert massiv den Umgang mit Season Pass und DLC
aleX fotografiert: Ein Wintermärchen am Obertrumer See
Palo Alto Networks: Rund 2.000 Firewalls von Hackern infiltriert
Lästiger App-Bug: Update und Deinstallation unter Windows 10 nicht möglich
Knapp vor 100.000 Dollar: Bitcoin weiter auf Rekordjagd
Microsoft: Flight Simulator 2024 wird "Größtenteils negativ" bewertet
7-Zip-Lücke lässt Angreifer Schadcode ausführen
Whatsapp kann Sprachnachrichten transkribieren
Tesla mit höchster Rate tödlicher Unfälle
Valve: Steam ändert massiv den Umgang mit Season Pass und DLC
aleX fotografiert: Ein Wintermärchen am Obertrumer See
Palo Alto Networks: Rund 2.000 Firewalls von Hackern infiltriert
Lästiger App-Bug: Update und Deinstallation unter Windows 10 nicht möglich
Knapp vor 100.000 Dollar: Bitcoin weiter auf Rekordjagd
Microsoft: Flight Simulator 2024 wird "Größtenteils negativ" bewertet
Einen Kommentar schreiben
Kommentare
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
(10)
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
Kommentare:
Du hast bereits für diesen
Kommentar abgestimmt...
;-)
© by Ress Design Group, 2001 - 2024