Nachrichten

  • Techbord - Alexa fordert ein 10-jähriges Kind auf, eine tödliche

    Alexa fordert ein 10-jähriges Kind auf, eine tödliche "Herausforderung" zu bewältigen
    Vor 24 Tagen und 10 Stunden

    Wir haben alle schon Geschichten über die lustigen, verrückten oder anderweitig unterhaltsamen Dinge gehört, zu denen die beliebtesten virtuellen Assistenten der Welt fähig sind. Siri kann Ihnen bekanntlich eine Wegbeschreibung zur nächsten Leichenentsorgung geben, während Alexa auf Befehl furzen kann. Wie jedoch ein Echo-Besitzer am Sonntag entdeckte, können einige der lustigen Aktivitäten, für d

    Echo-Besitzer Kristin Livdahl hat am Sonntag auf Twitter eine seltsame Geschichte mit der Welt geteilt: An diesem Tag bat ihr 10-jähriges Kind Alexa um eine Herausforderung. Anstatt etwas relativ Harmloses vorzuschlagen, wie zum Beispiel ein Rätsel zu lösen, ein mathematisches Problem zu lösen oder einen kleinen körperlichen Stunt durchzuführen, riet Alexa ihnen, "ein Telefonladegerät etwa halb in eine Steckdose zu stecken und dann einen Penny an die freiliegende Stelle zu halten ." Zinken."

    Wir müssen Ihnen wahrscheinlich nicht sagen, dass diese Art von 'Herausforderung' unglaublich gefährlich ist. Pennies sind leitfähig, daher kann das Anbringen eines Metallstücks, das an eine stromführende Steckdose angeschlossen ist, eine ernsthafte Gefahr für das Leben darstellen. Natürlich würden die meisten Erwachsenen, die diese "Herausforderung" sehen, kichern und sie abschütteln, aber kleine Kinder besitzen nicht immer die gleiche Zurückhaltung oder das gleiche Wissen über mögliche Konsequenzen.

    Selbst wenn, sie könnte versucht sein anzunehmen, dass die Herausforderung nicht angeboten würde, wenn sie nicht sicher wäre.

    OMFG Meine 10-jährige hat gerade Alexa auf unserem Echo nach einer Herausforderung gefragt und das hat sie gesagt. pic.twitter.com/HgGgrLbdS8

    — Kristin Livdahl (@klivdahl) 26. Dezember 2021

    Um das klarzustellen, wir sagen nicht, dass Alexa hier irgendwie abtrünnig geworden ist und böswillig eine schädliche Herausforderung gewählt hat. Der virtuelle Assistent bezieht die meisten seiner Ergebnisse aus dem Internet und wählte in diesem Fall zufällig ein gefährliches aus. Internet-Detektive stellten fest, dass der Assistent die Herausforderung aus einem Artikel übernommen hatte, in dem die Gefahren diskutiert wurden, sodass die KI einfach nicht in der Lage war, den breiteren Kontext zu analysieren.

    Amazon bestätigte später, dass der Vorfall legitim war, und sie haben bereits "schnelle Maßnahmen" ergriffen, um das Problem zu beheben. Nach den Antworten von Twitter auf Livdahls ursprünglichen Beitrag zu urteilen, hört es sich so an, als hätte Amazon die Funktion "Tell mir eine Herausforderung" vorerst vollständig deaktiviert, was wahrscheinlich das Beste ist.

    Impressum: Tom 's Guide





Neueste Nachrichten aus dem Elektronik