
Es ist wahr, KI wird rassistisch, als es von Menschen lern! Roboter-Rassismus oder ein auf empirischen Daten basiertes Urteil?

Die express.co.uk -lesen sie den Artikel hier- schreibt:
Künstlich intelligente Software, die von der Polizei verwendet wurde, um Verdächtige zu identifizieren, ist rassistisch, nach einem Untersuchungsbericht.
In Teilen der USA, wenn ein Verdächtiger für die Befragung vernommen wird, erhalten sie eine computergesteuerte Risikobewertung, die die Wahrscheinlichkeit der Rehabilitation der Person ausarbeitet. Die Richter können diese Daten dann bei der Bewertung ihres Urteils verwenden. Eine Untersuchung hat jedoch Zeigte, dass die künstliche Intelligenz hinter der Software rassistische Tendenzen aufweist. [...]
[...] Dies ist nicht ein isolierter, einzelner Vorfall.
Microsoft's TayTweets (AI) Chatbot wurde auf Twitter im vergangenen Jahr entfesselt, die entworfen wurde, um von Benutzern zu lernen.
Allerdings wandte es sich fast sofort dem Antisemitismus und Rassismus zu, und begann zu tweeten: "Hitler hat nichts falsch gemacht" und "Hitler hatte recht - ich hasse die Juden".
Was denkt IHR über dieses Thema? Lasst doch einfach einen Kommentar da!!!
Sie finden uns auf: VK - Facebook - Google +
Weitere Informationen:
https://armageddonbroadcastnetwork.tv/
https://sanctuaryinterfaith.org/
https://mikdashhamoshiach.co.il/
http://torah-codes.net/
http://www.ra-el.org/
Spenden Sie uns @
1PEnaXMXfzFkJKQs5M4oaCoPoEKuMeNR3V