Tools, die mit künstlicher Intelligenz (A.I.) Videos und Fotos auf rassistische oder sonst anstößige Inhalte abgrasen, sind auch bei Facebook im Einsatz. Ihre Algorithmen spüren auf, worauf sie programmiert sind. Das kann zu peinlichen Fehlern führen. Facebook-User, die kürzlich ein Video anschauten, in denen auch dunkelhäutige Männer zu sehen waren, staunten nicht schlecht: Sie erhielten eine automatische Nachricht, die fragte, ob sie weitere Videos über Primaten sehen wollen. Facebook entschuldigte sich für diesen „inakzeptablen Fehler“.

  • Peinlicher Fehler von Facebook-Tool
  • Beim Screening von Video-Inhalten
  • Schwarze mit Primaten gleichgesetzt
  • Algorithmus verwechselt Gesichter
  • Facebook entschuldigt sich
  • Warnhinweis auch bei Fötus
  • Youtube löscht rassistischen Schachkanal
  • Wegen Diskussion „schwarz gegen weiß“

 Von Kornelia Kirchweger

Werbung

Facebook untröstlich

Das A.I.-Tool wurde deaktiviert. Facebook will der Sache nachgehen, damit so etwas nicht mehr passiert. Das Video vom 27. Juni 2020 stammte von The Daily Mail und zeigt Clips von schwarzen Männern in Auseinandersetzungen mit weißen Zivilisten und Polizisten – es gibt keine Verbindungen zu Affen oder Primaten. Das Video mit dem Titel: Weißer am Hafen ruft Polizei wegen Schwarzen, ist hier zu sehen.

Facebook-Sprecher Dani Lever war untröstlich über die automatisierte Empfehlung, die von Primaten sprach. Man entschuldige sich bei allen, die diese beleidigende Empfehlung gesehen haben.

Algorithmus verwechselt Gesichter

Man sei sich bewusst, besagtes A.I.-Tool sei nicht perfekt, obwohl es schon verbessert worden sei. Facebook verfügt über das weltweit größte Archiv von Fotos, die User dort hochladen.  Algorithmen werden damit auf Gesichtserkennung trainiert. Das Unternehmen schneidet Inhalte, basierend auf den Surf- und Sehgewohnheiten von Usern zu und fragt sie manchmal, ob sie weiterhin Beiträge in verwandten Kategorien sehen möchten. Es ist unbekannt, ob solche „Primaten-Ausrutscher“ weit verbreitet sind.

„Anstößiges“ Bild von Fötus

Im Mai 2019 hob Facebook sein Verbot einer Pro-Life-Werbekampagne in Irland mit dem Bild eines menschlichen Fötus auf. Damals lief eine Kampagne des Iona-Instituts. Das Fötus-Bild war Computer-generiert, daneben stand: „Immer noch eines von uns“.  Das Bild wurde mit der Mitteilung „geschwärzt“, das Foto könne manche Personen verstören und bot die Option an: „klicke und sieh das Foto“. Die Kampagnenleiter protestierten. Es sei lächerlich, das Bild eines elfwöchigen Fötus zu blockieren und noch lächerlicher sei der Hinweis auf „gewalttätigen“ oder „graphischen“ Inhalt. Facebook entschuldigte sich auch in diesem Fall: man habe einen Fehler gemacht, der Warnhinweis sei entfernt worden. Man vermutete, er sei von einem Content-Kontrolleur eingefügt worden, ging der Sache aber nicht näher nach.

Youtube sperrt „rassistischen“ Schachkanal

Unterdessen hat Googles Videoplattform YouTube fälschlicherweise den Kanal eines beliebten kroatischen Schachspielers gesperrt, weil dort eine Diskussion zwischen „schwarz gegen weiß“ geführt wird dies bezogen auf eine Spielstrategie. Der Algorithmus wies den Inhalt als „rassistisch“ aus.

Das könnte Sie auch interessieren:

Werbung

Folgen Sie uns auch auf Telegram, um weiter die aktuellen Meldungen von Wochenblick zu erhalten!

+++ WOCHENBLICK sagt NEIN zur BEZAHL-SCHRANKE +++
Information ist heute unverzichtbar wichtig. Der Wochenblick stellt deshalb ab sofort alle exklusiven Inhalte und Reportagen in voller Länge und ohne Zusatzkosten für seine Leser im Internet zur Verfügung. Während Mainstream-Medien verzweifelt um Abos werben, wollen wir nur eines: Ihnen ehrlich und rasch alle Informationen liefern, die Sie in dieser fordernden Zeit brauchen! Sichern Sie zusätzlich unser Print-Abo und unterstützen Sie uns: Die Wochenzeitung erscheint 48x jährlich!