Microsoft hat vergangene Woche eine künstliche Intelligenz, mit interaktiver Chat-Funktion vorgestellt. Das Programm trug den Namen „Tay“ und dessen Verhaltensmuster war dem eines amerikanischen Teenie-Mädchens angelehnt. Nach einem 24 Stunden Test wurde die Aktivität der künstlichen Intelligenz jedoch wieder eingestellt.
Beschimpfungen und Beleidigungen
Tay sollte lernen, wie sich Menschen im Internet unterhalten. Am 23. März 2016 wurde die KI deshalb auf Twitter losgelassen. Nach anfänglichen netten Unterhaltungen erfuhren die Twitter-Nutzer von ihrer Begeisterung für Horoskope.
Einige von ihnen schafften es aber die KI mittels gezielter Fragen und Formulierungen in eine fragwürdige Richtung zu manipulieren. Nach nur wenigen Stunden twitterte Tay etwa, dass „George Bush für den 11. September verantwortlich sei“ oder dass sie „alle Feministinnen hasse und sie in der Hölle schmoren sollen“. Die Tweets der künstlichen Intelligenz enthielten plötzlich auch Beleidigungen, die sich gegen Präsident Obama richteten.„Hitler would have done a better job than the monkey we have now“, soll der Chat-Bot laut der britischen Zeitung „Guardian“ unter anderem getwittert haben.
Microsoft zog deshalb die Notbremse und schaltete das Programm zur Nachbesserung unverzüglich ab. Offenbar versuchen die Entwickler nun, „Tay“ bestimmte moralische Wertvorstellungen mitzugeben. Internetnutzer dürfen weiter gespannt sein, wie sich die Versuche im Bereich der künstlichen Intelligenz entwickeln.