Produktion/Absatz, Zusammenfassung

Google US02079K1079 lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte.

23.02.2024 - 20:20:38

Googles KI generiert nach zu viel Diversität keine Bilder von Leuten

Der Internet-Konzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach. Am Freitag war die Funktion weiterhin nicht verfügbar. Zugleich verteidigte Google grundsätzlich die Diversität bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.

Google Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Text-Vorgaben bekommen. Auch andere ähnliche Software auf Basis Künstlicher Intelligenz hat diese Fähigkeit.

In einem Blogeintrag am Freitag erläuterte Google, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre. Die dadurch erzeugten Bilder seien "peinlich und falsch" gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfüllen. Aber wenn Nutzer sich etwa Bilder von einem "weißen Tierarzt mit Hund" anzeigen lassen wollten, müsse das Programm dies auch erfüllen. Die Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.

In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt.

Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten. Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weißen anprangert. Insbesondere die Weigerung der Software, Bilder von nur weißen Personen zu generieren, zog ihren Zorn auf sich.

Google-Manager Raghavan betonte zugleich, dass Software mit Künstlicher Intelligenz vorerst auch weiterhin manchmal daneben liegen werde. "Ich kann nicht versprechen, dass Gemini gelegentlich peinliche, falsche oder beleidigende Ergebnisse ausgeben wird", schrieb er. Aber Google werde bei Problemen rasch eingreifen.

@ dpa.de

Weitere Meldungen

Abbau entspricht zwei bis drei Werken - Aktie mau Die Sparpläne von Volkswagen DE0007664039 entsprechen VW DE0007664039-Chef Oliver Blume zufolge vom Umfang her einer Verringerung der Produktionskapazität um mehrere Werke. (Boerse, 23.12.2024 - 09:49) weiterlesen...

Worauf sich VW und die IG Metall geeinigt haben Die Krise der Autobranche hinterlässt Spuren bei Europas größtem Autobauer: Volkswagen DE0007664039 will künftig mit gut 35.000 Beschäftigten weniger auskommen und über 700.000 Autos im Jahr weniger produzieren. (Boerse, 21.12.2024 - 10:05) weiterlesen...

Volkswagen-Werke bleiben - 35.000 Stellen fallen bei VW weg HANNOVER/BERLIN - Einigung nach mehr als 70 Stunden: Volkswagen DE0007664039 und die IG Metall haben sich kurz vor Weihnachten im monatelangen Tarifkonflikt auf einen umfangreichen Sparplan geeinigt. (Boerse, 20.12.2024 - 21:23) weiterlesen...

VW will bis 2030 mehr als 35.000 Stellen abbauen HANNOVER/BERLIN - Volkswagen DE0007664039 will bis 2030 mehr als 35.000 Stellen streichen. (Boerse, 20.12.2024 - 19:50) weiterlesen...

VW will bis 2030 mehr als 35.000 Stellen abbauen Volkswagen DE0007664039 will bis 2030 mehr als 35.000 Stellen streichen. (Boerse, 20.12.2024 - 19:18) weiterlesen...

Gewichtsreduktion mit Cagrisema - Aktie bricht aber ein BAGSVAERD - Der dänische Pharmakonzern Novo Nordisk DK0060534915 hat in einer zulassungsrelevanten Studie zum Adipositas-Mittel Cagrisema die primären Studienziele erreicht. (Boerse, 20.12.2024 - 16:15) weiterlesen...