Diffusion-basierte generative KI: Googles Shopping-Funktion mit diversen Models

XXS bis 4XL: Google bietet eine neue Shopping-Funktion, bei der dank KI diverse Models Kleidungsstücke virtuell anprobieren und präsentieren können.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen

Googles Diffussion-basierte generative KI.

(Bild: Google Blogbeitrag)

Lesezeit: 3 Min.

Modelmaße sind eher selten. Die potenziellen Käufer von Kleidung werden daher oftmals nur sehr wenig in den online-Katalogen repräsentiert. Entsprechend sehen Kleidungsstücke daheim auch oft völlig anders aus, als wenn eine 1,80 m lange, dünne Frau das lange Seidenkleid trägt. Die Enttäuschung ist dann gegebenenfalls groß. Google will dem Abhilfe schaffen und startet in den USA eine Funktion, bei der man die Models auswählen kann, die virtuell die gewünschten Kleidungsstücke anprobieren sollen.

Die Funktion wird in den Googles Shopping-Ergebnissen in der Suche stecken. Es gibt eine Auswahl echter Models mit verschiedenen Hauttönen, verschiedener Ethnien, Haartypen und Körperformen. Ihre Kleidergrößen reichen von XXS bis 4XL. Zunächst beschränkt sich die Auswahl der Kleidung allerdings auf den Oberkörper und bestimmte Marken, darunter H&M, Anthropologie, Everlane und Loft, die vorwiegend auf dem US-Markt zu finden sind. Männermode und weitere Kleidungsstücke sollen noch in diesem Jahr folgen.

Laut Google sind 59 Prozent der Online-Shopper enttäuscht, wie Klamotten, die sie bestellt haben, bei ihnen sitzen. 42 Prozent fühlen sich durch die Models und Bilder von Online-Shops nicht repräsentiert. Um die Kleidungsstücke auf die Models zu pinnen, wird Künstliche Intelligenz genutzt, konkret ein diffusion-basiertes generatives KI-Modell. Es drapiert quasi den Stoff und Schnitt auf das jeweilige Model.

(Bild: Google)

Konkret nutzt Google Diffusion, also das Hinzufügen und Wegnehmen von Rauschen, das auch bei Bildgeneratoren eingesetzt wird. Statt aber Text als Eingabe werden zwei Bilder genutzt – eines vom Stoff und eines von einer Person. Diese Bilder verarbeiten neuronale Netzwerke getrennt voneinander, teilen dann die jeweiligen Informationen, was zum gemeinsamen Ergebnis führt: Einer Person, die den Stoff beziehungsweise das Kleidungsstück trägt. Beim Training hat Google den eigenen Shopping-Graph verwendet. Es sollen Millionen Bildpaare, die ein Model samt Kleidungsstück von vorne und von der Seite zeigen, gewesen sein, erklärt Google.

Google Shopping bekommt zudem neue Filter, die helfen sollen, beispielsweise das gleiche Teil günstiger zu finden oder eine bestimmte Form von etwas, etwa eine Jacke, in einem anderen Stoff mit anderem Muster zu finden. Auch das geschieht dank Machine Learning.

Auch Levi's hat erst vor Kurzem KI-Models in seinen Online-Shop integriert. Allerdings handelt es sich dabei um ganze Models, die mittels KI geschaffen werden, um diversere Typen abzubilden. Es hieß zwar, die künstlich generierten Models sollten die echten nur ergänzen, auf viel Zustimmung traf die Entscheidung dennoch nicht. Noch gibt es keine KI-Models zu sehen. Levi's arbeitet dafür mit Lalaland.ai zusammen, einem Unternehmen, das darauf spezialisiert ist, hyperrealistische Models abzubilden.

Einen anderen Weg gehen Anbieter, wenn sie über Snapchat ihre Accessoires bewerben. Mittels eines Augmented-Reality-Filters können beispielsweise Brillen und Handtaschen sowie Schuhe direkt anprobiert werden.

(emw)