Was trägt die denn da? Mobile Modescanner könnten den Handel verändern. Doch manchmal liefern sie bislang überraschende Kaufempfehlungen.

Yvonne Tesch will ein Problem lösen, das jeder kennt: Beim Bummel durch die Stadt fällt der Blick auf einen Passanten oder ein Plakat, und man denkt: „Die Jacke, den Mantel, die Schuhe will ich auch haben – wo aber bekomme ich sie her?“ Geht es nach der 34-jährigen Informatikerin aus Berlin, soll auf solche Fragen künftig das Smartphone die Antwort liefern.

Tesch hat mit ihrem Unternehmen “Code is the new black” eine App für das Handy entwickelt, die so etwas werden soll wie das Shazam für Mode. Bei dem beliebten Musikerkennungsprogramm reicht es, das Telefon kurz vor das Radio zu halten, damit die Software das Lied identifiziert. Teschs App Inspo soll Kleidungsstücke anhand von Handy-Fotos erkennen, die Nutzer vom gesuchten Stück schießen. Augenblicke später schlägt die Software ihnen dann passende Kleider, Shirts oder Hosen aus Online-Shops vor.

Mit dem Internet-Handel kennt sich die blonde Berlinerin aus. Die von ihr gegründete Firma Maryme setzte mit Preisvergleichsportalen 2012 rund 40 Millionen Euro um. Doch um an den Erfolg anzuknüpfen, muss Inspo digital nachahmen, woran auch schon mancher Mensch beim Einkaufsbummel scheitert: Kleidung verlässlich zu erkennen oder zumindest sehr ähnliche Produkte auseinanderzuhalten.

Optische Verführung

Trotzdem gibt sich Tesch selbstbewusst: „Wenn wir einen Artikel in der Datenbank haben, finden wir ihn“, sagt sie. Dafür greift das Programm auf Fotos von zehn Millionen Kleidungsstücken aus 600 Online-Shops zurück; darunter Händler wie Asos, Zara, Urban Outfitters oder Net-A-Porter. Letztlich ist die perfekte Trefferquote ohnehin nicht ihr Ziel. Stattdessen soll die Auswahl möglichst ähnlicher Stücke zum Kauf reizen.

Je besser die optische Verführung klappt, desto besser ist das auch für Tesch. Denn für jeden vermittelten Kunden erhält sie zwischen 10 und 30 Cent Provision.

Das Handy als Treibmittel für lukrative Geschäfte – darauf hofft nicht bloß die Berlinerin. Für die gesamte Modebranche wird das Smartphone als Einkaufsberater immer wichtiger. Nach Schätzungen vom Bundesverband Digitale Wirtschaft werden die Deutschen dieses Jahr Waren im Wert von 5,1 Milliarden Euro via Handy oder Tablet bestellen.

Da liegt die Idee nahe, das Telefon in eine visuelle Suchmaschine zu verwandeln. Eine Vielzahl von Unternehmern versucht genau das. So auch Daniela Cecilio: „Ich finde es oft schwierig, in Worten zu beschreiben, was ich sehe“, sagt die Brasilianerin. Sie gründete in London das Start-up Asap54, das ebenfalls eine App zur Modesuche per Bilderkennung anbietet. Sie konkurriert mit Diensten wie Cortexica, Snap Fashion, Slyce, Picalike oder Fashwell. Große Unternehmen wie Adidas, Amazon oder Ebay experimentieren ebenfalls mit Shopping per Bilderkennung.

Und auch Zalando hat seit Sommer eine Fotosuche in seine App integriert. „Bilderkennung wird bei der Suche eine wichtige Rolle spielen“, sagt Daniel Schneider, der beim deutschen Shopping-Portal verantwortet, wie sich Kunden im virtuellen Klamottenladen bewegen. Mit den ersten Testergebnissen ist Schneider zufrieden. Mehrere Hundert Bilder laden Kunden dort täglich hoch. Besonders wichtig: Wer die Bildersuche nutzt, kauft im Schnitt häufiger etwas als andere Kunden.

Noch stammt die Erkennungssoftware vom Londoner Start-up Cortexica, das nun auch für die größte US-Warenhauskette Macy’s die Identifikationstechnik liefert. „Irgendwann stellt sich auch die Frage, ob wir die Technik selbst entwickeln“, sagt Zalando-Manager Schneider. Erst einmal will der Online-Händler den Erkennungsdienst internationalisieren. Der Test soll im Oktober starten.

Und noch eine Erweiterung folgt bald: Die App soll dann auch Schuhe erkennen. Das ist keineswegs trivial. Denn die schrägen Blickwinkel erschweren die Identifikation.

Dabei ist es schon bei frontal aufgenommenen Kleidungsfotos für die Entwickler schwer genug, auf eine hohe Erkennungsrate zu kommen. Das zeigt der Praxistest von Asap54, Inspo und Zalando.

Zwar schlugen die bei rund einem Dutzend getesteter Kleidungsstücke teils recht ähnliche Stücke vor. Doch mitunter waren die empfohlenen Alternativen optisch auch sehr skurril.

Tagelang am Filter gefeilt

„Es hat noch keiner ein System entwickelt, das menschlichem Sehen halbwegs entspricht“, sagt Daniel Raschke. Der Gründer des Hamburger Unternehmens Picalike arbeitet seit 2012 an einer Art Mode-Shazam. Seine Technologie setzen neben Otto auch andere Online-Shops ein. Und er hat zig Anrufe von seiner Mutter bekommen, die ihn empört darauf hinweisen wollte, dass wieder jemand seine Idee geklaut habe. „Doch richtig gut macht es niemand“, sagt Raschke. Selbst Amazons Produkterkennung Firefly, mit der das eigene Smartphone punkten soll, erkennt zwar Bücher, aber versagt bei Kleidung.

Das hat im Wesentlichen drei Gründe:

  • Erster Knackpunkt ist die Qualität der Bilder selbst. Je nach Licht variiert der Farbeindruck stark. Nicht immer ist die Kleidung gut erkennbar oder ist klar, welches Stück der Kunde eigentlich sucht, wenn er eine Person komplett fotografiert. Um die Ergebnisse zu verbessern, kann der Nutzer bei den meisten Apps den Bildausschnitt einschränken oder Produktkategorien vorwählen.
  • Die zweite Schwierigkeit ist die Verfügbarkeit der Ware. Solange sich nicht genau das gleiche Kleid in der Datenbank findet, liefert auch ein noch so guter Algorithmus keine exakten Treffer. „Das ist gerade bei schnell wechselnden Sortimenten in der Mode ein Problem“, sagt Schneider. Deshalb streben die Anbieter gar nicht an, nur identische Produkte vorzuschlagen, sondern möglichst ähnliche. Doch der Grat ist schmal. Tesch hat mit ihren Technikern tagelang an den Filtern gefeilt. Waren sie zu streng, gab es keine Resultate. Sind die Treffer zu weit von der Vorlage weg, wären die Nutzer genauso frustriert.
  • Das dritte Problem: Ähnlichkeit ist höchst subjektiv. Entscheidend ist daher, herauszufinden, was genau der Kunde sucht. Ein T-Shirt mit ähnlichem Aufdruck oder mit ähnlicher Farbe? Zählt beim Kleid der gleiche Schnitt oder das gleiche Muster? „Bei Handtaschen ist Frauen meist die Form wichtiger als die Farbe“, sagt Picalike-Gründer Raschke. Nicht aber, wenn die Tasche zu weinroten Schuhen passen muss.

Auch deshalb hat der Hamburger Unternehmer gerade seine Software weiterentwickelt. Im Unterschied zu üblichen Empfehlungen, die auf dem Kauf- und Klickverhalten anderer Nutzer basieren, arbeitet Raschkes Vorschlagsmaschine optisch und lernt nun mit:

Je nachdem, ob der Nutzer Empfehlungen folgt, die eher in der Form oder der Farbe dem ursprünglichen Stück entsprechen, passt die Software weitere Vorschläge an. Ein richtiger Ansatz, glaubt auch Zalando-Manager Schneider: „Die Suche wird in Zukunft interaktiver.“

Und das unterscheidet übrigens die visuellen Modeführer auch vom vermeintlichen Vorbild Shazam. „Der Vergleich hinkt ohnehin“, findet Raschke. Denn das Musikprogramm erkenne Lieder nur in der Originalversion wirklich gut.

Doch schon wenn der Interpret live singt, versagt die App total. Da arbeiten die Modescanner mit ihren flexibleren Erkennungssystemen – trotz gelegentlicher Ausreißer – mittlerweile weit verlässlicher.