Das Start-up für Computer Vision hat 4,1 Millionen Euro eingeworben. Im Interview erklärt Mitgründer Till Kaestner, wie die Technologie das autonome Fahren voranbringt.

Mit ihrem Unternehmen Artisense wollen der ehemalige Audi-Entwickler Andrej Kulikov, der Informatikprofessor Daniel Cremers und der Internetunternehmer Till Kaestner das Sehvermögen von Maschinen verbessern. Das Trio setzt dabei auf einfache Kameras – und komplexe Algorithmen, die aus den Videoaufnahmen eine 3D-Welt rekonstruieren.

Gegründet 2015, bewegte sich das Start-up mit Sitz in Palo Alto, München und Tokio bisher weitgehend unter dem Radar, drängt nun aber zunehmend in die Öffentlichkeit. So hat Artisense kürzlich den Pitch-Wettbewerb der Slush-Konferenz in Tokio gewonnen. Vor allem hat das Start-up nun eine erste Finanzierungrunde abgeschlossen – und dabei satte 4,1 Millionen Euro eingeworben. Investoren sind die Wagniskapitalgeber Vito Ventures aus München, Project A aus Berlin und der Business Angel Chris Hitchen.

Artisense beschäftigt aktuell zehn Mitarbeiter. In Deutschland ist das Unternehmen seit dem vergangenen Jahr Teil des Airbus-Accelerators Bizlab in Hamburg.

Im Interview mit WirtschaftsWoche Gründer erklärt Chief Operations Officer (COO) Till Kaestner, was das Start-up nun vorhat und wie die Technologie selbstfahrende Autos, Drohnen und Lieferroboter voranbringen soll.

Herr Kaestner, Sie waren vorher Deutschlandchef von Linkedin und Geschäftsführer einer Digitalagentur. Wie wurden Sie Mitgründer von Artisense?
Den Grundstein für das Unternehmen hat unser CEO Andrej Kulikov gelegt. Er war einer der führenden Softwareentwickler bei Audi. Dort hat er festgestellt, dass das autonome Fahren aktuell noch an elementaren Technologien scheitert und 2015 im Silicon Valley Artisense gegründet, um neue Lösungen zu finden. Mit Daniel Cremers hat sich ihm einer der international führenden Forscher für Bildverarbeitung und Mustererkennung angeschlossen. Mich haben die Beiden dazu geholt, um das Unternehmen wirtschaftlich voranzubringen.

Einen wichtigen Meilenstein haben Sie nun erreicht: Artisense hat gerade eine ungewöhnlich hohe Anschubfinanzierung bekommen – aus Deutschland. Wäre da nicht ein US-Wagniskapitalgeber naheliegender gewesen?
Für Start-ups hat das Silicon Valley ohne Frage ein attraktives Ökosystem, trotzdem haben wie uns erstmal in Deutschland um Investoren bemüht. Unser Standort hier ist schon deswegen enorm wichtig, weil Daniel Cremers an der TUM lehrt und viele Experten aus seinem Institut an Artisense beteiligt sind. Wir begreifen uns als Deep-Tech-Unternehmen und finden in München exzellente Bedingungen vor: Die Stadt hat als Forschungsstandort ein sehr gutes Image, man findet hier Leute mit dem richtigen Mindset – und in Deutschland insgesamt eben auch aufgeschlossene Investoren. Auf längere Sicht wird mit Sicherheit aber auch das Silicon Valley sehr wichtig für uns.

Nächste Seite: Was Artisense anders macht als die Konkurrenz.


Artisense ist seit Herbst 2017 auch in Tokio vertreten – warum?
Was High-Tech angeht, ist Asien ein riesiger Markt. Und gerade in Japan ist es für Unternehmen bedeutend, dass Geschäftspartner eine Repräsentanz vor Ort haben. Wir hatten außerdem das Glück, dort ebenso wie in den USA Teil des Accelerator-Programms Plug and Play zu sein.

Ihr Unternehmen will die Bilderkennung für selbstfahrende Autos revolutionieren – was machen Sie anders als die Konkurrenz?
Aktuelle Testfahrzeugen für selbstfahrende Autos haben in der Regel große Aufbauten auf dem Dach. Da sind eine ganze Reihe von Sensoren untergebracht, darunter auch sogenannte Lidars, die mit Hilfe von Lasern Abstände messen. Solche Systeme kosten aktuell 6.000 Dollar aufwärts und erfordern zudem eine extrem hohe Computerleistung im Fahrzeug. Wir erreichen ein ähnliches Ergebnis mit Kameras, die weniger als zehn Dollar kosten können.

Das müssten Sie bitte noch etwas ausführen.
Der Schlüssel ist die Software. Dank komplexer Algorithmen erreichen wir zwei Dinge in einem Verfahren: Aus den Videobildern wird ein dreidimensionales Bild rekonstruiert. Parallel wird bestimmt, wo sich das Objekt, von dem die Aufnahmen stammen, gerade in dieser 3D-Welt befindet. Vereinfacht gesagt: Wir bringen Maschinen bei, wie Menschen zu sehen. Für die Berechnungen reichen beispielsweise Smartphone-Prozessoren – man braucht dazu keine teure Hardware.

Das klingt wie eine Kampfansage an Nvidia. Der Grafikkartenhersteller verspricht sich mit seinen Chips große Geschäfte im Automobilbereich und hat Unternehmen wie Toyota, Continental und Tesla für seine Plattform gewonnen. Läuft die ganze Branche in die falsche Richtung?
Zu einzelnen Wettbewerbern möchte ich mich nicht äußern. Ganz generell gesagt: Aktuell werden mit Nachdruck Produkte am Markt platziert, die aber nicht unbedingt alle Marketingversprechen halten können. Und manche auf Vorstandsebene getroffene Einkaufentscheidung der Autohersteller geht am Bedarf der Ingenieure vorbei.

Alleine auf Kameras setzt aber kein Autokonzern…
Wir sagen auch nicht, dass Lidars und andere Sensoren keine Daseinsberechtigung haben. Schon aus Gründen der Sicherheit wird es in autonomen Fahrzeugen redundante Sensoren geben müssen. Unsere Software hat den Charme, dass sie auch mit anderen Sensordaten gefüttert werden kann – wir sind aber überzeugt davon, dass Kameras eine zentrale Rolle spielen sollten.

Nächste Seite: Was die nächsten Schritte des Start-ups sind.


Sie arbeiten wie andere Unternehmen der Branche auch zudem an einer Cloud-Plattform. Wozu dient die, wenn die Berechnungen schon im Fahrzeug stattfinden?
Unser Ziel ist es, die Daten aus einzelnen Fahrzeugen zu dynamischen 3D-Karten zusammenzuführen. Die Navigation von Fahrzeugen kann das deutlich verbessern. Wenn ein Auto auf meiner Route schon einen Stau oder einen Unfall erkennt, lässt sich die Stelle einfacher umfahren. Auch für die Sicherheit ist die Cloud ein wichtiger Faktor.

Wie wollen Sie die Autohersteller davon überzeugen, Ihnen die Daten zu überlassen?
Es wird nicht dabei bleiben, dass Autohersteller sich einfach aller Daten bedienen können. Das wird reguliert werden, zugunsten der Autobesitzer. Letztlich werden die entscheiden, was mit ihren Sensordaten passiert – und an wen sie diese zum Beispiel verkaufen.

Wie weit ist Ihre Technologie?
Mein Mitgründer Daniel Cremers beschäftigt sich an seinem Lehrstuhl schon viele Jahre damit, auch in gemeinsamen Forschungsprojekten mit der Automobilindustrie. Als Unternehmen testen wir unsere Lösungen schon jetzt zusammen mit Technologiepartnern. Dabei geht es übrigens nicht nur um Autos – das Verfahren ist auch in der Robotik oder bei Drohnen relevant.

Was sind nächste Schritte für das Start-up?
Wir wollen unsere Forschungs- und Entwicklungsteams stark ausbauen, dabei hilft uns die Anschubfinanzierung sehr. Und wir wollen unsere bestehende Technologie in Fahrzeugen einsetzen. Daher sind momentan Test- und Entwicklungsprojekte für uns interessant – auch das ist schon ein großer Markt.

Vielen Dank für das Gespräch.