Wie funktioniert der visioncheckout? – Eine Schritt für Schritt Anleitung

Der visioncheckout begeistert Gäste wie Gastronomen gleichermaßen. Egal ob in unseren Live-Demos, beim Besuch eines Referenzkunden oder der ersten eigenen Anwendung: Nicht selten bleibt man kurz verdutzt stehen, sobald der visioncheckout das eigene Tablett gescannt hat. „Wie, das war’s jetzt schon?“ oder „Woher weiß er denn das jetzt?“ sind nur einige der Reaktionen, die wir regelmäßig zu hören bekommen. Auf die erste Frage können wir nur antworten: „Ja, das war’s schon.“ Denn der visioncheckout ist schnell, einfach und kinderleicht zu bedienen. In diesem Beitrag wollen wir auch für die zweite Frage eine Antwort bieten. Woher weiß der visioncheckout denn nun, was sich auf dem Tablett befindet? Wir werden Schritt für Schritt deutlich machen, welche Vorarbeit wir in der Entwicklung geleistet haben, damit die Erkennung funktioniert.

Das Teaching

Der wahrscheinlich wichtigste Teil für eine erfolgreiche Erkennung ist das Teaching. Viele denken dabei allein an das eine Bild, das unsere Kunden vor Ort machen, aber weit gefehlt. Wir ermöglichen ein „Einlernen mit nur einem Bild“, indem wir dem visioncheckout schon in der Entwicklung über 6 Millionen Bilder von Tellergerichten und Retailartikeln gezeigt haben. Diese wurden dann von 7 Millionen Neuronen analysiert und in ihre einzelnen Features aufgeteilt. Das können zum Beispiel Größe, Form oder Farbe sein. Der visioncheckout ist inzwischen also absoluter Profi darin, die einzelnen Merkmale zu erkennen und zu unterscheiden. Was jetzt beim Einlernen vor Ort passiert ist lediglich der allerletzte Feinschliff: Dieses Grundwissen wird jetzt genau auf die an diesem Tag servierten Gerichte spezialisiert. So erreichen wir eine Genauigkeit von über 99%!

Das Scannen

Scannen. Bezahlen. Genießen. Und das ohne einen einzigen Klick. Klingt logisch, oder? Was klingt wie eine Selbstverständlichkeit, ist aber eigentlich das Ergebnis eines ausgeklügelten Entwicklungsprozesses. Die Crux dabei liegt darin, dass der Scanvorgang

  1.  Selbstständig ausgelöst wird
  2.  Selbstständig beendet wird (und damit die Bezahlung gestartet)
  3.  Und erkannt wird, wenn ein Gast geht.
 

Diese drei Schritte müssen bei jedem möglichen Zahlungsvorgang funktionieren, egal welche Sonderfälle auftreten mögen. Einige Gäste schieben ihr Tablett zum Beispiel nur zur Hälfte unter den visioncheckout. Andere lassen keine Lücke zum Tablett ihres Vorgängers, also auch darauf ist kein Verlass. Ein weiterer sehr häufiger Fall ist, dass jemand noch kurz den Schlüssel vom Tablett nimmt. Wird also genau in diesem Moment gescannt, kann es passieren, das etwas von der Hand verdeckt wird.
Durch eine geschickte Analyse der Bewegungen unter dem visioncheckout konnten wir all diese Sonderfälle so gut ausfindig machen, dass der „Checkout ohne einen einzigen Klick“ nicht nur eine leere Hülse für das Best-Case Szenario ist, sondern gelebte Praxis unserer Kunden.

Das Blurren

Der visioncheckout ist darauf trainiert, Hintergrundobjekte herauszufiltern und noch vor der Erkennung unkenntlich zu machen. So werden keine personenbezogenen Daten gespeichert und zusätzlich wird die Erkennung nicht durch unbekannte Objekte verzerrt.
Dieser Schritt erfolgt in wenigen zehntel Sekunden. So kann sichergestellt werden, dass er den Checkout nicht verlangsamt und trotzdem für einen sicheren Zahlungsvorgang sorgen.

Die Erkennung

Sobald das Tablett gescannt wurde und die Hintergrundobjekte herausgefiltert sind, startet das Herzstück des visioncheckouts: Die Erkennung.
Dieser Schritt wirft die meisten Fragen auf und sorgt gleichzeitig für das größte Erstaunen. Das wundert uns nicht, denn mit einer Genauigkeit von über 99% funktioniert die Erkennung mit einer geringeren Fehlerquote als an Selbsttipp-Kassen und ist gleichzeitig um ein Vielfaches schneller. Dabei muss der visioncheckout zwei Fragen in kürzester Zeit beantworten:

Wo liegen die Artikel?
Noch vor der Zuordnung der Gegenstände zu den angelegten Artikeln muss der visioncheckout feststellen, wo sie liegen. Dank unserer pixelgenauen Segmentierung kann er sehr detailliert feststellen, wo die Grenze zwischen den Artikeln verläuft und welche Form sie haben. Das bietet schon das erste Feature, das zum Beantworten der zweiten Frage benötigt wird.

Welche Artikel liegen dort?
Zusätzlich zur Form verwendet der visioncheckout auch Eigenschaften wie die Farbe oder die Größe der Artikel. All diese Eigenschaften werden jetzt im zweiten Schritt analysiert und ausgewertet, um die Gerichte auf dem Bild den im Speiseplan hinterlegten Artikeln zuzuordnen.

Die Smart Correction

Der letzte Schritt kommt nur in den seltensten Fällen tatsächlich vor, aber auch das sicherste System ist gut beraten, einen doppelten Boden verbaut zu haben!
Mit unserem Smart Corrector haben wir genau das gemacht. Sollte der visioncheckout bei der Zuordnung der Gerichte einmal falsch liegen, werden dem Gast die ähnlichsten Gerichte vorgeschlagen. Die Erkennung kann jetzt korrigiert werden und der Kassiervorgang läuft reibungslos weiter. So werden auch korrigierte Tabletts schneller kassiert als an der Selbsttipp-Kasse.
Bei unseren Bestandskunden müssen zwar nur 0,35% aller mit dem visioncheckout kassierten Tabletts korrigiert werden, trotzdem haben wir einen Fokus daraufgesetzt, diesen Fall möglichst intuitiv und schnell zu gestalten.

Um unseren Kunden noch mehr Flexibilität in ihrer Menügestaltung zu geben, haben wir verschiedene zusätzliche Features entwickelt, wie zum Beispiel unsere Weigh & Pay Lösung. Wenn Sie sich für eine dieser Erweiterungen interessieren oder den visioncheckout generell kennenlernen möchten, buchen Sie gerne Ihre persönliche Live-Demo.

Interesse am visioncheckout?

Wir freuen uns, mit Ihnen in Kontakt zu treten! Schreiben Sie uns gerne eine Nachricht oder buchen Sie eine Live-Demo.