Eine Gruppe von Wirtschaftswissenschafts-Studenten, viertes Semester: Marktforschungskurs. Eine Umfrage zu einem vermeintlichen Zukunftstrend soll durchgeführt werden. Die Studenten stehen eine Woche lang mit Handzetteln bewaffnet vor der Uni oder in der Fußgängerzone. Die zu Befragenden machen aber meist einen großen Bogen um sie. Zu beschäftigt, kein Interesse, im Stress - nur wenige wollen an der seitenlangen Befragung teilnehmen. Nach ein paar Tagen macht sich Frust breit, die bisherigen Antworten lassen außerdem eine eindeutige Tendenz erkennen.
Die Deadline rückt näher, schnell werden ein paar Fragebögen von den Studenten selbst ausgefüllt. Auch Freunde helfen mit, wenn jeder zwei bis drei Bögen ausfüllt, ist die gewünschte Stichprobengröße schneller erreicht. Keiner hat böse Absichten, es ist ja "nur" ein Uni-Projekt, um mit der Statistik vertraut zu werden. Und außerdem: In allen Lehrbüchern ist der berühmte Satz "Traue keiner Statistik, die du nicht selber gefälscht hast", der vermutlich von Winston Churchill stammt, zu finden. Dieser rechtfertigt das Vorgehen der Studenten ja sogar, oder?
Es blieb aber nicht beim Studentenstreich
Was sich an der Uni unter Umständen noch damit rechtfertigen lässt, dass es nicht um die Ergebnisse geht, sondern um das Erlernen von Auswertungsmethoden und -programmen, kann im Geschäftsleben nicht toleriert werden. Ein Marktforschungsunternehmen wird meist nicht zum Spaß beauftragt, sondern als Grundlage für wichtige Entscheidungen: Wird das neue Produkt eingeführt? Damit sind hohe Investitionen verbunden, sollte es nicht klappen, steht der Unternehmenserfolg auf dem Spiel, im schlimmsten Fall sogar zahlreiche Arbeitsplätze. In den letzten Wochen häuften sich die Artikel: Marktforschung wird gefälscht, manipuliert und der Auftraggeber somit betrogen. Die Branche ist verunsichert, zunehmend sehen sich Kunden nach Beweisen um, die ethisches Vorgehen der Marktforschungsinstitute belegen.
Wie kann hohe Datenqualität sichergestellt werden?
Bei Marktforschung via Crowdsourcing spielen einige Faktoren eine wichtige Rolle, um eine konsistent hohe Datenqualität zu gewährleisten. Bei Meinungsumfragen kann so zum Beispiel sichergestellt werden, dass jeder User die Umfrage nur einmal ausfüllen kann. Sobald sie einmal abgeschickt wurde, kann er sie nicht ein weiteres Mal beantworten. Er müsste sich dafür ein weiteres Profil anlegen und die Umfrage erneut unter einem anderen Usernamen und einer anderen Emailadresse durchführen. Das kann durchaus vorkommen, ist aber mit ziemlich viel Aufwand des Users verbunden und lohnt sich vermutlich nur, wenn die Umfrage außergewöhnlich gut bezahlt ist.
Hohe Toleranz gegenüber GPS und Beacons bei Umfrageteilnehmern
Bei Marktforschungsaufträgen, die nur an einem bestimmten Standort, beispielsweise in einem zuvor festgelegten Supermarkt, durchgeführt werden sollen, garantiert GPS-Erkennung, dass der Shopper auch wirklich vor Ort war und den Auftrag nicht gemütlich von zuhause aus erledigt hat. Außerdem wird Zeit- und Datum festgehalten, sodass durchgeführte Marktforschungsaufträge auch zu einem späteren Zeitpunkt noch nachverfolgt werden können. Auch durch eine Validierung der Aufträge durch Spezialisten, zum Beispiel bei Fotos, wird sichergestellt, dass trotz des richtigen Standorts auch wirklich das fotografiert wurde, was gefragt war. Aus einer Studie* von POSpulse, die im Januar 2018 mit 500 Shoppern durchgeführt wurde, kam außerdem hervor, dass zwei Drittel bereit sind, im Supermarkt ihr Bluetooth zu aktivieren, um Aufträge durchzuführen, die durch Beacons ausgelöst werden. Marktforschungsaufträge würden dann direkt vor Ort ausgelöst, was wiederum zu einer noch höheren Konsistenz der Daten führen würde.
Abb. 1: Sicherstellung von Datenqualität bei crowdsourcing-basierter Marktforschung
*Studie: Beacons-Technologie bei Umfragen, Januar 2018, n=500