Bloomberg Tausende von Amazon-Mitarbeitern hören Echo-Sprachaufnahmen

Bei Amazon hören Tausende von Mitarbeitern Echo-Audioclips, um das maschinelle Lernen von Alexa zu verbessern, damit der persönliche Assistent besser auf Sprachbefehle reagieren kann.

Diese Leute hören zu, was einige Alexa-Besitzer dem Assistenten sagen, und überprüfen, transkribieren und kommentieren Audioaufnahmen, um Alexas maschinelles Lernmodell zu trainieren.

Bloomberg hat die Geschichte:

Die Arbeit ist meist banal. Ein Mitarbeiter in Boston gab an, er habe die gesammelten Sprachdaten für bestimmte Äußerungen wie "Taylor Swift" ermittelt und mit Anmerkungen versehen, um darauf hinzuweisen, dass der Sucher den Musikkünstler meinte.

So weit so gut, aber ...

Gelegentlich nehmen die Zuhörer Dinge auf, die Echo-Besitzer wahrscheinlich lieber für sich behalten würden: etwa eine Frau, die schlecht in der Dusche singt, oder ein Kind, das um Hilfe schreit. Die Teams nutzen interne Chatrooms, um Dateien freizugeben, wenn sie beim Parsen eines durcheinandergebrachten Wortes Hilfe benötigen oder auf eine amüsante Aufnahme stoßen.

Ich teile die Audioaufnahme eines Kunden mit einem Kollegen, um die Arbeit zu erledigen. Das Teilen eines Audioclips mit einem Kollegen, nur weil der Benutzer zufällig etwas Lustiges oder Dummes gesagt hat, fühlt sich für mich völlig falsch und unprofessionell an.

Manchmal hören sie Aufnahmen, die sie als störend oder möglicherweise als kriminell empfinden. Zwei der Arbeiter sagten, sie hätten etwas aufgegriffen, was sie für einen sexuellen Übergriff hielten. Wenn so etwas passiert, können sie die Erfahrung im internen Chatroom teilen, um Stress abzubauen.

Während Amazon über einen Prozess verfügt, den seine Mitarbeiter verfolgen können, wenn sie etwas Bedrückendes hören, wurden einige Mitarbeiter mit der Begründung, dass es nicht die Aufgabe von Amazon war, sich einzumischen, eindeutig abgewiesen.

Aus Datenschutzgründen wird in dem Bericht behauptet, dass die Mitarbeiter dieses Teams nur einige der Sprachaufzeichnungen anhören, die in den Häusern und Büros der Echo-Besitzer aufgenommen wurden.

Ein Amazon-Sprecher kommentierte:

Wir nehmen die Sicherheit und den Datenschutz der persönlichen Daten unserer Kunden ernst. Wir kommentieren nur eine extrem kleine Auswahl von Alexa-Sprachaufnahmen, um das Kundenerlebnis zu verbessern.

Diese Informationen helfen uns beispielsweise, unsere Spracherkennungs- und Sprachverstehenssysteme zu trainieren, damit Alexa Ihre Anforderungen besser verstehen und sicherstellen kann, dass der Service für alle gut funktioniert.

Sudio-Dateien werden von identifizierbaren Informationen wie dem vollständigen Namen und der Adresse eines Benutzers befreit. Abgesehen davon hätte Amazon mit seiner Datenerfassung transparenter sein können:

Der von sieben Personen, die an dem Programm gearbeitet haben, beschriebene Sprachüberprüfungsprozess von Alexa unterstreicht die oft übersehene Rolle des Menschen bei der Schulung von Softwarealgorithmen. In Marketingmaterialien sagt Amazon, dass Alexa "in der Cloud lebt und immer schlauer wird". Aber wie viele Software-Tools, die darauf ausgelegt sind, aus Erfahrungen zu lernen, lehren die Menschen auch etwas.

Benutzer können Einstellungen anpassen, um zu verhindern, dass Amazon ihre Sprachaufnahmen verwendet, um Alexa zu verbessern.

Der Online-Einzelhandelsriese räumt ein, dass Alexa-Anfragen verwendet werden, um „unsere Spracherkennungs- und Sprachverstehenssysteme zu trainieren“, was jedoch in einer Liste häufig gestellter Fragen auf seiner Website verankert ist. Unabhängig davon, wie Sie es sehen, ist die kontextbezogene Spracherkennung eine harte Nuss, aber maschinelles Lernen verspricht die richtige Lösung zu sein. Das Problem ist, dass maschinelles Lernen trainiert werden muss.

Amazon hat Teams, die Alexa-Sprachanfragen kennzeichnen und kategorisieren

Zum Beispiel hat Apple Face ID mit mehr als einer Milliarde Fotos von Gesichtern von Menschen trainiert. Für die Spracherkennung sind zum Erreichen einer hohen Genauigkeit große Mengen an beschrifteten Daten erforderlich.

Aus diesem Grund ist es nicht möglich, Siri in einer neuen Sprache zu starten, wenn nicht genügend Daten vorhanden sind, um die akustischen Modelle zu trainieren. Die Daten müssen von echten Personen stammen, die echte Sprachabfragen durchführen. Der einzige Unterschied zwischen Amazon und Apple besteht darin, dass bei ersteren Menschen einige dieser Aufnahmen anhören, bei letzteren vermutlich nicht.

Jetzt, da Sie wissen, dass Amazon ein globales Team hat, das Alexa-Audioclips abhört, werden Sie Echo-Produkte mehr oder weniger wahrscheinlich weiterhin verwenden?

Lassen Sie es uns wissen, indem Sie unten einen Kommentar hinterlassen.