logistic ready

Fachportal für Intralogistik

Roboter können tatsächlich spüren, wenn Menschen Hilfe brauchen

Roboter können tatsächlich spüren, wenn Menschen Hilfe brauchen

Forscher der Franklin und Marshall Colleges in den Vereinigten Staaten von Amerika haben eine neue Technik des maschinellen Lernens entwickelt, die es Robotern ermöglicht, zu erkennen, wenn Menschen Hilfe benötigen. Sie erkennen selbstständig Verhaltenshinweise und bieten Hilfe an, wenn sie es für notwendig erachten.

Das System wurde entwickelt, um zu helfen, ohne die Unabhängigkeit des Benutzers zu beeinträchtigen, und respektiert die Grenzen und Bedürfnisse jeder Person. Die Idee ist, dass der Roboter bei alltäglichen Aufgaben als Assistent fungiert und nicht als Ersatz für die Steuerung bestimmter Situationen.

‚Ein Weg, um Roboter Unabhängigkeit zu unterstützen bedeutet, dafür zu sorgen, dass er ein Gleichgewicht zwischen zu viel und zu wenig Hilfe findet. Wir untersuchen unsere Algorithmen, um anzupassen und abzuschätzen, wie viel Unterstützung ein Benutzer benötigt, um sicherzustellen, dass die Unterstützung den Bedürfnissen jeder Person entspricht“, erklärt der Robotikprofessor Jason R. Wilson, Hauptautor der Studie.

Möchten Sie die besten Tech-News des Tages verfolgen? Greifen Sie auf unseren neuen YouTube-Kanal Canaltech News zu und abonnieren Sie ihn. Jeden Tag eine Zusammenfassung der wichtigsten Neuigkeiten aus der Welt der Technik für Sie!

Verhaltensanalyse

Wenn Menschen Hilfe brauchen, bitten sie oft explizit um Hilfe oder kommunizieren dieses Bedürfnis durch bestimmte Verhaltensweisen wie Mimik oder Körpersprache. Manche Leute benutzen Starren auch, um zu sagen, dass sie Hilfe brauchen.

„Eine Person kann sich die Aufgabe ansehen, an der sie arbeitet, und dann nach jemandem suchen, der ihr helfen kann. Dieses Muster, das als bestätigender Blick bekannt ist, wird verwendet, um die andere Person zu bitten, zu sehen, was passiert, und instinktiv Hilfe anzubieten. ohne etwas sagen zu müssen“, sagt Wilson.

Mit der von den Forschern entwickelten Methode sind die Roboter in der Lage, diese Verhaltensmerkmale in Echtzeit zu erkennen. Neben der Verarbeitung von Mustern im Blick eines Benutzers sind Bots auch in der Lage, die Sprache von Personen zu analysieren und verschiedene Arten von impliziten Hinweisen in einem Gespräch zu erkennen.

Siehe auch  Das Löschen der Autocomplete-Daten wird einfacher

„Die von uns entwickelte Architektur erkennt und analysiert automatisch die Sprache des Benutzers, um festzustellen, ob eine Person Hilfebedarf äußert. Gleichzeitig erkennt das System auch Sehmuster und korreliert diese Situation mit dem Hilfebedarf“, ergänzt Ingenieurstudentin Isabelle Boucher, Co-Autorin der Studie.

die in der gemeinde leben

Anstatt sich Informationen über die spezifische Aufgabe des Benutzers anzusehen, versucht die neue Technologie, die sozialen Interaktionen zwischen Menschen und Roboter. Dadurch kann dieser Ansatz in vielen verschiedenen realen Kontexten angewendet werden, während Roboter trainiert werden, um jede Art von Aktivität in Umgebungen auszuführen, die mit Menschen geteilt werden.

Obwohl das System die Interaktion mit Robotern verbessert, möchten die Forscher andere Formen der nonverbalen Kommunikation erforschen, um die Fähigkeit von Maschinen zu verbessern und in Verhaltenssituationen implizite Aktionen besser zu identifizieren.

„Wir möchten soziale Hinweise erforschen, die es dem Bot ermöglichen, festzustellen, wann ein Benutzer Hilfe benötigt und wie viel Hilfe er benötigt. Eine Form der nonverbalen Kommunikation, die wir immer noch nicht verwenden, ist der emotionale Ausdruck. Genauer gesagt analysieren wir Gesichtsausdrücke, um zu sehen.“ wenn ein Benutzer frustriert, gelangweilt, engagiert oder herausgefordert ist“, schließt Wilson.

Quelle: Franklin und Marshall College