Große Sprachmodelle können Haushaltsrobotern helfen, Fehler ohne menschliche Hilfe zu beheben

Es gibt unzählige Gründe, warum Haushaltsroboter nach dem Roomba wenig Erfolg hatten. Preisgestaltung, Praktikabilität, Formfaktor und Kartierung haben alle zu einem Misserfolg nach dem anderen beigetragen. Selbst wenn einige oder alle diese Probleme behoben sind, bleibt die Frage, was passiert, wenn ein System einen unvermeidlichen Fehler macht.

Dies war auch auf industrieller Ebene ein Reibungspunkt, aber große Unternehmen haben die Ressourcen, um Probleme zu beheben, wenn sie auftreten. Wir können jedoch nicht erwarten, dass Verbraucher lernen, zu programmieren oder jedes Mal, wenn ein Problem auftritt, jemanden einstellen, der helfen kann. Glücklicherweise ist dies ein großartiger Anwendungsfall für große Sprachmodelle (LLMs) im Robotik-Bereich, wie anhand neuer Forschungen des MIT dargestellt wird.

Eine Studie, die im Mai auf der International Conference on Learning Representations (ICLR) vorgestellt werden soll, soll einen Hauch von "gesundem Menschenverstand" in den Prozess der Fehlerkorrektur bringen.

„Es stellt sich heraus, dass Roboter ausgezeichnete Nachahmer sind“, erklärt die Schule. „Aber es sei denn, Ingenieure programmieren sie auch so, dass sie auf jeden möglichen Stoß und Schubs reagieren können, wissen Roboter nicht unbedingt, wie sie mit diesen Situationen umgehen sollen, ohne ihre Aufgabe von vorne zu beginnen.“

Traditionell wird ein Roboter, wenn er auf Probleme stößt, seine vorprogrammierten Optionen erschöpfen, bevor er menschliche Intervention erfordert. Dies stellt eine besondere Herausforderung in einer unstrukturierten Umgebung wie einem Zuhause dar, in der jede Veränderung des Status quo die Fähigkeit eines Roboters, zu funktionieren, beeinträchtigen kann.

Die Forscher hinter der Studie stellen fest, dass obwohl das Lernen durch Nachahmung (das Lernen, eine Aufgabe durch Beobachtung auszuführen) in der Welt der Haushaltsrobotik beliebt ist, es oft nicht die unzähligen kleinen Umgebungsvariationen berücksichtigen kann, die den regulären Betrieb stören können und somit ein System erfordern, von vorne zu beginnen. Die neue Forschung befasst sich teilweise damit, indem sie Demonstrationen in kleinere Untergruppen aufteilt, anstatt sie als Teil einer kontinuierlichen Aktion zu behandeln.

Hier kommen LLMs ins Spiel, die die Anforderung beseitigen, dass der Programmierer die zahlreichen Teilaktionen manuell kennzeichnet und zuweist.

„LLMs haben einen Weg, Ihnen zu sagen, wie jeder Schritt einer Aufgabe in natürlicher Sprache durchgeführt wird. Die kontinuierliche Demonstration eines Menschen ist die Verkörperung dieser Schritte im physischen Raum", sagt der Graduierte Tsun-Hsuan Wang. „Und wir wollten die beiden verbinden, damit ein Roboter automatisch weiß, in welchem Stadium einer Aufgabe er sich befindet, und in der Lage ist, neu zu planen und sich selbst zu erholen.“

Die spezielle Demonstration, die in der Studie gezeigt wird, beinhaltet das Training eines Roboters, Murmeln zu schöpfen und in eine leere Schüssel zu gießen. Es ist eine einfache, wiederholbare Aufgabe für Menschen, aber für Roboter ist es eine Kombination verschiedener kleiner Aufgaben. Die LLMs sind in der Lage, diese Teilaufgaben aufzulisten und zu kennzeichnen. In den Demonstrationen sabotierten die Forscher die Aktivität auf kleine Weise, indem sie den Roboter vom Kurs abbrachten und die Murmeln aus dem Löffel klopften. Das System reagierte, indem es die kleinen Aufgaben selbst korrigierte, anstatt von vorne zu beginnen.

„Mit unserer Methode müssen wir, wenn der Roboter Fehler macht, nicht die Menschen bitten, zu programmieren oder zusätzliche Demonstrationen darüber zu geben, wie man sich von Misserfolgen erholt", fügt Wang hinzu.

Es ist eine überzeugende Methode, um zu verhindern, komplett den Verstand zu verlieren.