Door simulatie aangedreven pijpleidingen passen trainingsgegevens aan voor behendige robots
Bewegingsontwerp INSIDER
PhysicsGen kan enkele tientallen virtual reality-demonstraties vermenigvuldigen tot bijna 3.000 simulaties per machine voor mechanische metgezellen zoals robotarmen en -handen. (Afbeelding:ontworpen door Alex Shipps/MIT CSAIL, met behulp van foto’s van de onderzoekers)Wanneer ChatGPT of Gemini een schijnbaar deskundig antwoord geven op uw brandende vragen, realiseert u zich misschien niet hoeveel informatie het nodig heeft om dat antwoord te geven. Net als andere populaire generatieve kunstmatige intelligentie (AI)-modellen vertrouwen deze chatbots op backbone-systemen die basismodellen worden genoemd en die trainen op miljarden of zelfs biljoenen datapunten.
In dezelfde geest hopen ingenieurs funderingsmodellen te bouwen die een reeks robots trainen in nieuwe vaardigheden zoals het oppakken, verplaatsen en neerzetten van objecten op plaatsen zoals huizen en fabrieken. Het probleem is dat het moeilijk is om instructiegegevens te verzamelen en over te dragen tussen robotsystemen. U kunt uw systeem leren door de hardware stap voor stap te telebedienen met behulp van technologie zoals virtual reality (VR), maar dat kan tijdrovend zijn. Trainen met video's van internet is minder leerzaam, omdat de clips geen stapsgewijze, gespecialiseerde taakbeschrijving bieden voor bepaalde robots.
Een simulatiegestuurde aanpak genaamd ‘PhysicsGen’ van MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL) en het Robotics and AI Institute past robottrainingsgegevens aan om robots te helpen de meest efficiënte bewegingen voor een taak te vinden. Het systeem kan enkele tientallen VR-demonstraties vermenigvuldigen tot bijna 3.000 simulaties per machine. Deze hoogwaardige instructies worden vervolgens in kaart gebracht voor de precieze configuraties van mechanische metgezellen zoals robotarmen en -handen.
PhysicsGen creëert gegevens die generaliseren naar specifieke robots en condities via een proces in drie stappen. Ten eerste volgt een VR-headset hoe mensen objecten zoals blokken met hun handen manipuleren. Deze interacties worden tegelijkertijd in kaart gebracht in een 3D-fysica-simulator, waarbij de belangrijkste punten van onze handen worden gevisualiseerd als kleine bollen die onze gebaren weerspiegelen. Als je bijvoorbeeld een speeltje omdraait, zie je 3D-vormen die verschillende delen van je handen voorstellen en een virtuele versie van dat object draaien.
De pijplijn wijst deze punten vervolgens opnieuw toe aan een 3D-model van de opstelling van een specifieke machine (zoals een robotarm), en verplaatst ze naar de precieze ‘gewrichten’ waar een systeem draait en draait. Ten slotte maakt PhysicsGen gebruik van trajectoptimalisatie, waarbij in wezen de meest efficiënte bewegingen worden gesimuleerd om een taak te voltooien, zodat de robot weet wat de beste manieren zijn om dingen te doen, zoals het herpositioneren van een doos.
Elke simulatie is een gedetailleerd trainingsdatapunt dat een robot begeleidt bij mogelijke manieren om met objecten om te gaan. Wanneer geïmplementeerd in een beleid (het actieplan dat de robot volgt), heeft de machine verschillende manieren om een taak te benaderen en kan hij verschillende bewegingen uitproberen als één ervan niet werkt.
“We creëren robotspecifieke gegevens zonder dat mensen gespecialiseerde demonstraties voor elke machine opnieuw moeten opnemen”, zegt Lujie Yang, een MIT Ph.D. student elektrotechniek en computerwetenschappen en CSAIL-filiaal die de hoofdauteur is van een nieuw artikel waarin het project wordt geïntroduceerd. “We schalen de gegevens op een autonome en efficiënte manier op, waardoor taakinstructies bruikbaar worden voor een groter aantal machines.”
Het genereren van zoveel instructietrajecten voor robots zou ingenieurs uiteindelijk kunnen helpen een enorme dataset op te bouwen om machines zoals robotarmen en behendige handen te begeleiden. De pijpleiding kan bijvoorbeeld twee robotarmen helpen samenwerken bij het oppakken van magazijnartikelen en deze in de juiste dozen plaatsen voor leveringen. Het systeem kan ook twee robots aansturen om in een huishouden samen te werken aan taken zoals het wegzetten van kopjes.
Het potentieel van PhysicsGen strekt zich ook uit tot het omzetten van gegevens die zijn ontworpen voor oudere robots of andere omgevingen in nuttige instructies voor nieuwe machines. “Ondanks dat ze voor een specifiek type robot zijn verzameld, kunnen we deze eerdere datasets nieuw leven inblazen om ze algemener bruikbaar te maken”, zegt Yang. PhysicsGen veranderde slechts 24 menselijke demonstraties in duizenden gesimuleerde demonstraties, waardoor zowel digitale als echte robots objecten konden heroriënteren.
Yang en haar collega's testten hun pijplijn eerst in een virtueel experiment waarbij een zwevende robothand een blok in een doelpositie moest draaien. De digitale robot voerde de taak uit met een nauwkeurigheid van 81 procent door te trainen op de enorme dataset van PhysicsGen, een verbetering van 60 procent ten opzichte van een basislijn die alleen leerde van menselijke demonstraties.
De onderzoekers ontdekten ook dat PhysicsGen de manier zou kunnen verbeteren waarop virtuele robotarmen samenwerken om objecten te manipuleren. Hun systeem creëerde extra trainingsgegevens die twee paar robots hielpen taken maar liefst 30 procent vaker uit te voeren dan een puur door mensen aangeleerde basislijn.
In een experiment met een paar robotarmen uit de echte wereld observeerden de onderzoekers soortgelijke verbeteringen toen de machines samenwerkten om een grote doos in de aangewezen positie te draaien. Wanneer de robots afweken van het beoogde traject of het object verkeerd behandelden, konden ze halverwege de taak herstellen door te verwijzen naar alternatieve trajecten uit hun bibliotheek met instructiegegevens.
Senior auteur Russ Tedrake, Toyota-hoogleraar Elektrotechniek en Computerwetenschappen, Lucht- en Ruimtevaart, en Werktuigbouwkunde aan het MIT, zei dat deze imitatiegeleide techniek voor het genereren van gegevens de sterke punten van menselijke demonstratie combineert met de kracht van algoritmen voor robotbewegingsplanning.
“Zelfs een enkele demonstratie van een mens kan het probleem van bewegingsplanning veel eenvoudiger maken”, zegt Tedrake, tevens senior vice-president van grote gedragsmodellen bij het Toyota Research Institute en hoofdonderzoeker van CSAIL. “In de toekomst zullen de basismodellen deze informatie misschien kunnen leveren, en dit type techniek voor het genereren van gegevens zal een soort post-trainingsrecept voor dat model opleveren.”
Binnenkort kan PhysicsGen worden uitgebreid naar een nieuwe grens:het diversifiëren van de taken die een machine kan uitvoeren. “We willen PhysicsGen graag gebruiken om een robot te leren water te gieten als hij bijvoorbeeld alleen getraind is om borden weg te zetten”, zegt Yang. “Onze pijplijn genereert niet alleen dynamisch haalbare bewegingen voor bekende taken; het heeft ook het potentieel om een gevarieerde bibliotheek van fysieke interacties te creëren waarvan we denken dat ze kunnen dienen als bouwstenen voor het volbrengen van geheel nieuwe taken die een mens nog niet heeft gedemonstreerd.”
Het creëren van veel breed toepasbare trainingsgegevens kan uiteindelijk helpen bij het bouwen van een basismodel voor robots, hoewel MIT-onderzoekers waarschuwen dat dit een enigszins ver verwijderd doel is. Het door CSAIL geleide team onderzoekt hoe PhysicsGen enorme, ongestructureerde bronnen – zoals internetvideo’s – kan benutten als kiem voor simulatie. Het doel:alledaagse visuele inhoud transformeren in rijke, robotklare gegevens die machines kunnen leren taken uit te voeren die niemand ze expliciet heeft laten zien.
Yang en haar collega's willen PhysicsGen in de toekomst ook nog bruikbaarder maken voor robots met diverse vormen en configuraties. Om dat mogelijk te maken, zijn ze van plan datasets te gebruiken met demonstraties van echte robots, waarbij ze vastleggen hoe robotgewrichten bewegen in plaats van menselijke gewrichten.
De onderzoekers zijn ook van plan om versterkend leren op te nemen, waarbij een AI-systeem met vallen en opstaan leert, om ervoor te zorgen dat PhysicsGen zijn dataset verder uitbreidt dan door mensen geleverde voorbeelden. Ze kunnen hun pijplijn uitbreiden met geavanceerde perceptietechnieken om een robot te helpen zijn omgeving visueel waar te nemen en te interpreteren, waardoor de machine de complexiteit van de fysieke wereld kan analyseren en zich eraan kan aanpassen.
Voorlopig laat PhysicsGen zien hoe AI ons kan helpen verschillende robots te leren objecten binnen dezelfde categorie te manipuleren, vooral rigide. De pijplijn kan robots binnenkort helpen de beste manieren te vinden om met zachte voorwerpen (zoals fruit) en vervormbare voorwerpen (zoals klei) om te gaan, maar die interacties zijn nog niet eenvoudig te simuleren.
Bron
Sensor
- 2020 Create the Future Design-wedstrijd:winnaar van categorie elektronica/sensoren/IoT - PrintIC Flexible Circuits
- Implanteerbare sensor kan lichaamsfuncties meten - en vervolgens veilig biologisch afbreken
- Lidar-platform ondersteunt bezettingsdetectie, sociale afstand
- Een revolutie in robotschuren en polijsten:Force Sensing Material Abrasion Tech voor precisie
- Maximaliseren van de efficiëntie van het testen van raket- en vluchtvoertuigen onder krappe budgetten
- Een schaalbare methode voor de integratie van 2D-materialen op grote oppervlakken
- Georgia Tech onthult door licht aangedreven zachte lens die het menselijk zicht nabootst voor robotica
- Accelerometer- en gyroscoopontwerpen op basis van koolstofnanobuisjestape
- Precisievloeistofstroombeheer:gids voor het berekenen van openingen voor betrouwbare industriële activiteiten
- Apparaat diagnosticeert COVID-19 door speeksel
- Met inkjet geprinte draagbare multispectrale 3D-lichtveldcamera maakt geavanceerde beeldtoepassingen mogelijk