Industriële fabricage
Industrieel internet der dingen | Industriële materialen | Onderhoud en reparatie van apparatuur | Industriële programmering |
home  MfgRobots >> Industriële fabricage >  >> Manufacturing Technology >> Automatisering Besturingssysteem

CMU-onderzoekers trainen autonome drones met behulp van cross-modale gesimuleerde data

Om autonoom te kunnen vliegen, moeten drones begrijpen wat ze in de omgeving waarnemen en beslissingen nemen op basis van die informatie. (Zie video hieronder.)

Een nieuwe methode ontwikkeld door onderzoekers van Carnegie Mellon University stelt drones in staat waarneming en actie afzonderlijk te leren.

De tweetrapsbenadering overbrugt de "simulatie-naar-realiteitskloof" en creëert een manier om drones die volledig zijn getraind op gesimuleerde gegevens veilig in te zetten in echte koersnavigatie.

Rogerio Bonatti, een doctoraalstudent aan het Robotics Institute van de School of Computer Science, zegt:"Normaal gesproken zullen drones die zijn getraind op zelfs de beste fotorealistische gesimuleerde gegevens in de echte wereld falen omdat de belichting, kleuren en texturen nog steeds te verschillend zijn om te vertalen.

"Onze waarnemingsmodule is getraind met twee modaliteiten om de robuustheid tegen omgevingsvariabelen te vergroten."

De eerste modaliteit die helpt om de waarneming van de drone te trainen, is beeld. De onderzoekers gebruikten een fotorealistische simulator om een ​​omgeving te creëren met een drone, een voetbalveld en rode vierkante poorten die van de grond werden opgetild en willekeurig werden gepositioneerd om een ​​baan te creëren.

Vervolgens bouwden ze een grote dataset met gesimuleerde afbeeldingen van duizenden willekeurig gegenereerde drone- en poortconfiguraties.

De tweede modaliteit die nodig is voor waarneming is het kennen van de positie en oriëntatie van de poorten in de ruimte, wat de onderzoekers hebben bereikt met behulp van de dataset van gesimuleerde afbeeldingen.

Door het model aan te leren met behulp van meerdere modaliteiten, wordt een robuuste weergave van de ervaring van de drone versterkt, wat betekent dat hij de essentie van het veld en de poorten kan begrijpen op een manier die zich vertaalt van simulatie naar realiteit.

Het comprimeren van afbeeldingen om minder pixels te hebben, helpt dit proces. Door te leren van een laagdimensionale weergave kan het model door de visuele ruis in de echte wereld heen kijken en de poorten identificeren.

Nu de waarneming is geleerd, zetten onderzoekers de drone in de simulatie in, zodat hij zijn controlebeleid kan leren - of fysiek kan bewegen.

In dit geval leert het welke snelheid moet worden toegepast terwijl het de koers navigeert en elke poort tegenkomt. Omdat het een gesimuleerde omgeving is, kan een programma het optimale traject van de drone berekenen voordat het wordt ingezet.

Deze methode biedt een voordeel ten opzichte van handmatig begeleid leren met behulp van een deskundige operator, omdat leren in de echte wereld gevaarlijk, tijdrovend en duur kan zijn.

De drone leert het parcours te navigeren door de door de onderzoekers gedicteerde trainingsstappen te doorlopen. Bonatti zei dat hij specifieke wendingen en richtingen uitdaagt die de drone in de echte wereld nodig heeft.

Bonatti zegt:“Ik laat de drone naar links en naar rechts draaien in verschillende baanvormen, die moeilijker worden naarmate ik meer geluid toevoeg. De robot leert niet om een ​​bepaald spoor na te bootsen.

"Integendeel, door de gesimuleerde drone strategisch te sturen, leert hij alle elementen en soorten bewegingen om autonoom te racen."

Bonatti wil de huidige technologie pushen om het vermogen van een mens om omgevingssignalen te interpreteren te benaderen.

Hij zegt:"Het meeste werk aan autonoom racen met drones was tot nu toe gericht op het ontwerpen van een systeem dat is aangevuld met extra sensoren en software met als enig doel snelheid.

"In plaats daarvan wilden we een computationeel weefsel creëren, geïnspireerd door de functie van een menselijk brein, om visuele informatie toe te wijzen aan de juiste controleacties die via een latente representatie gaan."

Maar droneracen is slechts één mogelijkheid voor dit soort leren. De methode om perceptie en controle te scheiden, kan worden toegepast op veel verschillende taken voor kunstmatige intelligentie, zoals autorijden of koken.

Hoewel dit model vertrouwt op afbeeldingen en posities om perceptie te leren, kunnen andere modaliteiten zoals geluiden en vormen worden gebruikt voor inspanningen zoals het identificeren van auto's, dieren in het wild of objecten

Onderzoekers die aan dit werk hebben bijgedragen, zijn onder meer Sebastian Scherer van Carnegie Mellon en Ratnesh Madaan, Vibhav Vineet en Ashish Kapoor van de Microsoft Corporation.

De paper, Leren van visuomotorisch beleid voor luchtnavigatie met behulp van cross-modale representaties , is geaccepteerd voor de International Conference on Intelligent Robots and Systems 2020.

De code van de paper is open source en beschikbaar voor andere onderzoekers.


Automatisering Besturingssysteem

  1. Het gebruik van SaaS en de cloud vereist zorgvuldige gegevensverwarring
  2. 10 voordelen van het gebruik van cloudopslag
  3. Sensorgegevens streamen van een ppDAQC Pi-plaat met InitialState
  4. Gebaargestuurde robot met Raspberry Pi
  5. Hoe u zich voorbereidt op AI met behulp van IoT
  6. Dronetechnologie vergroot bereik van mobiele IoT
  7. IoT en drones automatiseren veldoperaties
  8. Wat de drones van de toekomst kunnen doen
  9. Onderzoekers creëren superfluorescentie met behulp van nanokristallen superroosters
  10. Drones:composiet UAV's vliegen op
  11. Hoe u uw supply chain voor onderhoud effectiever kunt maken met behulp van data