Industriële fabricage
Industrieel internet der dingen | Industriële materialen | Onderhoud en reparatie van apparatuur | Industriële programmering |
home  MfgRobots >> Industriële fabricage >  >> Industrial Internet of Things >> Internet of Things-technologie

Belangrijke technologieën versterken de groeiende rol voor embedded vision

Embedded vision-technologie zal binnenkort bijna elk aspect van ons dagelijks leven raken, maar wat is de status van de technologie die al in gebruik is? Welke rol speelt AI vandaag? Wat gebeurt er aan de rand en in de cloud? Deze vragen stonden centraal in de paneldiscussie over het trendonderwerp “Embedded Vision” op embedded world 2021.

Gedreven door vooruitgang in sensoren, processors en software, gaat embedded vision overal naartoe - van landbouw tot fabrieken, en van autonome voertuigen tot professionele sporten. Zelfs de Covid-19-pandemie heeft de implementatie ervan versneld met zichtsystemen die worden gebruikt in toepassingen zoals openbare bewaking, gezondheids- en veiligheidsinspecties.

AI-enabled embedded vision

Kunstmatige intelligentie (AI) wint aan kracht in embedded vision- en beeldverwerkingstoepassingen, aangezien ontwikkelaars steeds vaker deep learning en neurale netwerken toepassen om objectdetectie en classificatie te verbeteren.

Het lijdt geen twijfel dat AI nieuwe mogelijkheden opent, maar panelleden waren het erover eens dat het gebruiksvriendelijker moet zijn. "Aan de ene kant zijn er veel voordelen vanuit het perspectief van de klant", zegt Olaf Munkelt, algemeen directeur van MVTec Software. “Aan de andere kant is AI-technologie een beetje onhandig. We moeten het gebruiksvriendelijker maken, zodat embedded vision-klanten snel op het punt kunnen komen waarop ze een toegevoegde waarde zien. Dit heeft te maken met alle stappen in de workflow van op AI gebaseerde systemen, van datalabeling, data-inspectie, databeheer tot de verwerking met behulp van verschillende technologieën zoals semantische segmentatie, classificatie en anomaliedetectie.” Munkelt pleitte voor een geïntegreerde aanpak om het voor klanten gemakkelijker te maken om een ​​embedded vision-project in te zetten.

Fredrik Nilsson, hoofd van de business unit Machine Vision bij Sick, deelt een vergelijkbare mening en merkte op dat AI en deep learning het vermogen hebben om taken op te lossen die moeilijk op te lossen zijn met conventionele, op regels gebaseerde beeldverwerking. Deep learning zal de conventionele beeldverwerking echter niet vervangen. Beide technologieën zullen "lange tijd" naast elkaar bestaan, betoogde hij. “Er zijn zeker toepassingen waarbij de op regels gebaseerde [beeldverwerkingsalgoritmen] meer toepasbaar zijn dan deep learning. We zien hybride oplossingen, bijvoorbeeld door objectsegmentatie toe te passen met deep learning en meetinstrumenten toe te passen.”

Er vindt een race plaats aan de kant van de AI-acceleratorhardware, zei Munkelt. Veel startups komen inderdaad met "echt interessante hardware", die soms "10-20 keer beter presteert dan bestaande GPU-hardware van gevestigde leveranciers". Vooruitkijkend gaf hij aan hoe belangrijk snelheid zou worden voor het verwerken van beeldgegevens. "Iedereen in onze vision-gemeenschap kijkt naar deze AI-versnellers omdat ze een groot voordeel kunnen bieden."

Wat gebeurt er aan de rand? Wat gebeurt er in de cloud?

Deze vragen, gesteld aan cloudprovider AWS, suggereren het antwoord. Tenzij het subtieler is dan we denken.

AWS streeft twee doelen na als het gaat om embedded vision. De eerste, zei Austin Ashe, hoofd van strategische OEM-partnerschappen, IoT, bij Amazon Web Services (AWS), verlaagt de toetredingsdrempel voor klanten die voor het eerst embedded vision willen of voor degenen die deze willen uitbreiden en schalen . De tweede is om "waarde te leveren die verder gaat dan de initiële use case".

“Wat betreft het verlagen van de toetredingsdrempel, erkennen we dat 75% van de bedrijven van plan is om in de komende twee tot vijf jaar van proefversie naar volledig operationele implementatie te gaan. We positioneren ons om de edge en de cloud op een zeer unieke manier te orkestreren.” Hij legde verder uit:"Edge is uiterst belangrijk als het gaat om zaken als latentie, bandbreedte, kosten voor het verzenden van gegevens, zelfs beveiliging en beveiliging die een rol spelen. Wat cloud kan doen, is de drempel verlagen om hier binnen te treden. We kunnen apparaten monitoren, of het nu één apparaat is of een hele reeks daarvan, en realtime waarschuwingen of mechanismen geven om te begrijpen wat die apparaten doen.” Deze apparaten, vervolgde Ashe, kunnen via de ether worden bijgewerkt. Dus bij het op grote schaal beheren van embedded vision-systemen, is het mogelijk om een ​​model te nemen, het in de cloud te trainen en het vervolgens over-the-air te implementeren op alle machines die het nodig hebben.

Bedrijven hebben misschien niet de datawetenschappers of het geld om het model te bouwen. Voor Ashe betekent het verlagen van de toegangsdrempel het mogelijk maken om tien tot twaalf afbeeldingen van een anomalie te maken en deze naar de cloud te uploaden. “Onmiddellijk krijg je een anomaliedetectiemodel terug dat die exacte anomalie detecteert. Vervolgens herhaal je dat model, van cloud tot edge.”

Tijdens de embedded world van dit jaar legden Basler en AWS uit hoe ze de kloof tussen edge en cloud overbruggen door middel van een samenwerking op het gebied van AWS-services "AWS Panorama" en "Amazon Lookout for Vision". AWS Panorama is een apparaat voor machine learning (ML) en SDK waarmee klanten realtime beslissingen kunnen nemen om de bedrijfsvoering te verbeteren, bewaking van visuele inspectietaken te automatiseren, knelpunten in industriële processen op te sporen en de veiligheid van werknemers binnen faciliteiten te beoordelen. Amazon Lookout for Vision is een ML-service die defecten en anomalieën in visuele representaties opspoort met behulp van computervisie.

Op de vraag of embedded vision tijdkritische taken in de cloud kan oplossen, zei Ashe dat er steeds meer gebruik zal worden gemaakt van de edge, omdat applicaties dichter bij de gebruiker en de ervaring moeten worden gebracht. “Overal waar latency-vereisten zijn, zal edge prioriteit nummer één zijn, maar als je kijkt naar enkele van de hogesnelheidsnetwerken die online komen, met name dingen rond 5G, creëert dat een geheel nieuwe kans voor cloud en edge om een nauwere interoperabiliteit en meer edge-to-cloud use cases geleverd.”

Complexiteit, grootte, kosten

Vooruitkijkend naar de komende jaren, noemden panelleden verbeterpunten om een ​​bredere acceptatie van embedded vision-systemen mogelijk te maken.

Complexiteit :"Met het oude pc-systeem kocht je je camera, je kocht je hardware, je had één processor en de software draaide op de processor", zegt Arndt Dake, CMO van Basler. Tegenwoordig is de verwerking echter niet één processor. Je hebt een CPU, een GPU, je hebt speciale hardware voor AI, misschien ISP in de SoC. Dus in plaats van één heb je vier hardwarebronnen en moet je de software koppelen aan deze vier bronnen.” Systemen worden steeds complexer en klanten worstelen met de steeds groter wordende complexiteit. Om penetratie te bevorderen, moet het nut worden aangetoond en moet de bruikbaarheid worden aangepakt. Sommige bedrijven proberen momenteel de stukjes bij elkaar te brengen en het voor klanten gemakkelijker te maken, want "hoe gemakkelijker het wordt, hoe hoger de acceptatiegraad en hoe breder het gebruik van die technologie", zegt Dake.

Maat :Zijn we qua omvang in een stabiele toestand gekomen? Nee, antwoordde Dake. “Het wordt kleiner. Als je je smartphone opent en kijkt naar de verwerkings- en camerafunctionaliteit, kun je zien hoe klein dingen kunnen worden. De smartphone wordt onze benchmark.”

Kosten :Vanuit een algemeen perspectief, "het draait allemaal om geld", zei Munkelt. Tegenwoordig zijn sommige toepassingen niet gerechtvaardigd omdat de prijzen te hoog zijn. Als de kosten dalen, ontstaan ​​er nieuwe mogelijkheden.

Met een groter gebruiksgemak, lagere prijzen en kleinere apparaten die in bestaande machines passen, zal embedded vision toegankelijker zijn voor kleinere bedrijven die nog niet eerder embedded vision hebben gebruikt, concludeerde Nilsson.

>> Dit artikel is oorspronkelijk gepubliceerd op onze zustersite, EE Times Europe.


Internet of Things-technologie

  1. VersaLogic brengt serverklasse computers uit voor ingesloten applicaties
  2. RF-energiewinning speelt een steeds grotere rol in AI-gestuurde toepassingen
  3. Embedded SRAM IP verbruikt 50% minder stroom
  4. ROHM:geavanceerd energiebeheer en sensortechnologieën op Embedded World 2019
  5. ADI toont technologieën voor elk gebied van embedded systeemontwerp
  6. Infineon lanceert TLE985x embedded power-serie voor automobieltoepassingen
  7. TDK toont zijn producthighlights voor embedded technologieën
  8. USB-C speelt een steeds grotere rol in wearables en mobiele producten
  9. congatec:nieuwe embedded edge-servertechnologieën voor de energiesector
  10. Vraag groeit snel naar digital twins en AI in de auto-industrie, energieopwekking en luchtvaart, zegt CDO van GE
  11. Netwerkinfrastructuur is essentieel voor auto's zonder bestuurder