Disputation: Stefan Ericson vill se fler robotar i jordbruket

Disputationer,Högskolan i Skövde

Tid: 2017-03-24 10:00 - 13:00
Plats: Högskolan i Skövde, Spegeln, Portalen, Gothia Science Park, Skövde

Inom industrin har robotar används i årtionden för automation, vilket har resulterat i helt automatisk produktionslinor. Däremot är automationsnivån inom jordbruket och då främst av uppgifter som utförs åkrarna är mycket lägre. Detta trots att det finns arbetsuppgifter som är särskilt lämpliga att automatisera. Det visar Stefan Ericsons doktorsavhandling med titeln “Vision-based perception for localization of autonomous agricultural robots”som han lägger fram vid disputationen fredagen den 24 mars på Högskolan i Skövde.

SAMMANFATTNING
Inom industrin har robotar används i årtionden för automation, vilket har resulterat i helt automatiska produktionssystem. Automationsnivån inom jordbruket och då främst av uppgifter som utförs på åkrarna är mycket lägre, trots att det finns uppgifter som är särskilt lämpliga att automatisera.

Ett exempel är ogräsrensning i ekologiska växtodlingar, en uppgift som idag till stor del sköts manuellt. Trots att det finns autonoma forskningsrobotar som kan utföra ogräsrensning finns det fortfarande tekniska utmaningar i att göra dessa pålitliga och robusta. 

Med robust avses här förmågan att kunna arbeta i den dynamiska jordbruksmiljön där roboten måste klara av att arbeta i smuts, fukt och olika väder. Mekanisk ogräsrensning till exempel är ofta väldigt dammigt, så eventuella kameror som används för att identifiera ogräset måste monteras långt ifrån rensningsverktyget. Detta i sin tur kräver att verktygets position kan bestämmas relativt de identifierade ogräsplantorna.

Den här avhandlingen visar hur kameror kan användas för positionsmätning på ett jordbruksfält. Simuleringar, laborationsexperiment och fältförsök har används för att utvärdera olika sätt att mäta positionen av en mobil robot på en åker. Simulatorer har används för att skapa bilder liknande de som förväntats i fält och dessa har används för att utvärdera specifika algoritmparametrar och designval.

Laborationsexperimenten har använts för att utvärdera olika markstrukturer vid positionsbestämning på korta avstånd, och fältförsöken som utförts på riktiga åkrar innehåller data från flera kilometer långa körningar och har använts för utvärdering av lokaliseringsalgoritmer på åkern.

Ett sätt att mäta relativ kameraposition är att följa ändringar mellan två bilder, så kallad visuell odometri (eng. visual odometry). Visuell odometri utvärderas i avhandlingen för lokalisering med olika kamerakonfigurationer såsom nedåtriktade eller framåtriktade kameror.

Lokalisering kan även utföras genom att samtidigt skapa en karta över omgivningen, så kallad SLAM. På så sätt kan robotens globala position på fältet mätas. Kameran kan även användas för att detektera olika mönster i fältet, till exempel rader. Roboten kan sedan programmeras för att följa dessa rader.

Resultat från avhandlingen visar att visuell odometri kan användas på nedåtriktade kameror för att mäta den relativa positionen på korta avstånd i två frihetsgrader. Detta kan användas för att estimera positionen av ett verktyg relativt till exempel en ogräskamera. Genom att implementera algoritmen för realtid i kombination med ett system för raddektering kan roboten autonomt följa en rad samtidigt som det är möjligt att veta robotens position. Raddetekteringssystemet mäter robotens position relativt raderna med hjälp av bilder från en framåtriktad kamera.

En demonstration visar att roboten kan följa en rad utefter en 10 meters bana och positionsfelet mätt vid slutpositionen är 2\% av körd sträcka. Försök visar också att raddetekteringssystemet kan förbättras genom att använda en runtseende kamera (med synfält på 360$^\circ$) och en algoritm som klarar av att detektera både individuella plantor och hela rader. Systemet kan även mäta positionen på flyktpunkten av ett fält med rader.

Visual odometry och SLAM kan användas för lokalisering med sex frihetsgrader, dvs. position $(x,y,z)$ och riktning $(\theta,\psi,\varphi)$, på en åker. Framåtriktade kameror ger bättre noggrannhet i positionen jämfört med nedåtriktade kameror. Resultaten från simuleringarna visar att en högre upplösning och ett längre avstånd mellan stereokameror ger en ökad noggrannhet. Den största felkällan är drift som beror på att fel från varje analyserad bild ackumuleras. Både för hög och för låg bildfrekvens orsakar ökat fel. Användning av en SLAM algoritm löser problemet med att hitta optimal bildfrekvens då både en lokal och global optimering av positionen utförs. SLAM har även förmågan att detektera och korrigera fel då roboten återkommer till en tidigare besökt position.

Detta var dock inget som inträffade under något av fältförsöken där roboten kördes fram och tillbaks på en åker. Detta ledde till drift av främst orienteringen, vilket resulterade i en felaktighet i positionen liknande den som visuell odometri gett. Bäst resultat uppnåddes på ett 2.4 km försök genom att använda algoritmen ORB-SLAM på de framåtriktade kamerorna. Medianfelet för fem analyser med algoritmen visade på ett positionsfel på 2.63\% av körd sträcka, samt 0.0321 grader per meter i rotationsfel. Det här resultatet visar att det är möjligt att använda kameror för lokalisering på en åker.

Den här metoden skulle kunna användas för att förbättra robustheten och pålitligheten hos existerande system, vilket också skulle kunna möjliggöra kommersiella autonoma robotar som kan utföra jordbruksuppgifter på ett ekonomiskt och ekologiskt hållbart sätt.

Lägg till i Google kalender

Lägg till i Ical

Disputation

Kontakt