Prosjekt Apport (29/08/19)


Forrige uke, som var første uken med Smart Systems, lagde vi gruppen og kom opp med krav. På gruppen er vi én elektro og fem data studenter.

A-kravene:
*-Kan søke etter et spesifikt objekt som blir kastet
*-Kan unngå andre objekter når den skal hente det spesifikke objektet
-Kan finne tilbake til original posisjonen sin
-Plukke opp objektet som blir kastet og returnere det
*-Forutse hvor objektet kan lande når det blir kastet

* Disse er kravene vi arbeidet med dette møtet.

I tillegg til dette reserverte vi en liten bil vi fant i dronesonen, fikset litt på den siden den var i ustand, og vi trenger nå å forstå hvordan få bilen fungerer.

Bilen må helst ha en form for 3D-forståelse av omgivelsene, 3D mapping, for å kunne klare å navigere rundt og samtidig vite hvor den skal lete etter objektet vi kaster om den ikke klarer å se det. Samtidig måtte nok kamera bli brukt uansett til å kunne gjenkjenne og finne objektet bilen leter etter. LiDAR var vurdert for 3D mapping, men på grunn av både at det hadde vært for stor for en liten bil og hadde nok vært vanskelig å fått tak i uansett.

Alternativene for 3D mapping med kamera er enten: Stereo camera (to eller flere kameraer sammen), eller maskinlæring med ett kamera. Helst skal kameraene dekke så mange vinkler som mulig, slik at bilen enklere kan kunne se hvor objektet blir kastet, og en løsning for dette er å bruke flere kameraer og derfor er maskinglæringsløsningen prioritert. To maskinglærings løsninger vi har sett på er Tensforflow graphics med NYU Depth datasett, og Colmap.


Leave a Reply