It’s alive!!.. or soon it will be.


Heisann Bloggen!

Nå har jeg laget meg litt tanker om hvordan grunn oppsettet til Hjernen bak temposcope vil fungere. Blir gøy og leke Frankenstein.

 

Øyne

Temposcope sine øyne er basert på OpenCV slik at den kan gjenkjenne brukere og dermed logge dem inn hvis den detekterer dem via et web kamera som er koblet til en Raspberry Pi.

Ører

Temposcope sine ører er basert på Google sin speech recognition API, slik at den kan forstå brukeren sine etterspørsler og behandle de som normal tekst og dermed utføre oppgaven som etterspørres. Lyd blir tatt opp av web kamera og sent til Google der den blir omformet til tekst og sendt tilbake. I tilfelle Øynene ikke registrerer at brukeren er prøver å oppnå forbindelse med Temposcope, kan også ørene benyttes til å logge inn brukeren via å snakke til den.

 

Hjerne

Temposcope sin hjerne har som oppgave å behandle informasjonen den får igjennom øynene og øre, slik at den kan gjennomføre oppgavene den blir satt til.

Dette er blitt løst ved å produsere en simulert simpel kunstig intelligens som vi kaller “Pide”. Pide sin oppgave er å behandle og bevare et register over registrerte brukere. I registeret kan Pide legge til, slette eller oppdatere brukerene på oppfordring ifra brukeren som er logget inn.

Den vil også svare brukeren ved hjelp av Google sin Speech API, slik at brukeren forstår hvilken alternativer og hvilken informasjon som er tilgjengelig.

Et av alternativene brukeren har tilgjengelig er å spørre om været. Pide vil da oppfordre bruker til å angi hvilken lokasjon som brukeren ønsker å vite vær tilstanden og i hvilken tidsramme brukeren ønsker å vite været innenfor.

Når lokasjon og tidspunkt er gitt av bruker, vil Pide benytte OpenWeatherMap sin API til å innhente værdata, for å så kommunisere det igjennom språk og deretter sende informasjonen videre til kroppen som da simulerer værtypen på det angitte stedet.

 

 

Andreas Holm


Leave a Reply