I sommer «druknet» en amerikansk sikkerhetsrobot i fontenen på et kjøpesenter. Nå kommer den tekniske direktøren for et amerikansk robotfirma med en forklaring: I likhet med mennesker trenger roboter hjelp for å finne fram.
Mange trakk på smilebåndet da en sikkerhetsrobot fra produsenten Knightscope i sommervarmen kjørte ut i en fontene på shoppingsenteret Georgetown Waterfront i Washington DC, USA.
Roboten med produktnavnet Knightscope K5 og kallenavnet Steve er en såkalt sikkerhetsrobot: Den er i stand til å analysere omgivelsene den befinner seg i, og avgjøre om noe er feil.
K5 bruker kunstig intelligens (AI) for å analysere input fra en kombinasjon av mikrofoner, videokameraer og andre sensorer. Hvis noe er slik det ikke skal være, kan den sende ut en høy lyd som kanskje får kriminelle til å gi opp eventuelle forbryterske hensikter.
Produsenten hevder at K5 er langt billigere enn en menneskelig sikkerhetsvakt, og at den aldri blir sliten.
Men tallrike kommentarer i kjølvannet av den ganske fuktige avslutningen på Steves arbeidsdag dreide seg nettopp om at den hadde blitt sliten, og at de monotone arbeidsoppgavene hadde fått roboten til å drukne seg selv.
Our D.C. office building got a security robot. It drowned itself.
— Bilal Farooqui (@bilalfarooqui) 17. juli 2017
We were promised flying cars, instead we got suicidal robots. pic.twitter.com/rGLTAWZMjn
- 11 smarte sengefjærer: Kan bli starten på et nytt norsk industrieventyr
Roboter trenger veiledning
Men teknisk direktør David Bruemmer ved 5D Robotics, som produserer programvare for posisjonering basert på AI, understreker i en artikkel i magasinet Robotics Trends at Steves dukkert i fontenen bare er et eksempel på at roboter og kunstig intelligens fremdeles har store begrensninger:
– Den egentlige historien her er at når det gjelder bruk av roboter i dynamiske og ustrukturerte miljøer, er påliteligheten til AI fortsatt en utfordring. Knightscope er en banebrytende robotbedrift, og de har et utmerket team av robotutviklere. Problemene med pålitelighet er ikke bare et problem for Knightscope, men for hele miljøet rundt robotutvikling, sier han.
Problemet er at selv om robotene er utstyrt med mange sensorer og avansert AI, går de seg likevel vill en gang iblant – akkurat slik mennesker gjør det. Det kan skyldes mange ting: Dårlig belysning, tåke, for mange mennesker, støv eller objekter som har blitt flyttet på. Dermed mister roboten ganske enkelt orienteringsevnen.
Det kan også være relativt enkle og kjente teknologier som GPS, gyroer og omdreiningstellere som ikke sender de riktige signalene tilbake til programvaren.
- Klatrer i trapper: Denne roboten skal gi færre folk i oljeindustrien
Hvor er jeg?
I tilfellet med Steve skjedde feilen nettopp fordi det ikke var overensstemmelse mellom hvor mange omdreininger sensorene til hjulene meldte tilbake, og posisjoneringen via GPS. Noe så enkelt som en løs flis med en glatt overflate fikk et hjul til å spinne, noe som fikk systemet som brukes til å detektere trapper og andre plutselige nivåendringer til å slutte å fungere.
Dermed oppdaget ikke roboten at den kjørte ut over kanten på fontenen.
David Bruemmer forteller at han selv har dårlig stedsans, og at det ikke skyldes mangel på intelligens at han ofte blir usikker på hvilken vei han skal gå. Det samme kan skje med en robot, og derfor må roboter hjelpes på samme måte som mennesker blir det via veiskilter, kjørefelter og trafikklys, slik at det blir sikrere å kjøre bil.
– Alt dette var nødvendig for å skape en verden som mennesker kan lese. Det samme gjelder for roboter, droner og selvkjørende biler. Hvis vi vil at roboter og selvkjørende biler skal være pålitelige, må vi gi roboter en verden de kan lese, sier han.
Artikkelen ble først publisert hos danske Ingeniøren.