Nylig fortalte Tesla at de tar vekk radaren på Model 3 og Y produsert for Europa og Midtøsten. Bilene vil heller gå over til det kamerabaserte systemet Tesla Vision. Ifølge Teslas supportsider vil Vision basere førerstøttesystemet Autopilot og bilenes selvkjøringsfunksjoner på kamerasyn og nevrale nettverk for.
Ane Dalsnes Storsæter tok i fjor doktorgrad i hvordan man kan tilpasse veier for automatisert kjøring. Hun er skeptisk til at Tesla slutter å bruke radar for å satse for fullt på kamera.
Årsaken er at hun mener biler trenger flere ulike sensortyper for å en dag kunne kjøre selv. Stikkordet er redundans. Kamera er en passiv sensor hvor man er avhengig av å identifisere objekter riktig i bildene. Aktive sensorer som radar, lidar og ultralyd sender derimot ut signaler og får de tilbake.
– Personlig ville jeg aldri laget en bil som skulle kjøre selv uten å ha aktive sensorer, sier Storsæter, som i dag leder Products R&D-avdelingen hos Q-Free.
Skiller seg fra andre
Mens flere andre bilprodusenter, for eksempel Volvo og Mercedes-Benz, tar i bruk både radar og lidar i biler som på sikt skal bli selvkjørende, går Tesla altså motsatt vei. Bilprodusenten har aldri brukt lidar og tar nå vekk radaren.
Storsæter presiserer riktignok at Tesla fortsatt bruker ultralyd, men sier samtidig at den har svært kort rekkevidde (Tesla sier selv maks åtte meter). Ultralyd-sensorene brukes hovedsakelig til å detektere ting nær bilen i lav hastighet.
Teslas AI-sjef Andrej Karpathy har tidligere fortalt at bilprodusenten mener et kamerabasert system vil redusere misforståelser og føre til raskere beslutninger (foredraget med Karpathy kan blant annet sees på Youtube).
Karpathy mener det ikke er skalerbart å samle, bygge og vedlikeholde dataene lidar gir. Tesla vil heller trene opp et kamerabasert system som kan brukes overalt i verden.
Storsæter sier imidlertid at problemet er at man ikke kan trene opp systemet på absolutt alle tilfeller.
– Maskinlæring gjør ikke at automatiserte kjøresystemer kan generalisere slik som mennesker kan, de trenger eksempler som ligner, forteller hun.
– Problemer med å se barn og kvinner i korte skjørt
– Vi vil at systemet skal vite om det ser et menneske, men det er ikke slik de fungerer. En maskin vil lete kun etter mennesker som ligner på de den har sett før og som er klassifisert riktig under opplæring, fortsetter hun.
Hun forteller at det eksempelvis har vært vist at automatiserte systemer kan ha problemer med å se barn, kvinner i korte skjørt og arbeidsfolk i verneklær fordi disse har vært lite representert i data brukt under opplæring av systemet.
– Så har du folk som er delvis skjulte eller har på seg ting som gjør det mer vanskelig i tillegg, sier hun.
Amerikanske myndigheter etterforsker Teslas Autopilot etter flere ulykker som involverer utrykningskjøretøy eller biler med blinkende lys.
– En skygge kan se like skummel ut som en bil
Storsæter mener den store svakheten til kamerabaserte systemer er at det ikke har noen måte å vite om de ser en faktisk solid ting eller en skygge.
– Radar kan også tolkes feil, men derfor er redundans en stor sikkerhet. Kameraer ser bare piksler, en skygge kan under rette forhold se like skummel ut som en bil, sier hun.
Hun forteller at kameraer ikke er like nøyaktige på avstandsmåling som aktive sensorer.
– Kamera er også i likhet med lidar sensitive for dårlig værforhold. Her fungerer radar bedre. Radar brukes gjerne for å detektere objekter lenger unna og i større hastigheter. Den bryr seg ikke om lys, sier hun.
Storsæter understreker at systemene blir bedre og bedre. Kamerasystemer vil kunne trenes på større og mer innholdsrike datasett som vil gjøre dem tryggere og filtrere ut støy fra værfenomener som tåke, regn og snø.
Etiske spørsmål
Til slutt handler det i stor grad hender om hvor stor risiko vi er villige til å ta, mener Storsæter.
– Er det etisk riktig at enkelte vil være tryggere enn andre? spør hun.
– Ting tyder på at kun kamera for automatisert kjøring i beste fall er umodent, sier hun.
Tesla Norge vil ikke kommentere Storsæters sitater. Tesla Norge sier imidlertid at endringen kun gjelder biler som kommer fra og med april. Eksisterende biler vil fortsette å fungere på samme måte, det vil si at radaren vil ikke deaktiveres.
Endringen er i seg selv ikke ny. Det skjer nesten et år etter at Tesla gjorde det samme for bilene produsert for Nord-Amerika.
Bilene som leveres med Tesla Vision vil ha en begrensing på bruken av selvstyring (Autosteer) på maks 129 km/t, samt en lengre minimumsdistanse til bilen foran. De skal imidlertid ha de samme sikkerhetsfunksjonene som biler med radar, skriver Tesla.