Chris Harrison fra Carnegie Mellon University i Pittsburg har jobbet sammen med Dan Morris og Desney Tan fra Microsofts forskningslab i Redmond for å utvikle et helt nytt grensesnitt for elektroniske apparater. Grensesnittet har fått navnet Skinput, og innebærer at du trykker direkte på din egen hud for å utføre kommandoer.
Skinput projekterer taster, symboler og menyvalg direkte ned på underarmene og håndflaten din, via en miniprosjektør som festes i albueleddet. Dette gir deg imidlertid ikke mer enn et bilde av menysystemet, men det er heller ikke denne delen av teknologien som er mest interessant.
For å forstå hvor du trykker med fingrene dine, brukes det som best kan oversettes til kroppsakustikk. Først slår du på prosjektøren, deretter "kalibrerer" du menysystemet ved å trykke på en rekke gitte menyvalg. En svært følsom lydsensor registrerer hvilke lyder som lages når du trykker på forskjellige steder på underarmen, og vet i fremtiden hvor du trykker bare ved å kjenne igjen lydene.
Teknologien er fremdeles godt under betastadiet, og det gjenstår en rekke utfordringer før Skinput kan være aktuell for produkter som skal på markedet. For eksempel er prosjektøren i største laget til å være noe man til enhver tid har festet til albueleddet, og den må også være festet på nøyaktig samme punkt hver gang for å ikke måtte gjøre kalibreringen på nytt. Du må også passe på å ikke trykke hardere eller svakere enn da kalibreringen ble gjort, da dette vil lage annerledes lyder.
Halve poenget med denne navigeringsmetoden er å gjøre ting så enkelt og tilgjengelig som mulig, og de nevnte punktene i forrige avsnitt bidrar foreløpig til at oppfinnelsen gjør det motsatte. Om produsentene finner en lur måte å hanskes med utfordringene på, er det slett ikke umulig at dette er menysystemet du bruker om noen år.
Innlegget er skrevet av Marius S. Eltervåg
Kilde: Microsoft Research Center (PDF)
Via: Newscientist.com