I filmen «2001 - A Space Odyssey», lar regissør Stanley Kubrik hovedpersonene i romskipet snakke helt uproblematisk med datamaskinen HAL, som forstår, tenker og svarer.
Helt siden premieren på filmen har spesielt interesserte mennesker ønsket seg en sånn datamaskin å snakke med. I det virkelige liv derimot hører maskinene bare akkurat det de selv vil høre.
Teknologer verden over har jobbet hardt og intenst i mange år for å få til CVC, altså computer voice command. Fenomenet har et utall andre akronymer også, ikke minst på fransk og russisk.
Men slik er den tekniske situasjonen: Snarere enn at du har en slags freedom of speech, er det den dumme maskinen som skal fortelle deg hva du kan si til den. Smartere er den ikke. Fremdeles.
Programmert
Delphi Automotive Systems, som tidligere var et underbruk av General Motors, skal i juni lansere et snakk-med-datamaskinen-system for de flotteste GM-bilene. Deres toppsjef Tom O'Gara sier i en pressemelding at «det er langt fram». Man kan ikke vente seg noe gjennombrudd på lenge ennå.
Det blir i begynnelsen bare aktuelt med enkle kommandoer som maskinen er programmert til å forstå, og du må selv lese dem inn i maskinen før den forstår deg.
Maskinen viser på et display ordet DRIVE og du sier det. Om maskinen sier OK har den lært seg hvordan du den 23. januar i 2001 uttalte akkurat det ordet. Det er alt den har lært. Så når man snakker med dataselskapene får man fort et inntrykk av at naturlig språkforståelse er det alle higer etter å få til.
Maskinkraft problemet
Men ifølge Delphi er det største og første hinderet, mangelen på enda råere maskinkraft. Store fremskritt i maskinkapasitet - altså økt klokkefrekvens og større minner - har gjort det mulig å pakke så mye «intelligens» inn i små volum, at maskinene nå «forstår» enkle budskap.
Men glem å utveksle lange tankerekker med dem, slik mannskapet i romskipet gjorde med HAL. Datamaskinen klarer, som tidligere, ikke stort annet enn akkurat det den er opplært til å gjøre.
Man kan ifølge Delphi teoretisk finne det største mulige antall måter et menneske kan komme med en forespørsel på, og så legge dette inn i maskinminnet. Men før eller siden kommer det en bruker som snakker maskin-ubegripelig, og da går hele greia i stå. Man må beskjære det tillatte vokabularet for å kunne øke nøyaktigheten.
Kontekst viktig
Det har vært hevdet at maskinspråkets kontekst er det viktigste. Maskinen må lære akkurat det den trenger for å kunne gjøre jobben, enten den skal selge deg en brusboks, lese kinoprogrammet høyt eller gi deg værmeldingen for helgen.
Konsortiet som utvikler det nye kampflyet Eurofighter, en av kandidatene når Norge skal kjøpe nye fly om få år, sier at de med dagens teknologi kan skape et pålitelig system som hjelper piloten når han skal velge operasjonsmodus.
Om piloten sier «weapon system for AAM's», blir maskinen konfigurert for luftkamp med styrte raketter. Sier han «flight level 45» blir maskinen tilpasset flyging på 45.000 fot (15.000 meter) høyde. Sier han «autoland», lander maskinen seg selv, men først når den har kontakt med den bakkemaskinen som gir flyet glidebanen og holder det på plass i den.
Ekspertene på Eurofighter sier også at det med dagens maskinvare er vanskelig å tenke seg mer avanserte løsninger enn som så. De hevder likevel overfor tekblad.no at nevrale nettverk/adaptiv elektronikk/fuzzy logic muligens kan løse problemet.