Skip to main content
Din blog om hørelse

Kunstig intelligens udfordrer, hvordan teknologi designes

Den menneskelige hjerne er smartere end nogen maskine, og derfor prøver vi at efterligne den ved hjælp af kunstig intelligens (KI). Men udviklingen kan kun nå så langt, som den nuværende teknologi tillader.

Kunstig intelligens,maskinelæring,machine learning,udvikling,fremtid,innovation,høreapparater,teknologi
08-13-2020

Vores hjerner er smartere og mere effektive end nogen maskine. Hvert sekund opfanger vores hjerne mere end 11 millioner bit information fra omverdenen. Hjernen omdanner al denne information til brugbar mening ved at designe algoritmer, der gør, at vi bl.a. kan genkende ord i en samtale, værdsætte musik, navigere gennem byen og reagere på genstande og skilte som stoplamper eller bilhorn. Og den gør alt dette med det samme.

Ville det ikke være sejt, hvis maskiner kunne tænke som mennesker gør? Den tanke har videnskabsmænd haft siden 1940'erne, men det er først i de senere år, at vi har haft teknologien til at gøre kunstig intelligens som maskinlæring til virkelighed.

I dag er KI implementeret i virtuelle assistenter som Apples Siri og Amazons Alexa. Den hjælper med at estimere forsinkelser i trafikken og foreslå ruter i Google Maps. Den kan genkende ansigtet på ven på et foto på Facebook, og anbefale musik på Spotify.

Den findes også i headset og høreapparater, hvor innovative virksomheder som GN stræber efter at replicere og endda overskride, hvordan vi hører naturligt som mennesker.

 

Kunstig intelligens (KI)

er maskiner, der er i stand til at overveje, lære og tage beslutninger på samme niveau som et menneske. Man skelner mellem to forskellige programmer i kunstig intelligens-forskningen, nemlig stærk og svag KI. Svag KI er systemer, der blot er i stand til at efterligne visse træk ved menneskelig tækning, mens stærk KI er systemer, der virkelig har intelligens af samme karakter og dybde som vi mennesker.

 

Maskinlæring

er et underområde indenfor datalogi og kunstig intelligens, som sætter computere i stand til at lære, uden at man eksplicit har programmeret, hvordan læringen foregår.

 

Hvorfor er hjernen så svær at kopiere?

En af udfordringerne ved at designe høreapparater, der sigter mod at efterligne den naturlige hørelse, er, at ”hjernen” - mikrochippen - hvor alle ”tanker og beregninger” sker, ikke er i nærheden af at være en menneskelig hjerne. I en telefon eller en bil kan chippen være så stor, som den vil, men i et lille høreapparat, der sidder i eller bag et menneskeligt øre, er der begrænset plads til en mikrochip. Mikrochippen i et høreapparat er mindre end størrelsen på en negl, og batteriet, der forsyner den med strøm, er lige så kompakt.

 

Fra evolution til revolution

Hver gang vi designer et nyt høreapparat, strækker et dedikeret team af chipdesignere de tidligere grænser for, hvad der er muligt, for at få mere kraft og effektivitet ind i chippen, hvilket betyder, at høreapparatet kan gøre mere og vare længere. Se videoen nedenfor om fremskridtene inden for chipteknologi i GNs premium genopladelige høreapparat, ReSound LiNX Quattro.

 

 

Kort sagt så er de chips, som vi bruger i høreapparater i dag, ikke bygget til at klare den tunge mentale belastning som KI kræver.

De grundlæggende algoritmer, der bliver brugt i høreapparater i dag, blev udviklet for 15-20 år siden, og industrien har forfinet dem over tid. Indtil videre så har hardwareudvikling været en evolution, men overgangen til maskinlæring er en revolution for den måde, vi i dag tænker på chips og deres arkitektur på. Det er her vi ser de største muligheder for udvikling, ” forklarer Brian Dam Pedersen, der er Chief Technology Officer hos GN Hearing.

 

Udfordringen med at få maskiner til at tænke som mennesker

Hvordan adskiller KI sig fra andre teknologier, og hvorfor kræver den så meget af hardwaren? Det hele kan koges ned til, hvordan tanken eller processen er struktureret.

Tag en proces som genkendelse af ord. Din hjerne har designet algoritmer, så når du hører et ord som "nødsituation", så forstår du det med det samme. Men når en computer skal forstå et ord ved hjælp af traditionelle algoritmer, kræves der en masse matematik. Computeren behandler lydene fra dette ord i en rækkefølge. Den hører, at det starter med et ‘N’, scroller derefter gennem forskellige muligheder for at finde ud af, at det andet bogstav er et ‘ø’, og så videre. Den behandler ordet i serier, mens hjernen gør det parallelt, på én gang. Når vi taler om tusinder eller endda millioner af oplysninger, der løber gennem små kredsløb på en mikrochip, lægger dette et betydeligt pres på chippen og tømmer hurtigt batteriet for strøm.

  

 

Og det er nøjagtigt den udfordring, som ingeniører nu står overfor i forsøget på at designe KI-strukturer på mikrochips.

"At bruge maskinlæring i selve høreapparatet betyder, at dedikeret hardware sandsynligvis er den eneste realistiske vej fremad, fordi strukturen er så forskellige fra det, vi kender i dag. Hardwaren, der kører maskinlæring, er ikke som den hardware, vi bruger i dag til normal signalbehandling, ” forklarer Brian Dam Pedersen.

 

Hvorfor betyder maskinlæring noget for hørelsen?

I dag, så foregår maskinlæring i høreapparater ikke i selve høreapparatet, men snarere i smartphonen, som har en meget større kapacitet, og som høreapparaterne kan få kontakt til gennem en app. Den bruger input fra høreapparatsbrugerne til at foretage analyser og anbefalinger til optimale indstillinger i forskellige situationer og forædler disse over tid, efterhånden som flere og flere brugerdata kommer ind.

Det vil være lettere at komme tættere på naturlig hørelse ved at kunne få KI til at køre på selve høreapparatets chip.

"Det næste trin er algoritmer, der lærer af lydmiljøerne, der kommer ind i høreapparatet, for automatisk at justere indstillingerne for at give den bedste oplevelse i forskellige situationer som en restaurant, cykle ude på gaden eller se tv," siger Brian Dam Pedersen.

Den ultimative præstation for høreapparater, som også godt kan lokke mennesker med normal hørelse, er at løse problemet med, hvordan man hører bedre i støjende omgivelser. Også kendt som Cocktail Party Effect – hvor det at adskille tale fra støj har været den sværeste nød at knække.

At implementere maskinlæring i høreapparatet betyder, at det ville være i stand til at bestemme, hvilken lyd eller stemme, du vil lytte til i en støjende situation, og fokusere på at gøre denne tale klar, mens mængden af distraherende baggrundsstøj reduceres. For mennesker med normal hørelse kan disse typer situationer i restauranter og fester være udfordrende nok, så forestil dig, hvordan det er for en person med et høretab - og bare tænk, hvad det kan betyde, hvis vi kunne overvinde det.

 

Fremtidige løsninger, der er mere menneskelige og mindre konstruerede

Selvom det kan virke ironisk, så er det, der er så spændende ved at implementere maskinlæring i hardwaren til høreapparat, dets potentiale til at gøre teknologi mere menneskelig. Løsninger, der efterligner, hvordan vi som mennesker modtager information, behandler den, handler på den og konstant lærer af den, betyder, at vi i fremtiden kan forvente at se teknologier, der er mindre top-down og menneskeligt konstrueret og mere bottom-up, hvilket vil sige - tænker for sig selv.

Læs også vores indlæg ”Skubber grænser for at bliver verdens første”, hvor du kan læse om et af de største gennembrud indenfor høreapparatsteknologi, da GN lancerede verdens første høreapparat ved hjælp af 2,4 GHz-teknologi i 2010.

Kilder: Artificial intelligence definition, Chambers 21st Century Dictionary
Machine learning definition, Google Developers Machine Learning Glossary
Applications of information theory: Physiology, Encyclopedia Britannica

Læs flere indlæg

Del: