15. Eye tracking med Martin Rydberg

Hur kan ett gäng bilder känna igen en trött förare? Och vad betyder det att veta var någon tittar, men inte vad de ser? Martin Rydberg är CTO på Smart Eye i Göteborg, där han började som utvecklare 2001. Let’s tech-poddens femtonde avsnitt undersöker eye tracking-teknologins utveckling och vad den innebär för bilindustrin såväl som beteendevetenskaplig forskning.

Hur kan ett gäng bilder känna igen en trött förare? Och vad betyder det att veta var någon tittar, men inte vad de ser? Martin Rydberg är CTO på Smart Eye i Göteborg, där han började som utvecklare 2001.

Länkar:

Om du inte hinner lyssna….

HE: Ja, hej och välkomna till Let's tech-podden. Jag sitter här i dag med Martin Rydberg som är CTO på Smart Eye. Välkommen Martin. 

MR: Tack så hemskt mycket. 

HE: Hur känns det att vara här? Vad har du gjort i dag? 

MR: Det känns bra att vara här. Jag har väl gått och varit nervös för det här hela dagen, men nu känns det bra. 

HE: Det är bra. Då är man precis på rätt nivå, lite laddad så. 

MR: Lite nervositet, men fortfarande så mycket adrenalin att man kommer klara det här bra tror jag. 

HE: Ja, precis. Svinbra. Du har jobbat på Smart Eye sen 2001 och då har du gått från att vara programmerare till att i dag vara CTO. Hur skulle du beskriva den rollen i dag? Vad är det du gör egentligen? 

MR: I dag så är det väldigt mycket övergripande teknikfrågor, men också väldigt mycket med rekrytering av personal och se till att vi har rätt kompetens på rätt ställen i bolaget. 

HE: Men det är intressant, för vi jobbar också mycket med rekrytering här i huset. Vårt företag, både med Software Skills, och Future Skill som tillhandahåller kodtester och så har vi Codic som konsultbolag, så det är något som vi delar då, det jobbet. 

MR: Ja, det kan man säga. 

HE: Vad såg du själv hos bolaget när du började? Du började bara ett par år efter starten, men vad var anledningen till att du joinade? 

MR: Det var ett väldigt roligt ex-jobb som det fanns möjlighet att göra, och sen så blev jag kvar, för det var himla roliga kollegor som kunde väldigt mycket. Det var något jag uppskattade när jag kom som nyutexaminerad som jag var då, att det var personer som var extremt duktiga på det de gjorde, och jag tror att det är nästan det roligaste man kan ha på ett jobb, att man har kollegor som förstår vad man håller på med och de kan hjälpa en om man har svåra problem. 

HE: Så det blir som en automatisk utbildning på jobbet, där man blir duktigare och duktigare för att man kan lära sig av sina kollegor helt enkelt? 

MR: Absolut, det skulle jag säga. Vi håller på med ny, banbrytande teknik som ingen har gjort förut. Visst, det är klart du kan surfa upp någon programmeringslösning, men att lösa problemen, det är det ingen som har gjort förut.  

HE: Nä, precis. Och hur många är ni i dag då? 

MR: Totalt är vi väl 140 stycken tror jag, och man kan säga att vi är mellan 50 och 70 utvecklare, lite beroende på hur man räknar. Jag leder framför allt utvecklingsorganisationen, men har även en forskningsorganisation också. De jobbar mer med EU-projekt eller mot akademin och så. De ligger lite mer i framkant. De är mycket mer fokuserade på neuronnät, även om vi gör väldigt mycket sånt på utvecklingsavdelningen. Vi är faktiskt några som jobbar med AI på riktigt.  

HE: Det kan man ju poängtera. Det pratas väldigt mycket om AI i alla möjliga sammanhang, men det är väldigt få som satt saker i produktion ju. 

MR: Ja. Så vi har faktiskt gjort det här och implementerat det här utan att använda jättedyra GPU:er från Nvidia. Vi har faktiskt fått det att funka på embeddedsystem och köra på vanliga ARM CPU:er. Det gör vi, men sen tittar vi självklart också på att det kommer komma en framtid när de här GPU:erna kommer bli så pass billiga att de går att använda till någonting. Så självklart så är vi med där också, men det ligger lite mer på forskningsavdelningen, men sen tar vi över saker därifrån hela tiden och försöker få det att funka på den hårdvara som finns i dag. 

HE: Vad är applikationerna för er teknik. Det är eye trackning som ni gör? 

MR: Eye tracking, ja, och med eye tracking menar vi remote eye tracking, det vill säga att man sätter inte på sig någonting, utan man har i stället en kamera som filmar personen då. Det kan vara en kamera, det kan vara två kameror. Åtta kameror har vi som en begränsning, och det har med mer bandbredder på datorer att göra, hur många kameror man kan få in. Algoritmerna funkar egentligen med hur många kameror som helst och du kan placera dem egentligen var som helst. 

HE: Så man behöver inte märka av det här som användare, utan det sitter kameror riktade mot en i bilen eller var det nu är? 

MR: Ja, precis. Sen så är det så att man oftast märker av dem, för att de sitter ofta så pass ... man skulle kunna sätta dem längre bort, men de flesta användningsområden som vi har, så sitter de ungefär på en halvmeter till en meters avstånd, kan man säga. 

HE: Just det. Och som kund, som användare, hur kan man märka av fördelarna med er produkt? 

Det är lite som att gå mot den där filmen, Minority report, där Tom Cruise står och viftar i luften och så händer det saker i interfacet

MR: Det beror lite på vad man är för typ av kund, men till exempel så finns vårt system i de nyare BMW-modellerna. Och där kan man få hjälp i den här självkörningen, när bilen har ett självkörningsläge till exempel i köer eller på motorvägar, så om kameran då registrerar att du är med och har uppmärksamhet mot vägen, så behöver du inte hålla i ratten till exempel. Det är en sån sak som kan underlätta lite grann. Och sen kan den även mäta om man blir trött och ge en varning, och då tittar man på ögonlock. Man har många system i dag som mäter trötthet, till exempel Volvo har haft det jättelänge, men det finns andra system, och det bygger på rattrörelsen och hur man parerar mot linjer. Det finns även sådana som tittar på betydligt mer information på canbussen i bilen och tittar på massa signaler och räknar ut något smart. Problemet blir ju mer självkörande bilarna blir, desto mindre kommer du interagera. Du kommer inte hålla på med ratten och korrigera och sånt hela tiden, utan då måste man hitta andra sätt. Och ett sätt är då att titta på ögonlock och titta på hur ofta man blinkar och hur snabbt man blinkar och hur långa blinkningarna är. 

HE: Det låter logiskt. Finns det några andra fördelar för att använda den, om man tar bilen? 

MR: En annan sak är det som är väldigt mycket, just uppmärksamhet, att man varnar för uppmärksamheten. Säg att du kör på en 70-väg och tittar ner på stereon lite för länge. Då kan det vara bra att varna föraren, att: ”Titta nu på vägen.” Sen finns det sådana som tittar på att göra interaktion. I dag har man många knappar på ratten, och man har vred och sånt, och oftast är det en funktion man vill göra och det är upp och ner. Alltså, antingen plus och minus på hastigheten eller plus och minus på radion eller plus och minus på fläkten eller temperaturen eller vad det nu är. Sen finns det sådana som tittar på att man ska kunna titta på olika symboler i en heads up-display, och då styra den funktionen, så att man byter sammanhang beroende på, så att den knappen får olika betydelse. 

HE: Det är snyggt, ja. Det är lite som att gå mot den där filmen, Minority report, där Tom Cruise står och viftar i luften och så händer det saker i interfacet, åt det hållet. 

MR: Ja, lite så. Det kan man säga. Det är mycket sånt som man funderar på, vad kan man göra för typ av nya användargränssnitt, som gör det enklare för människan? Det är dit vi vill komma lite grann, att man ska kunna underlätta, för att i dag är många maskiner ganska dumma, men just en sån här grej, då kan man förstå att bilen förstår lite mer. En annan grej kan vara röststyrning, som funkar ganska dåligt i dag, för man måste förklara ganska mycket. Men om då dessutom datorn har kunskap om: ”Vad tittar du på”, då kanske det blir mer uppenbart: ”Vad betyder det här röstkommandot?” Så att vi ser det som en länk till AI-lösningar, där man kan få mer information och att datorn kan upplevas smartare än den egentligen är. 

HE: Just det. Ja, precis. Och om man tittar på fler applikationer. Vi pratar en del om bilar nu, och på er sida så står det en del om forskning, men förutom att ni har egen forskningsavdelning, så finns det också annan forskning? 

MR: Ja, vi säljer väldigt mycket till olika typer av forskningsinstitut, kan man säga. Det kan vara lite förutveckling också, men framför allt är det forskningsinstitut som till exempel NASA eller BTI i Linköping eller stora företag. Amerikanska försvaret har väldigt mycket forskning där på olika sätt. Där vet man inte riktigt vad de gör. De är ganska hemliga i sin grej.  

HE: Det räcker nästan att veta att ni jobbar med NASA. Det är coolt nog. [skrattar] Vad gör man då till exempel? 

MR: NASA har olika system, ett är till exempel för att titta på vanliga passagerarflygplan; hur interagerar andrapiloten och piloten med varandra? Vem är det som verkligen gör vad och hur ser de, vad tittar de på för symboler? Hur går det till när man flyger egentligen? Det är ingen som vet det riktigt. 

HE: Så de lär sig mer om hur deras produkter används, så att säga? 

MR: Precis, och det är också att nästa steg kan vara att man tränar piloten på rätt sätt. Det här mer för att lära sig, hur gör en erfaren pilot? Hur interagerar han? Varför missar man saker ibland? Så nästa steg är att man kan titta på när man  flyger ett flygplan, så måste man flyga vissa timmar i simulator. Man måste ha sina simulatortimmar och då är tanken att man kan komplettera det här med någon typ av eye tracking-system, som då kan titta på den och se hur gör man i de olika momenten? Vad tittar man på för någonting? Och det kan då underlätta efteråt, när man går igenom: ”Vad var det du faktiskt gjorde under den här perioden? Varför tittade du inte här? Vi ser här, du tittade inte.”  

HE: Just det. Så om man spelar igenom ett svårt scenario, där det kan gå dåligt och det blir en olycka, så kan man se varför till och med en erfaren pilot misslyckas och se om man kan förbättra någonting i cockpit? 

MR: Ja, absolut. Och sånt har vi tittat på också med stridsflygplan, där man har väldigt stressade piloter. Varför ser man inte vissa grejer och så där? Man kan säga att våra forskningssystem används väldigt mycket för att titta på beteende av olika slag. Hur beter sig människan i olika situationer? Och sen så blev det så att vi hittade det här med bilar, att här var det väldigt mycket forskning, det var väldigt många som faktiskt ville göra någonting och ta det vidare. Man kan tänka sig att man gör det här på andra ställen också, till exempel just träning och simulatorer. I Tyskland till exempel har man mycket bilskolor som har simulatorer som man går köra i först. Jag kom ihåg när jag tog körkort, så var det väldigt mycket att de tittade på att man tittade i backspeglarna och den grejen. 

HE: Ja, precis. Det kommer jag ihåg. 

MR: Ja, och det är väl såna grejer man skulle kunna tänka på att gå igenom scenariot efteråt, och säga så här: ”Här måste du titta i backspeglarna och det gjorde du faktiskt inte.” Så man har det som ett hjälpmedel helt enkelt vid utbildning. 

HE: Det är väldigt smart. Och du nämnde förut att man kan titta ner på stereon för mycket, men nu för tiden är det väl också jätteproblem med mobiler? 

MR: Mobiltelefoner, ja, absolut. Det är det nya för oss. 

HE: Det kanske borde vara tvingade att man har en eye tracking som varnar om man inte kollar på vägen. 

MR: Det kommer komma såna krav med både (hör inte) , de som man gärna vill ha fem stjärnor i, de som betygsätter bilar. De kommer ha med någon typ av sånt här system 2022 tror jag det var, och så kommer det vara krav på det 2024. Och sen håller EU-kommissionen eller EU-parlamentet, någon av dem, någon EU-instans, på att titta på lagstiftning på såna här system. Sen vet man inte exakt vad det betyder. Det blir väl knappast så att man kommer lagstifta om Smart Eyes teknik. Det kommer man inte göra, och man kanske inte heller göra en kamerabaserad lösning, men någon typ av förarövervakning kommer man lagstifta om. 

HE: Det är ju spännande. Det blir en bra möjlighet för er. 

MR: Absolut. 

HE: Hur ser det ut när bilarna nu blir mer och mer självkörande? Följer ni med in i den framtiden? 

Poängen med att ha en självkörande bil är att man vill göra någonting annat till syvende och sist. När det väl händer något och bilen börjar känna sig osäker, så kan bilen säga: ”Titta nu på vägen.” Och då kan man verifiera (med hjälp av vår teknik) att man tittar på vägen. 

MR: Det gör vi väl på något sätt. Vi tror att det kommer ta ganska lång tid innan man har det som kallas level fem, det vill säga att bilen kör helt av sig självt. Det finns ingen förare egentligen. Innan dess så finns det ett extremt behov av vår teknik, just i de här överlämningsfaserna mellan att bilen kör själv och att föraren är där. Till att börja med måste man veta att föraren lever, man måste veta att föraren är vaken. Poängen med att ha en självkörande bil är att man vill göra någonting annat till syvende och sist, så då vill man kunna sitta där och surfa så länge som möjligt, och sen då när det väl händer något och bilen börjar känna sig osäker, så kan bilen säga till att: ”Titta nu på vägen.” Och då kan man verifiera att man tittar på vägen igen. 

HE: Man kan få väldigt snygga, sömlösa överlämningar då. 

MR: Precis. Sen jag menar, vi tittar mer och mer på, och våra kunder också, vad kan man göra för HMI-lösningar? 

HE: Human Machine Interface. 

MR: Just det, precis. Och hur kan man styra olika saker? Lite som det där jag pratade om innan, att man kan byta kontext genom att man tittar på olika saker. Men det finns ju andra saker som man kan interagera med, med hjälp av blicken på också. Den typen av saker kommer ju inte att försvinna. 

HE: Nej, för nu pratar vi om bilar och sen om forskning och vi kommer in på NASA. Det är ju väldigt coolt. Och sen förstår jag att man kan använda er teknik till massa olika saker. Vi pratar mänskligt beteende, men har ni några mer kategorier eller applikationer som redan i dag är på gång eller som ni tittar på?  

MR: Egentligen inte. Vi håller oss ganska mycket till bilindustrin. Vi gör lite andra saker som andra tittar på - att man ska kunna använda det i 3D-skärmar. Det har aldrig slagit riktigt med 3D-skärmar. 

HE: Minority Report igen där då, med framtiden. 

MR: Precis, men det finns väl såna som tittar på det. Det är inget vi aktivt jagar, utan det är såna här projekt som går och man kan säga så såna projekt där man vet var huvudet är någonstans, eller ögonen, där man vet det och då kan göra andra saker. Det finns ju uppenbara saker som vi inte gör och det är ju handikapphjälpmedel till exempel, alltså att interagera med en dator med hjälp av blicken? 

HE: Det finns såna system? 

MR: Det finns såna system, ja, och det gör vi inte. Och vi tror inte heller man blir speciellt hjälpt av att ... Alltså, det är för handikappade, för själv blir man ju galen om man skulle köra med det, för som användargränssnitten ser ut i dag, så är det ju mycket lättare att använda en mus på datorn, eller peka och så, eftersom man använder blicken för att titta runt också. Så det tar väldigt mycket längre tid. 

HE: Just det. Så det är mer som du säger en bil till exempel, där man har händerna upptagna, då kanske man har kunnat titta och styra interfacet till exempel. 

MR: Exakt. Precis, man har de upptagna, man gör någonting annat eller att man kompletterar. Det är ju aldrig fel att man kompletterar någon annan rörelse. Men absolut, finns det nya användargränssnitt, så kan man ju tänka sig att styra med ögonen, men som det ser ut i dag så ser jag inte att det är bra att styra datormusen med ögonen. 

HE: Nej, det är jag med på. Men om vi tittar då på dina resa. Du har ju varit i företag länge. Du måste genomgått stora förändringar under den här tiden. Hur har du upplevt den här resan? 

MR: Jag har upplevt den som väldigt, väldigt rolig. Jag har ju fått göra väldigt mycket olika saker. Som sagt, jag började göra mitt exjobb och sen började jag programmera på vår forskningsprodukt, det som vi kallar för Smart Eye Pro. 

HE: Vad var det för språk? Bara av intresse. 

MR: Det var C++. Det var väldigt mycket C++ där kan man säga. Sen så efter ett tag så var det så att vår första kund blev ju SAAB i Trollhättan. Och då gjorde vi detta, för vi visste inte riktigt. Vi började koda lite och så här: ”Det här är ju coolt”, och vi hade långa listor på vad ska man använda det här till. Vi var inne en del på spelindustrin tidigt och så där, men såg att det var väldigt svårt att tjäna några pengar på det. Man måste göra väldigt stora investeringar innan man kan få ut någonting av det. 

HE: Finns det eye tracking inom VR ? 

MR: VR finns det ju absolut. Och där har det skett en del uppköp också av konkurrenter till oss. Och det finns ju en del VR som har det här redan i dag. Där ser jag det som en absolut intressant marknad. Jag kom ihåg när jag testade Microsoft, det är inte VR, utan AR kallar de väl sitt system.  

HE: Augmented reality, ja. 

MR: Augmented reality, där man kan se igenom, och där kände jag direkt att: ”Här hade det nog varit bra att ha blicken, och använda den i stället för bara huvudet”, när man skulle välja olika saker och sånt. Så där, absolut,  VR ser jag som ett absolut bra användningsområde för eye tracking. 

HE: Men i er resa där så gick ni vidare från det? 

MR: Ja, sen gick vi vidare från det här. Då började vi sälja det till SAAB. Det var så vi kom in på bilindustrin och då såg vi att det här är svårt, för det är väldigt mycket olika ljusförhållanden som man måste klara. Det måste ju klara alla typer. Det måste vara ljust och mörkt och man kan köra i an allé och det blinkar. Och sen är det krav på priserna, så att man måste ha ganska dåliga kameror, eller man kan inte ha de bästa kamerorna. 

HE: Mm, förhållandevis. Precis.

MR: Så det gjorde att vi tänkte att: ”Klarar vi det här, och blir bra i bilindustrin, då kan vi replikera det här i andra branscher också, för där kan man kosta på sig lite dyrare saker.” Och man kan väl säga att det tog väl lite tid. Jag började då redan, var det 2004 kanske, med att skriva ett program för en en-kamera lösning i stället, för innan dess hade vi bara haft för två kameror. Men då göra det för en kamera och fortfarande göra det i 3D, då får man göra vissa antaganden och sånt. Och vi hade några tekniska doktorer som hade doktorerat inom bildbehandling som hade lite idéer om vad vi kunde göra. Och sen så fick vi ihop någonting, så 2005 hade vi en-kamera tracking som vi kunde visa. Och det funkade väldigt bra och vi såg väldigt stort intresse från bilindustrin. Vi rekryterade ihop ett team där för att bygga en embeddedlösning, som vi faktiskt gjorde, till 2007, var den klar. Sen började vi offerera det här. Men 2008 kom finanskrisen, så då var det ingen som var intresserad av det här över huvud taget. 

HE: Jaha, det var ju otajmat där, ja. 

MR: Precis. Då gjorde vi så att då satsade vi mycket mer på vår forskningsprodukt i stället och sålde den, och jag skolade om mig lite och blev säljare och sålde i Tyskland och Skandinavien till olika forskningsinstitut. 

HE: Ah, det är ett ganska stort steg från att vara embeddedutvecklare? 

[båda skrattar] 

MR: Ja, det var en lite annorlunda upplevelse där, men det funkade väl bra. Sen så trivdes jag ju mycket bättre i teknikrollen, så jag var pappaledig där lite grann, och sen sa jag till min chef att: ”Jag vill nog hellre hålla på med teknik.” Så då fick jag börja där i stället och ta över utvecklingsavdelningen. 

HE: Men det är klart, ert sälj kan vara ganska tekniskt antar jag? 

MR: Det kan vara väldigt tekniskt, speciellt när det gäller våra kontakter med bilindustrin, där man egentligen bara snackar teknik. 

HE: Just det. Det handlar mer om vad man kan göra, att man förstår idén. Man följer med på att det är en bra idé, men hur kan man göra det? 

MR: Precis, och den stora förhandlingen handlar egentligen om att man kan komma överens om vilka krav man kan uppfylla. Sen blir det så klart en prisförhandling också, men om du inte har klarat den tekniska förhandlingen, så är det ju aldrig intressant att börja prata priser över huvud taget. 

HE: Nej. Men det gick bra då, den sälj ... Sen så när du var tillbaka från pappaledigheten, då fortsatte du med tekniken? 

MR: Då fortsatte jag med teknik, så jag började som chef för utvecklingsavdelningen och började jobba med det, så sen dess har jag jobbat mindre och mindre med att göra saker själv och mer och mer rekryterat folk. [skrattar] 

HE: Det är ju så det kan bli.  

MR: Ja, och nu är vi ju ganska många som sagt. Så det är ju jätteintressant, för det är ju helt andra frågor att ta hand om, men man har också helt andra muskler att göra saker mot för vad man hade tidigare. 

HE: Det är ju också spännande, bara den associationen fick jag, att under den perioden sen ni började, runt millennieskiftet och fram tills nu, så har ju massa olika system, till exempel kameror eller Facebook och andra, ja, lösningar som innehåller bilder blivit mycket bättre på att identifiera ansikten. Och en sak som man vet om i dag är att man använder AI för det, men gjorde man det från början? 

MR: Nej, det gjorde man ju inte, utan det var mer klassiska bildbehandlingslösningar.

HE: Just det. Så man var mer som utvecklare tvungen att hitta på ett smart sätt att identifiera ansikten? 

MR: Absolut. Sen det man kallar AI, jag vet inte riktigt vad AI betyder, men i dag är det väldigt mycket såna här deep convolutional neural networks som man pratar om, alltså neuronnät med många neuronlager, så man har den här convolutional delen då. Och det är ju en skillnad där skulle jag säga, med att man har länge inom klassisk bildbehandling använt olika typer av detektorer som man har tränat upp, att man får träna upp den på olika saker. Sen har det inte varit det man kallar AI i dag, men det kanske man... 

HE: Det vill säga det har blivit mycket bättre med samling av olika delar, tekniken, processorer och...

MR: Ja, det kan man väl säga, men jag tror att just de här stegen man har tagit genom ansiktsigenkänning till exempel, det har varit mycket med AI-lösningar man har kunnat lösa det. 

HE: Så ni har ändrat teknik ganska mycket också? 

MR: Nja, ja, det har vi gjort till viss del. Vi har sett att vissa problem är lättare att lösa med AI-lösningar. Vissa blir väldigt svåra. Vissa saker tror vi fortfarande blir bäst lösta med bildbehandling, för när vi följer efter ansiktet så här, då vet vi var ögat är, och vi tittar närmare på ögat då. Till exempel ögonlocksöppning, om det är öppet eller stängt, det kan man göra väldigt bra med AI. Det är väldigt bra att träna upp. Och även ungefär åt vilket håll man tittar, men för att veta med väldigt hög noggrannhet, då tror vi fortfarande att det är svårt att lösa det med en AI-lösning, utan det är bättre att använda bildbehandlingsalgoritmer, där man letar efter pupiller, man letar efter reflexer i ögonen. Då kan man få väldigt hög precision, som en halv grad eller kanske lägre än en halv grad, och det är ju väldigt, väldigt bra. 

HE: Det låter ju också, jag associerar vidare här lite, närbesläktat med mobiltelefonen i dag som använder Face ID och sånt. Det är ju också vad jag förstår att den har någon sorts 3D-uppfattning om ansiktet. 

MR: Absolut, om man tittar på Apple till exempel, så har de ju väldigt dyra kameror där, där de också skickar ut ett mönster i ansiktet, så de faktiskt kan mäta avstånden. Det gör ju inte vi typiskt, utan vi chansar ju på avståndet, så vi vet ju egentligen inte hur 3D-huvudet ser ut förrän man rört på sig lite grann, medan de kan egentligen med en bild ... eftersom de har ljus som belyser hela ansiktet på olika sätt, och då kan man då räkna ut 3D:n direkt. 

HE: Just det, men ni klarar samma sak egentligen, men med bildkamera.

MR: Nej. Nej, det skulle jag inte säga. 

HE: Liknande saker då med ... 

MR: Det skulle jag inte säga. Sen så, visst, jag vet att den inte fungerar helt klockrent, Apples kamera, heller. Men de använder den ändå för betalning. Visst, man får använda koder och sånt ibland, med den här tekniken använder vi bara en ren IR-källa egentligen, egentligen bara en kamera, så kan vi aldrig komma upp i samma nivå på säkerhet på ansiktet. 

HE: Så det är ungefär liknande saker, fast det inte är samma teknik riktigt bakom? 

MR: Absolut, det är liknande, men det är ju framför allt en hårdvarukostnad där att ta till en sån där lösning, just för igenkänning av ansiktet. 

HE: Ja, spännande. Så just vad tekniken används till då så pratar vi fordon, vi pratar om forskning och vi pratar om NASA där. Det finns flyg, det finns även försvarsindustrin där det används som jag förstår? 

MR: Absolut. 

HE: Och sen så pratade vi lite om att man tittar ju egentligen på det mänskliga beteendet. Används det även av beteendevetare? 

MR: Det gör det ju. Jag skulle säga att de flesta som använder det studerar beteende, men ibland kallar de sig för psykologer, ibland kallar de sig något annat. Det finns sådana som tittar på apor till och med, hur beter sig apor? Så vi har ju ett system på Furuviksparken uppe i Gävle där. 

HE: Vad spännande. Vad tittar de på då? [skrattar]

MR: Nej, men [skrattar] man tittar på hur beter sig de här i olika situationer. Till exempel när man lägger in lite i bananer och sånt och så tittar man hur interagerar de här med varandra, vad tittar de på och sånt. Och problemet är att man kan ha väldigt korta ... dels är ett problem att man måste ha systemet bakom ett väldigt tjockt glas, så man måste ha väldigt lys... för de är väldigt starka de här aporna, så man vill inte vara i närheten av dem. 

HE: [skrattar] Nej. 

MR: Ett annat problem är att man kan bara köra någon minut på dem, för sen tröttnar de och gör något annat. 

HE: Just det. Så det är lite hur de beter sig i grupp? 

MR: Hur det beter sig, ja, och hur de interagerar kanske med en annan apa eller med en människa som gör någonting. Vad tittar de på och varför gör de det här? 

HE: Är apor mycket snabbare då? Säger de inte det? Det känns som att de fattar beslut snabbare. 

MR: Jag vet faktiskt inte riktigt. De är ju väldigt otåliga i alla fall, så de vill inte hålla på länge. 

HE: Nej, just det. Det är någonting vi fått med evolutionen kanske, mer tålmodighet.  

MR: Ja, jag tror det. 

HE: Ja, det låter väldigt spännande. Det hade man velat se mer av. [skrattar] 

MR: Ja. 

HE: Hur tror du då att eye tracking kommer utvecklas som teknik i framtiden? Inom vilka områden kommer det användas mer eller vilka nya områden kommer det komma i? 

MR: Jag tror att på sikt kommer det komma i mobiltelefoner. Det som är i dag skulle jag säga att det är lite för dyrt att göra det, på grund av att det drar lite för mycket processorkraft, så det drar ur batterierna alldeles för fort.

HE: Men vad kan det innebära då? Det blir som att man får en muspekare nästan? Att där man tittar händer det någonting? 

MR: Jag tror inte riktigt på muspekaren då. [skrattar] En grej skulle kunna vara där här med att man tittar på film, och så tittar man bort, och så pausar den sig till exempel, så att man inte missar någonting. Vi var faktiskt och pratade om det för länge sedan med mobiltelefoner. Det var med Ericsson då, de hade väl lite enklare displayer och det finns en teknik som kallas för RSWP som går ut på att man visar ett ord i taget. Och det finns såna sidor på nätet också som man kan titta på, för folk säger att man får upp läshastigheten enormt om man bara läser ett ord i taget. Men det här mer av ett tekniskt perspektiv, att det var svårt att visa mer än ett par ord i taget eller att man scrollade texten. 

HE: Och då kan man göra ett ... 

MR: Och då kan man göra, tittar du bort då, så är du helt körd. Och då ville man ju veta om man tittade på skärmen eller inte. Så det är ett uppenbart använd... 

HE: Så man nästan skulle kunna ha en följd med ord, och så ser den hur man läser över orden och plockar fram resten? 

MR: Precis, och det gör man ju i dag med eye trackers inom forskning, just att titta på hur läser man. Och man kan ju titta på folk som har olika typer av diagnoser för att till exempel se om man har problem med läsning då. Tittar man på fler ord? Kan man kombinera orden på något annat sätt för att de ska kunna läsa lättare? Men det kan också vara att man kan diagnostisera andra typer av beteenden. Till exempel tittar man mycket på ... det är inte just läsning, utan det handlar mer om att man visar olika saker på olika sätt för små barn. Och då finns det forskning som indikerar att man skulle kunna diagnostisera autism väldigt tidigt. Och autism är ju någonting som man om man sätter in åtgärder mot det här, så kan man få en mycket lindrigare form av autism tidigt, men det är väldigt svårt att diagnostisera tidigt. 

HE: Just det. Så det kan få väldigt stor positivt påverkan på de barnen, om man lyckas? 

MR: Absolut. Sen finns det ju vissa sjukdomar man kan diagnostisera också. Alltså, ögonrelaterade, att man tittar på fel sätt. Sen så kan det också användas som hjälpmedel just för att diagnostisera andra saker inom vården. Till exempel, när man tittar på hjärnskador och sånt, så är det ofta så att det enkla fallet är att man visar en bild på någonting, och så vill man ha en respons i någon del av hjärnan, att någon sån här elektrod ska säga att: ”Okej, nu användes den här delen av hjärnan.” Och är den inte det, då kanske man har något problem där.  

HE: Så man kombinerar eye tracken med att ... 

MR: Ja, för då vet man om man tittar, för det kan ju vara att man tittat bort, man kan ha blinkat. Det enkla fallet är ju bara att man har tittat på en skärm och visat någonting, men sen kan det ju vara att man ska följa någonting på skärmen eller liknande, och då kan det ju vara det att man blinkade ju då och då blir det ett problem, för att då vet man ju inte om inte såg det eller om det var att man inte har den funktionen i hjärnan. 

Sen är frågan vad man ser och vad man inte ser? Det man kan göra är att mäta var folk tittar, men man vet ju faktiskt inte vad de ser. 

HE: Just det. Ja, intressant. Man spinner iväg lite om vad man skulle kunna använda det till. Skulle man kunna använda det som spion och se vad folk tittar på eller komma in i folks hjärnor och tänkande genom att se vad de är intresserade av eller vad de tittar på? 

MR: Det kan man ju absolut göra. Jag menar, sen är frågan då vad ser man och vad ser man inte? Det man kan göra är att mäta var folk tittar, men man vet ju faktiskt inte om folk ser det egentligen. 

HE: Nej, just det. Man kanske bara vandrar med ögonen. 

MR: Ja, eller att man inte uppfattar det ändå på grund av att man tänker på något annat och bara stirrar med blinken. Men det finns ju faktiskt såna som försöker ersätta dyra undersökningar med just såna här där man måste ha EG:erna för att göra det och försöker se, kan man göra det här med blickstudier?

HE: Just det, och EG är när man scannar hjärnan? 

MR: EG är när man sätter på såna här elektrodnät och det är ganska dyrt att göra det, medan en eye tracking undersökning kan man göra ganska billigt. Det är det som är tanken, att man ska kunna undersöka fler personer helt enkelt.  

HE: Det låter ju smart. Finns det några faror om man spinner vidare på den här typen av teknisk lösning, om man tittar på till exempel integritetsskydd och sånt? 

MR: Det är klart att det gör. Jag menar, man tar ju en bild på förhand. Sen så är det ju så att vi är inte det minsta intresserad av bilden, utan vi är intresserade av vad som händer i den. Men det är klart, har man en kamera där så är det ju klart att någon kan spela in en. Det är ju inte så systemen är designade i dag. Det vet ju jag, för även om vi är till 95 procent ett mjukvaruföretag, så får ju vi hjälpa till. I de bilprojekten vi är, så hjälper vi ju till väldigt mycket med hur man ska designa kameran. Hur ska man få bilden att komma in på ett så bra sätt som möjligt? Hur ska de ligga i minnet? Det gör ju att vi får en ganska stor insikt i hur plattformarna ser ut, och det finns ingen inspelning då, men det är ju någonting man kan lägga till. Och det kanske är försvarbart i vissa ställen. Skriver man ett kontrakt med sitt försäkringsbolag, så är det ju en sak, men om man inte gör det, då vill man ju inte att något spelas in. 

HE: Nej, precis. Ja, och sen spinner jag vidare på det här med Minority Report också. Det var någon film där reklamskyltarna styrdes av vem som tittade på dem. 

MR: Absolut, och där vi har vi ju en av våra, ska vi säga kollegor i branschen, som har gjort väldigt mycket inom just hur ska man placera reklam på webbsidor och liknande för att man ska få mest ... 

HE: Just det. Man ser var folk tittar. 

MR: Och det är inget vi har sysslat med, men det kan man ju självklart använda tekniken till. Man skulle också kunna tänka sig att man, och det kan man väl tycka vad man vill om, om det är positivt eller negativt med reklam, men man skulle ju kunna använda det till att titta på film till exempel. I alla fall om man gör en datoranimerad film eller ett dataspel, så kan man ju tänka sig att beroende på var man tittar, så får man olika utveckling, att det kan hända olika saker beroende på vad man har tittat på. 

HE: Just det. Nu kommer jag ihåg det faktiskt. Jag såg någon gång på Twitch där man kunde följa någon som spelar datorspel, och där var det en gång en som hade en eye tracker och den visade var han tittade. Det var faktiskt ganska irriterande att se var han kollade hela tiden, men lite roligt i och för sig också. 

MR: Men skulle ju då kunna tänka sig att om man tittar mer på någon detalj, okej, men då utvecklar sig filmen här. 

HE: Just det. Man ser lite grann vad man är intresserad av? 

MR: Ja, eller att det kan hända olika saker i samma film. 

HE: Det fanns ju någon sån här bandersnatch som de kom med på, den här Black Mirror-serien tror jag, där man kunde göra olika val och filmen utvecklade sig olika. Där var man ju tvungen att klicka på ett val, ja eller nej, men i det här fallet skulle det kunna styras av vad man tittar på till och med till och med? 

MR: Ja, eller såna här när man fick slå med en tärning. Jag vet inte om du spelade rollspel någon gång. 

HE: Ja, lite grann.

MR: Då fanns det soloäventyr, så slog man med en tärning, så kunde man få gå till en speciell sida och läsa vidare. 

HE: Ja, precis. Jag spelade mycket brädspel, men inte lika mycket rollspel, men absolut. Då skulle det kunna bli så, om man har det på en webbsida, kan det bli som cookies nästan? Man kanske får godkänna om sidan ska kunna få se, om man har en webbkamera till exempel, om det är okej att man använder det kommersiellt så att säga, om man tittar någonstans. 

MR: Absolut. 

HE: Just det. Men ni sitter ju här i Göteborg. Det är ju kul. Vi sitter också i Göteborg. Och ni har alltid gjort det? 

MR: Det har vi alltid gjort ja. Vi hade ett litet kontor i Stockholm tidigt. Vi hade ett par anställda som var väldigt duktiga som satt där, men annars sitter vi i Göteborg. Det stämmer. 

HE: Så vi heter ju Let’s tech här, den här podden. Vi tittar på teknik som byggs i Göteborg och människorna bakom. Har du några tips eller finns det några andra företag som du följer eller är intresserad i Göteborgsregionen? 

MR: Ja, det gör det. Man följer väl så klart hur det går för Ericsson, som ändå är väldigt stora och har väldigt intressant teknik. Det tycker jag är ett intressant bolag. Sen följer vi Volvo eftersom de är i samma bransch. Zenuity är ju intressanta så klart eftersom det är ett nytt bolag som håller på med massa saker, drar till sig massa arbetskraft och många vill ju jobba där.

HE: Det händer mycket inom automotive i Göteborg och omnejd. 

MR: Det gör det absolut. Och det finns mycket småbolag också kring hela automotiveindustrin i Göteborg. Så det är väl mest det. Sen så tycker jag det är intressant med de här bolagen som håller på med olika medtechapplikationer. Det finns ju två stycken som håller på med olika typer av 3D-skrivare. Jag kommer inte ihåg vilket som är vilket nu. Man kan ju ta och testa olika cancermediciner, ta ut hjärnceller, eller vad det nu är för cancerceller man har, och så kan du testa och replikera dem med hjälp av den här skrivaren. Och så kan du testa vilken medicin som fungerar. I vanliga fall måste man ju testa vilken medicin, vilket typ av cellgift man ska använda, men då kan du testa det i labbet först och så tar du rätt medicin från början. 

HE: Det är ju fantastiskt spännande att det går. Vi tar och listar ut och så länkar vi på codic.se, där vi lägger podden, så man kan titta vidare på det. Om vi pratar utvecklingsprocesser, eftersom du jobbar som teknisk chef nu, CTO, vad ser du som viktigast för att få väl fungerande team? Ni är ju väldigt många personer. Var ni runt 60, 70 något, utvecklare? 

MR: Ja, precis. Det viktigaste är ju att man har någon man kan vända sig till, att man har någon typ av ledare i teamet, som kan hjälpa till om det blir problem. 

HE: Någon som har mycket erfarenhet och är hjälpvillig? 

MR: Ja, precis. Det är ju det absolut bästa, om man kan ha det. Men annars kan man ju ha någon typ av annan ledare som hjälper en med problem. Jag är ju i dag ansvarig för alla i princip, så det finns inga chefer i den meningen, men det finns ju ledare alltid. Har man ett team på fem, sex personer, så är det ju en som är ledare. 

HE: De facto ledare, eller informell ledare. 

MR: Ja, eller formell. Det kan bero lite på vad det är för typ av team, men att det finns någon där hela tiden, som de känner att de kan fråga om det är något man blir fast på. Det tror jag är väldigt viktigt. 

HE: Och hur får man teamen att jobba bra ihop sen då? Ni ska väl leverera en produkt i slutändan? 

MR: Precis. Det är ju alltid en bra fråga, och det man vill är ju att minska beroendet av varandra, så man vill inte ha för små team, utan man vill nog ha fem, sex personer. Även under perioder när man inte har så mycket att göra, så vet man hela tiden att man har muskler. Man bör ha synkmöten med andra väldigt ofta, bara för att veta vad de håller på med, och hur man gör det, det kan man alltid diskutera. Om man har gemensamma demos, där man ser vad alla gör i alla team, eller om det bara är ledarna som pratar med varandra eller så, det kan man alltid göra olika. Men det viktiga är i alla fall att man pratar med varandra så man vet vad som försiggår i de andra teamen. Och sen då att man har ansvar för sina delar så långt det är möjligt, så att man slipper vänta på någon annan. Det tror jag är viktigt. 

HE: Just det. Upplever du att det är lätt att hitta utvecklare eller är det många som vill komma till er? 

MR: Det är många som vill komma till oss på olika sätt, men det är ju ändå svårt att hitta folk. Det skulle jag säga. Det har i alla fall varit en väldigt, väldigt hård marknad ska jag säga. 

HE: Ja, precis. Du nämnde ju Zenuity till exempel, som anställt väldigt, väldigt många de senaste åren här. Så hur gör ni för att stå ut i mängden och locka folk till er? 

Det finns så klart väldigt mycket utmaningar i världen, med klimatutmaningar och handelskrig och olika saker, men jag tror att de flesta är positiva. Jag tror på människan. 

MR: Jag vet inte riktigt hur vi gör. [skrattar] Vi försöker väl lite grann. Vi marknadsför oss inte jättehårt, utan däremot så är vi ganska bra på att få folk att stanna. Dels har vi väldigt få som slutar, men också de som kommer på intervju och som vi är intresserade av, är väldigt ofta så att de får jobbet också.  

HE: Så det har kanske att göra med att ni har en spännande teknik också, eller? 

MR: Det tror jag absolut. Jag tror att det är det som lockar. Jag tror att det är teknik och att när man träffar olika typer av kollegor också, så känner man att: ”Det här är folk som vet vad de sysslar med”, och de tycker att de är duktiga, så: ”De här vill jag jobba med.” 

HE: Mm. Och var sitter ni i stan? 

MR: Vi sitter på Första Långgatan, så man kan säga mitt emellan Värmlandsgatan och Masthuggstorget. Hållplatsen är Masthuggstorget. 

HE: Det är ju trevliga områden. Till sist då, tänkte jag fråga om du har någon framtidsspaning som du vill dela med dig av? Hur tror du världen kommer utvecklas närmaste 10+ åren? 

MR: Förhoppningsvis tror jag det kommer bli väldigt bra. Det tror jag. Det finns så klart väldigt mycket utmaningar i världen, med klimatutmaningar och handelskrig och olika saker, men jag tror att de flesta är väl positiva. Jag tror på människan. 

HE: Du är optimist, ja?  

MR: Jag är optimist. Jag tror att allt kommer bli bättre för de allra flesta. 

HE: Det är en trevlig framtidsutsikt. Tack så mycket Martin. 

MR: Mm, tack själv. 

Previous
Previous

16. IT och kapital med Malin Kjällström

Next
Next

14. Life science med Charlotta Gummesson