Lige nu sidder mange virksomhedsledere i et stort dilemma: Skal de slippe AI løs og høste det kæmpe forretningspotentiale, der ligger i at kunne optimere en lang række arbejdsgange med øget fleksibilitet og fortjeneste til følge. Eller skal de lade være, fordi det stadig er alt for risikabelt?
- Virksomheder i hele verden vil gerne have de fordele, som kunstig intelligens kan give. Men med fordelene følger en risiko, fordi vi ikke helt kan stole på algoritmerne, fortæller 26-årige Philippe Maisonneuve, der sammen med 25-årige JS Patenaude står bag startuppen Fireraven, som arbejder for, at AI kan bruges sikkert og etisk forsvarligt.

AI kan føre til risikabel rådgivning
For lige nu er problemet, at hvis vi skal udnytte potentialet i AI, så risikerer vi at løbe en risiko, der svarer til at have en utrænet, skør person siddende i vores kundeservice.
Det skyldes, at AI er forudsigelses-matematik: Algoritmen bygger på en matematisk model, der svarer på det mest sandsynlige. På den måde kan AI hjælpe virksomheder med at kigge rundt om hjørnet og f.eks. forudsige, om en bestemt betaling er hvidvask – langt hurtigere end mennesker kan. Men når AI bruges til at generere noget på vegne af et menneske – som en analyse eller en diagnose – så rammer maskinen nogle gange forkert, fordi teknologien kommer til kort.
- AI-generatoren kigger simpelthen på den seneste sætning og forudser derudfra det næste ord – og det næste og det næste. Men algoritmen forstår ikke meningen med sætningen, og derfor aner den heller ikke, hvad der er rigtigt og forkert. Så på et tidspunkt risikerer vi, at den begynder at digte ud fra, hvad den tror, der er høj sandsynlighed for. Og det kan være fatalt, forklarer JS Patenaude.
Virksomheder i hele verden vil gerne have de fordele, som kunstig intelligens kan give. Men med fordelene følger en risiko, fordi vi ikke helt kan stole på algoritmerne.
Tænk bare, hvis en alvorlig diagnose er forkert eller ikke bliver stillet, fordi AI er trænet til at forudsige sandsynligheden for, at en hvid person lider af kræft, og generatoren bruges på en person med en anden hudfarve. Så får vedkommende ikke den bedste behandling eller rette risikovurdering, fordi AI kun reagerer ud fra data på hvide mennesker. Eller hvis en chatbot i en bank begynder at fortælle om lån, som ikke eksisterer, eller anbefaler Fru Jensen at sælge alle sine obligationer og købe kryptovaluta i stedet.
– AI lærer af og i overensstemmelse med data. F.eks. ville det alt andet lige have været en fremragende beslutning at investere massivt i bitcoin i 2020. Det er dog ikke nødvendigvis tilfældet længere, og AI mangler ofte den fulde kontekst, der er nødvendig for at anskueliggøre det. Vores job er at opdage skævheder og ræsonnements- og argumentationsgenveje, der kan kompromittere vores kunders AI-systemer og at gøre opmærksom på de situationer, hvor menneskelig dømmekraft er nødvendig, siger JS Patenaude.
Om Fireraven
- Fireraven er grundlagt af de to unge forskere Philippe Maisonneuve og JS Patenaude, som mødte hinanden på universitetet, mens de hver især skrev bachelorprojekt. Senere begyndte Philippe som Ph.d.-studerende DTU, men hoppede fra for sammen med JS at forfølge ideen bag Fireraven.
- Philippe Maisonneuve begyndte sin karriere i energisektoren, hvor han var fokuseret på at tage fat på den presserende udfordring med klimaforandringer. Men da han udforskede potentialet ved AI, indså han, at de risici, vi står over for på dette område, kan være endnu mere markante.
- JS Patenaude er serieiværksætter, der bl.a. har grundlagt endnu en AI-startup, som hurtigt blev en succes. Han besluttede derefter at sælge sine aktier for at starte en ny deeptech-startup med Philippe for at gøre AI mere sikkert og pålideligt.
- Deres fælles mål er at arbejde for, at AI forbedrer vores hverdag uden at kompromittere vores fremtid.
Software advarer om fare i tide
De unge forskeres software advarer simpelthen virksomheder, inden algoritmen begynder at finde på noget, der ikke findes, og som derfor ikke er korrekt – deraf navnet Fireraven. Ravnen er nemlig kendt som et af de smarteste dyr, når skovbrande begynder. Så snart der kommer en gnist, begynder ravnen at smide sten og jord på gnisten, så branden stoppes i tide.
- På samme måde stopper vi noget farligt i tide ved at give virksomhederne et rødt flag, der gør dem opmærksom på forskellige issues, som kan blive et problem; også på issues de ikke engang selv kender, fortæller JS Patenaude.
Desuden kan softwaren også genere ny data, som kan reparere manglerne i virksomhedernes systemer.
- Det er dyrt at teste og tjekke store mængder data, og på et tidspunkt er datamængden så stor, at et menneske ikke kan lave de nødvendige test. Men det kan vores software, som altså både kan finde problemerne i systemerne og på den baggrund også forbedre dem, siger JS Patenaude.

To plus to giver fem
Hele udviklingsarbejdet er foregå i DTU Skylab, der er med til at løfte nye idéer og opfindelser fra undervisningslokalerne og forskningslaboratorierne på DTU ud i den virkelige verden, hvor de med den nødvendige funding kan skabe nye arbejdspladser og være med til at løse opgaver og udfordringer.
- Hele økosystemet for innovation og entreprenørskab har været en kæmpe hjælp for os fra ide til virksomhed, og vi trækker løbende på det store netværk af kompetente folk, man bliver en del af via lab’et. Vi har bl.a. fået meget værdifuld sparring omkring lovgivning og ikke mindst finansiering, som hele tiden er en udfordring for starts ups som vores, siger Philippe Maisonneuve.
Softwaren er indtil nu testet på virksomheder på tværs af Danmark og Canada, og på baggrund af feedbacken herfra lancerer Fireraven nu snart version 2, som skal afprøves i større offentlige institutioner primært inden for medtech og fintech.
- AI er alt for ofte en diskussion om man vs. machine. Men for os er det snarere kombinationen, som er vigtig og værdifuld. For hvis AI kan tilføre mennesket ekstra kræfter, uden at teknologien stikker af, så giver to plus to pludselig fem, siger Philippe Maisonneuve.
Håbet er, at softwaren kan hjælpe med til, at AI fremover kan bruges etisk forsvarligt, så virksomhederne kan slippe teknologien løs med sindsro og dermed få alle goderne fra AI, samtidig med at risikoen minimeres.
- Vi ser et stort potentiale i, at det med vores software er muligt at træne algoritmen, så den flugter med virksomhedernes etik, værdier og forretningsgange, samtidig med at vi fanger risikoen, inden algoritmen laver skøre ting. For det er det, vi arbejder for: Et samfund, hvor AI kan bruges sikkert og etisk forsvarligt, siger Philippe Maisonneuve.
Omtale af selskaber og/eller sektorer i denne artikel skal ikke anses som en købsanbefaling fra Nordea Invest. Tal altid med din investeringsrådgiver, før du investerer.
Omtale af lande, selskaber, emner og/eller fonde i denne artikel skal ikke anses som en købsanbefaling fra Nordea Invest, og oplysningerne i artiklen kan ikke erstatte professionel og personlig rådgivning. Artiklen er udelukkende til inspiration, og er ikke et udtryk for hvad vores fonde investere i, medmindre andet er angivet. Tal altid med din investeringsrådgiver, før du investerer. Nordea Invest Magasinets skribenter tilstræber, at oplysningerne i denne artikel er korrekt og retvisende, men påtager sig ikke ansvar for, at de er nøjagtige og fyldestgørende. Nordea Invest påtager sig desuden intet ansvar for eventuelle beslutninger eller økonomiske dispositioner, der foretages på baggrund af oplysninger i denne artikel. Oplysningerne er gældende på udgivelsesdatoen og kan ændres. Redaktionen kan kontaktes på [email protected]