Af:
Sanne Opstrup Wedel

Ny dansk software bygger AI-systemer, vi kan stole på

AI er fremtiden, men teknologien er stadig fuld af risikable faldgruber. Nu kan en software fra den danske startup Fireraven advare virksomheder, inden algoritmen begynder at gøre skøre ting.

Digital Eye

Lige nu sidder mange virksomhedsledere i et stort dilemma: Skal de slippe AI løs og høste det kæmpe forretningspotentiale, der ligger i at kunne optimere en lang række arbejdsgange med øget fleksibilitet og fortjeneste til følge. Eller skal de lade være, fordi det stadig er alt for risikabelt?

- Virksomheder i hele verden vil gerne have de fordele, som kunstig intelligens kan give. Men med fordelene følger en risiko, fordi vi ikke helt kan stole på algoritmerne, fortæller 26-årige Philippe Maisonneuve, der sammen med 25-årige JS Patenaude står bag startuppen Fireraven, som arbejder for, at AI kan bruges sikkert og etisk forsvarligt.

Fireraven
I 2024 vandt Fireraven Venture Cup Denmarks startupkonkurrence i kategorien Social. Venture Cup arbejder for at fremme iværksætteri blandt alle universitetsstuderende i Danmark og at være et naturligt bindeled mellem de studerende og erhvervslivet.

AI kan føre til risikabel rådgivning

For lige nu er problemet, at hvis vi skal udnytte potentialet i AI, så risikerer vi at løbe en risiko, der svarer til at have en utrænet, skør person siddende i vores kundeservice.

Det skyldes, at AI er forudsigelses-matematik: Algoritmen bygger på en matematisk model, der svarer på det mest sandsynlige. På den måde kan AI hjælpe virksomheder med at kigge rundt om hjørnet og f.eks. forudsige, om en bestemt betaling er hvidvask – langt hurtigere end mennesker kan. Men når AI bruges til at generere noget på vegne af et menneske – som en analyse eller en diagnose – så rammer maskinen nogle gange forkert, fordi teknologien kommer til kort.

- AI-generatoren kigger simpelthen på den seneste sætning og forudser derudfra det næste ord – og det næste og det næste. Men algoritmen forstår ikke meningen med sætningen, og derfor aner den heller ikke, hvad der er rigtigt og forkert. Så på et tidspunkt risikerer vi, at den begynder at digte ud fra, hvad den tror, der er høj sandsynlighed for. Og det kan være fatalt, forklarer JS Patenaude.

Virksomheder i hele verden vil gerne have de fordele, som kunstig intelligens kan give. Men med fordelene følger en risiko, fordi vi ikke helt kan stole på algoritmerne.

Philippe Maisonneuve, medstifter af startuppen Fireraven

Tænk bare, hvis en alvorlig diagnose er forkert eller ikke bliver stillet, fordi AI er trænet til at forudsige sandsynligheden for, at en hvid person lider af kræft, og generatoren bruges på en person med en anden hudfarve. Så får vedkommende ikke den bedste behandling eller rette risikovurdering, fordi AI kun reagerer ud fra data på hvide mennesker. Eller hvis en chatbot i en bank begynder at fortælle om lån, som ikke eksisterer, eller anbefaler Fru Jensen at sælge alle sine obligationer og købe kryptovaluta i stedet.

– AI lærer af og i overensstemmelse med data. F.eks. ville det alt andet lige have været en fremragende beslutning at investere massivt i bitcoin i 2020. Det er dog ikke nødvendigvis tilfældet længere, og AI mangler ofte den fulde kontekst, der er nødvendig for at anskueliggøre det. Vores job er at opdage skævheder og ræsonnements- og argumentationsgenveje, der kan kompromittere vores kunders AI-systemer og at gøre opmærksom på de situationer, hvor menneskelig dømmekraft er nødvendig, siger JS Patenaude.

Software advarer om fare i tide

De unge forskeres software advarer simpelthen virksomheder, inden algoritmen begynder at finde på noget, der ikke findes, og som derfor ikke er korrekt – deraf navnet Fireraven. Ravnen er nemlig kendt som et af de smarteste dyr, når skovbrande begynder. Så snart der kommer en gnist, begynder ravnen at smide sten og jord på gnisten, så branden stoppes i tide.

- På samme måde stopper vi noget farligt i tide ved at give virksomhederne et rødt flag, der gør dem opmærksom på forskellige issues, som kan blive et problem; også på issues de ikke engang selv kender, fortæller JS Patenaude.

Desuden kan softwaren også genere ny data, som kan reparere manglerne i virksomhedernes systemer.

- Det er dyrt at teste og tjekke store mængder data, og på et tidspunkt er datamængden så stor, at et menneske ikke kan lave de nødvendige test. Men det kan vores software, som altså både kan finde problemerne i systemerne og på den baggrund også forbedre dem, siger JS Patenaude.

NextAI
For et par år siden var Philippe Maisonneuve (tv.) og JS Patenaude med til at stifte CEDNA, en non-profit universitetsorganisation med fokus på at øge offentlighedens bevidsthed om nye teknologier og vejlede beslutningstagere.

To plus to giver fem

Hele udviklingsarbejdet er foregå i DTU Skylab, der er med til at løfte nye idéer og opfindelser fra undervisningslokalerne og forskningslaboratorierne på DTU ud i den virkelige verden, hvor de med den nødvendige funding kan skabe nye arbejdspladser og være med til at løse opgaver og udfordringer.

- Hele økosystemet for innovation og entreprenørskab har været en kæmpe hjælp for os fra ide til virksomhed, og vi trækker løbende på det store netværk af kompetente folk, man bliver en del af via lab’et. Vi har bl.a. fået meget værdifuld sparring omkring lovgivning og ikke mindst finansiering, som hele tiden er en udfordring for starts ups som vores, siger Philippe Maisonneuve.

Softwaren er indtil nu testet på virksomheder på tværs af Danmark og Canada, og på baggrund af feedbacken herfra lancerer Fireraven nu snart version 2, som skal afprøves i større offentlige institutioner primært inden for medtech og fintech.

- AI er alt for ofte en diskussion om man vs. machine. Men for os er det snarere kombinationen, som er vigtig og værdifuld. For hvis AI kan tilføre mennesket ekstra kræfter, uden at teknologien stikker af, så giver to plus to pludselig fem, siger Philippe Maisonneuve.

Håbet er, at softwaren kan hjælpe med til, at AI fremover kan bruges etisk forsvarligt, så virksomhederne kan slippe teknologien løs med sindsro og dermed få alle goderne fra AI, samtidig med at risikoen minimeres.

- Vi ser et stort potentiale i, at det med vores software er muligt at træne algoritmen, så den flugter med virksomhedernes etik, værdier og forretningsgange, samtidig med at vi fanger risikoen, inden algoritmen laver skøre ting. For det er det, vi arbejder for: Et samfund, hvor AI kan bruges sikkert og etisk forsvarligt, siger Philippe Maisonneuve.

 

Omtale af selskaber og/eller sektorer i denne artikel skal ikke anses som en købsanbefaling fra Nordea Invest. Tal altid med din investeringsrådgiver, før du investerer.