8 AI-begrænsninger du bør kende

Mennesket og AI-udyret.

Har du styr på de indbyggede begrænsninger, der er i den AI, du bruger? Begrænsningerne varierer efter AI-model, så det er vigtigt at kende dem for at kunne vælge den bedste AI til den specifikke opgave, den skal løse, for at undgå utilsigtet skadevirkning.

Det er forførende nemt at få en AI som fx ChatGPT til at hjælpe sig med sit arbejde. Det revolutionerende er jo, at vi som ikke-teknikere pludselig har fået adgang til denne enormt kraftfulde teknologi via et simpelt inputfelt, som vi kender det fra Google.

Det er bare at stille et spørgsmål eller give en instruktion, endda på vores eget sprog. Og i løbet af få sekunder kan den skabe chokerende godt og velskrevet indhold. Ofte bedre og hurtigere end vi selv kan. Men vi skal bruge AI med omtanke.

Jeg har derfor udvalgt disse otte AI-begrænsninger, der er vigtige at kende, som bruger af en AI:

  1. Mange AI-modeller beskytter ikke privat og sensitiv information
    Mange AI-modeller, som fx ChatGPT, bruger de data, vi fodrer dem med til at træne deres egne algoritmer. Og de gemmer vores chattråde og vores data på servere, hvor vi ikke har kontrol over hverken sikkerhed, eller hvem der ser med. De lever derfor ikke op til EU’s dataforordning, GDPR. Det er vores ansvar som brugere at overholde persondataloven, så personfølsomme informationer for eksempel ikke bliver lækket, hvis man bruger AI til håndtering af sin kundeservice eller segmenterer kundedata.

    Men brug af AI kan også kompromittere sensitiv virksomhedsinformation. Det er også vores ansvar, at vi ikke bruger en AI-model i vores arbejde, som videregiver forretningskritisk information til glæde for vores konkurrenter. Det kunne være AI-hjælp med at udvikle den nye marketingstrategi, at få lavet en pæn PowerPoint på baggrund af et internt mødereferat eller fejlfinding af computerkode til et nyt produkt.

    Har man ikke allerede en AI-politik på sin arbejdsplads, bør dette prioriteres højt.

  2. AI hallucinerer
    De nyeste AI-sprogmodeller, såsom ChatGPT-4 kan skabe indhold af enorm høj kvalitet, meget hurtigere end noget menneske, og derfor bruger vi dem. Men man skal vide, at man ikke kan stole på alt, hvad en AI siger, selvom den svarer på en særdeles overbevisende måde.

    AI-modellerne har nemlig en tendens til at hallucinere: De kan opfinde deres egne fakta, argumenter og kildehenvisninger – uden belæg i det datasæt, de er trænet på. Derfor bør man validere det indhold, de genererer, inden man bruger det, da det kan skade andre, eller den virksomhed, man arbejder for. Og dermed en selv.

    Læs mere:
    AI hallucinerer og opfinder fakta
    Min yndlings AI-hallucination

  3. AI er begrænset af – os selv!
    Vi er selv en begrænsende faktor i forhold til at udnytte AI og få den til at levere de svar eller det indhold, vi har brug for, i den rigtige kvalitet. Dette afhænger nemlig i høj grad af vores evne til at skrive gode spørgsmål og instruktioner, de såkaldte prompts. Det er en videnskab og en kunstform, og den hedder prompt engineering; det er den vigtigste færdighed, man bør lære lige nu.

    Dårlige prompts til generering af fx nye onlineproduktbeskrivelser eller Google Ads kan påvirke indtjeningen negativt, og det er jo ikke givet, at det står mål med tidsbesparelsen.

    Derfor er uddannelse af alle medarbejdere i prompt engineering en god investering.

  4. AI er en black box
    Et af problemerne med AI er, at vi ikke altid kan få oplyst, hvordan de virker. Vi ved heller ikke, hvilket data de er trænet på, eller hvor stort datasættet er. Dette har betydning for kvaliteten af de svar, en AI kan producere. Vi får heller ikke oplyst kilderne til den information, den benytter, og kan dermed have svært ved at vurdere troværdigheden af svaret.

    Endelig er det værd også at nævne, at de mange AI-understøttede værktøjer, der vælter frem, benytter prompts, vi ikke altid kan se, redigere eller erstatte med egne prompts af højere kvalitet. Dette gør dem risikable at benytte, især når de indgår i systemer, der automatiserer hele opgaveløsningen.

  5. AI har begrænset hukommelse
    AI-modellerne har en begrænset hukommelse, og selvom de jævnligt får mere og mere hukommelse, så er der en øvre grænse for, hvor meget information de kan overskue, og de opgaver vi derfor kan bruge dem til at løse. Det er vigtigt at vide dette for at kunne vælge den rigtige AI-model og for at bruge den hensigtsmæssigt samt få størst mulig kvalitet ud af de svar, den producerer.

    Læs mere: Sådan håndterer du en AI’s begrænsede hukommelse
    Læs min LinkedInpost: Why You Should Prompt in English

  6. Hvornår lærte AI-modellen nyt?
    En AI’s viden, relevans og pålidelighed afhænger også af, hvor ofte den trænes og lærer nyt. De store generelle modeller som ChatGPT kan tage et halvt år at træne, mens de små brugertilpassede og specialiserede AI-modeller kan trænes efter behov og langt hurtigere: fra få timer til uger.

    For eksempel har ChatGPT ikke lært nyt siden april 2023, dvs. at den ikke kender til hændelser, der er sket siden da. Det er selvfølgelig et fremskridt, at ChatGPT-4 nu kan søge på internettet med Bing og bruge resultaterne i sine svar.

  7. AI-modellerne favoriserer engelsk
    ChatGPT og de andre store kommercielle AI-modeller er trænet på enorme tekstmængder fra bl.a. internettet, hvilket jo favoriserer engelsk over andre og mindre sprogområder.

    Derfor har AI-modellerne p.t. store huller i deres viden om fx dansk eller islandsk kultur og samfundsforhold. Faktisk er der mange små sprog, såsom regionale, indfødte eller uddøde sprog, som ChatGPT slet ikke kan forstå.

    Det har selvsagt stor betydning for ens valg af AI. For eksempel er ChatGPT-4 et kæmpe fremskridt i forhold til den gratis version 3.5.

  8. AI er begrænset af indbygget sikkerhed, moral og politik
    AI-modellerne har ofte indbyggede begrænsninger for at sikre, at de ikke bliver misbrugt til at skade andre mennesker eller samfundet som sådan. Det betyder, at der er visse typer af indhold, de ikke vil hjælpe med at producere. Det er selvfølgelig enormt betryggende, at de nægter at hjælpe med at producere kemiske eller biologiske kampstoffer.

    Men når det kommer til politiske, moralske eller religiøse emner, kan det være svært at implementere den rette balancegang. Og derfor kan nogle af disse begrænsninger komme i konflikt med ytrings- eller forskningsfriheden.

    Præcis hvor grænserne for de enkelte AI-modeller ligger, er noget man (måske) finder ud af hen ad vejen. Man kan også møde holdninger i en AI, der afspejler det træningsmateriale, den benytter for at give os et svar, som kan forveksles med den sikkerhed, producenten har indbygget.

Del denne artikel

Picture of Jakob Styrup Brodersen

Jakob Styrup Brodersen

Jeg har arbejdet med datadrevet online optimering i 20 år, i 5 forskellige brancher. Nu arbejder jeg som freelance CRO og AI konsulent: Jeg underviser og rådgiver i, hvordan man kan udnytte fordelene ved AI, og jeg hjælper med at skrive prompts.