Har du styr på de indbyggede begrænsninger, der er i den AI, du bruger? Begrænsningerne varierer efter AI-model, så det er vigtigt at kende dem for at kunne vælge den bedste AI til den specifikke opgave, den skal løse, og for at undgå utilsigtet skadevirkning.
Det er forførende nemt at få en AI som fx ChatGPT til at hjælpe sig med sit arbejde. Det revolutionerende er jo, at vi som ikke-teknikere pludselig har fået adgang til denne enormt kraftfulde teknologi via et simpelt inputfelt, som vi kender det fra Google.
Det er bare at stille et spørgsmål eller give en instruktion, endda på vores eget sprog. Og i løbet af få sekunder kan den skabe chokerende godt og velskrevet indhold. Ofte bedre og hurtigere end vi selv kan. Men vi skal bruge AI med omtanke.
Jeg har derfor udvalgt disse 8 AI-begrænsninger, der er vigtige at kende, som bruger af en AI som fx ChatGPT, Gemini eller Deepseek:
- Mange AI-modeller beskytter ikke privat og sensitiv information
Mange AI-modeller, som fx ChatGPT, bruger de data, vi fodrer dem med til at træne deres egne algoritmer. Og de gemmer vores chattråde og vores data på servere, hvor vi ikke har kontrol over hverken sikkerhed, hvem der ser med, eller hvad vores data bruges til.De lever derfor ikke op til EU’s dataforordning, GDPR. Det er vores ansvar som brugere at overholde persondataloven, så personfølsomme informationer for eksempel ikke bliver lækket, hvis man bruger AI til håndtering af sin kundeservice eller segmenterer kundedata.
Men brug af AI kan også kompromittere sensitiv virksomhedsinformation. Det er også vores ansvar, at vi ikke bruger en AI-model i vores arbejde, som videregiver forretningskritisk information til glæde for vores konkurrenter. Det kunne være AI-hjælp med at udvikle den nye marketingstrategi, at få lavet en pæn PowerPoint på baggrund af et internt mødereferat eller fejlfinding af computerkode til et nyt produkt.
Har man ikke allerede en AI-politik på sin arbejdsplads, bør dette prioriteres højt.
- AI hallucinerer
De nyeste AI-sprogmodeller, såsom ChatGPT-4o kan skabe indhold af enorm høj kvalitet, meget hurtigere end noget menneske, og derfor bruger vi dem. Men man skal vide, at man ikke kan stole på alt, hvad en AI siger, selvom den svarer på en særdeles overbevisende måde.AI-modellerne har nemlig en tendens til at hallucinere: De kan opfinde deres egne fakta, argumenter og kildehenvisninger – uden belæg i det datasæt, de er trænet på. Derfor bør man validere det indhold, de genererer, inden man bruger det, da det kan skade andre, eller den virksomhed, man arbejder for. Og dermed en selv.
Læs mere:
AI hallucinerer og opfinder fakta
Min yndlings AI-hallucination - AI er begrænset af – os selv!
Vi er selv en begrænsende faktor i forhold til at udnytte AI og få den til at levere de svar eller det indhold, vi har brug for, i den rigtige kvalitet. Dette afhænger nemlig i høj grad af vores evne til at skrive gode spørgsmål og instruktioner, de såkaldte prompts. Det er den vigtigste færdighed, man bør lære lige nu.Dårlige prompts til generering af fx nye onlineproduktbeskrivelser eller Google Ads kan påvirke indtjeningen negativt, og det er jo ikke givet, at det står mål med tidsbesparelsen.
Derfor er uddannelse af alle medarbejdere en god investering.
Læs mere:
Skriv bedre prompts med et promptkort - AI er en black box
Et af problemerne med AI er, at vi ikke altid kan få oplyst, hvordan de virker. Vi ved heller ikke, hvilket data de er trænet på, eller hvor stort datasættet er. Dette har betydning for kvaliteten af de svar, en AI kan producere. Vi får heller ikke oplyst kilderne til den information, den benytter, og kan dermed have svært ved at vurdere troværdigheden af svaret.Endelig er det værd at nævne, at de mange AI-understøttede værktøjer, der vælter frem, benytter prompts, vi ikke altid kan se, redigere eller erstatte med egne prompts af højere kvalitet. Dette gør dem risikable at benytte, især når de indgår i systemer, der automatiserer hele opgaveløsningen.
- AI har begrænset hukommelse
AI-modellerne har en begrænset hukommelse, og selvom de jævnligt får mere og mere hukommelse, så er der en øvre grænse for, hvor meget information de kan behandle, og de opgaver vi derfor kan bruge dem til at løse. Det er vigtigt at vide for at kunne vælge den rigtige AI-model og for at bruge den hensigtsmæssigt for at få størst mulig kvalitet ud af de svar, den producerer. - Hvornår lærte AI-modellen nyt?
En AI’s viden, relevans og pålidelighed afhænger også af, hvor ofte den trænes og lærer nyt. For eksempel har ChatGPT-4o ikke lært nyt siden oktober 2023, dvs. at den ikke kender til hændelser, der er sket siden da.
Det er selvfølgelig et fremskridt, at ChatGPT nu kan søge på internettet bruge resultaterne i sine svar. Men den gør det ikke automatisk. Og mange AI’er kan slet ikke gå på nettet. - AI-modellerne favoriserer engelsk
ChatGPT og de andre store kommercielle AI-modeller er trænet på enorme tekstmængder fra især internettet, hvilket jo favoriserer engelsk over andre og mindre sprogområder.Derfor har AI-modellerne store huller i deres viden om fx dansk eller islandsk kultur og samfundsforhold. Faktisk er der mange små sprog, såsom regionale, indfødte eller uddøde sprog, som AI’erne slet ikke kan forstå.
Det har selvsagt stor betydning for ens valg af AI.
Læs mere:
Why You Should Prompt in English - AI er begrænset af indbygget sikkerhed, moral og politik
AI-modellerne har ofte indbyggede begrænsninger for at sikre, at de ikke bliver misbrugt til at skade andre mennesker eller samfundet som sådan. Det betyder, at der er visse typer af indhold, de ikke vil hjælpe med at producere. Det er selvfølgelig enormt betryggende, at de nægter at hjælpe med at producere kemiske eller biologiske kampstoffer.
Men når det kommer til politiske, moralske eller religiøse emner, kan det være svært at implementere den rette balancegang. Og derfor kan nogle af disse begrænsninger komme i konflikt med ytrings- eller forskningsfriheden.
Præcis hvor grænserne for de enkelte AI-modeller ligger, er noget man som bruger finder ud af hen ad vejen. Man kan også møde holdninger i en AI, der afspejler det træningsmateriale, den benytter for at give os et svar, som kan forveksles med de holdninger producenten har indbygget.
