Dagens språkmodeller er på ingen måte perfekte, og det er viktig at du er klar over dette.
Har språkmodellene meninger?
Prateroboter som ChatGPT har ikke egne meninger. Dette er maskinlæringsteknologi som genererer svar basert på mønstre i treningsdata, uten å ha en subjektiv oppfatning. OpenAI, Google og andre leverandører av prateroboter har strenge retningslinjer for objektivitet. Utviklerne vil ikke at systemet skal være basert på synsing. Dette vil imidlertid ikke forhindre oss i å bruke prateroboter til å uttrykke våre meninger, hvis vi ønsker det.
Forståelse av konsepter:
Språkmodeller kan misforstå konsepter - ofte fordi de ikke forstår hva som er konteksten i en situasjon. La oss ta en enkel oppgave: To biler står på samme sted. Bil A flyttes hundre meter fremover. Bil B flyttes ti meter bakover. Bil A flyttes tilbake til utgangspunktet. Hvor langt er det mellom dem nå? Prateroboten du spør, vil kanskje svare hundre og ti meter. Den forstår ikke at bil A har flyttet seg tilbake, og at det bare er ti meter mellom dem.
Sammenheng i lengre tekster:
Selv om en praterobot husker tidligere svar i en samtale, kan den noen ganger glemme konteksten. Som vi var inne på i forrige punkt er det heller ikke alltid den forstår kontekst. Dette kan føre til inkonsekvent tekstinnhold i lengre tekster. Hvis prateroboten blir bedt om å skrive en bok, kan manglende forståelse og dårlig «hukommelse» gjøre at innholdet i teksten ikke henger sammen.
Dybde i tekst:
Prateroboter kan skape overfladiske fortellinger. Prateroboter kan generere tekst, men fortellingen mangler dybden som en erfaren forfatter kunne tilført.
Faktagrunnlag:
Språkmodeller har ikke full kontroll over faktagrunnlaget som ligger til grunn for teksten de genererer. Det er viktig å kritisk vurdere informasjonen praterobotene gir.
Sitering og referanser:
Prateroboter kan ha problemer med korrekt sitering og referanser. Det er viktig å være klar over at informasjonen den gir, ikke alltid er basert på faktiske kilder. Prateroboten kan av og til finne opp både sitater og referanser. Hvis du ber en praterobot om å sitere fra en bok, en video eller en tekst, klarer den heller ikke å plassere hermetegn på rett sted. Med mindre det er snakk om veldig berømte sitater, klarer den ikke å markere dem skikkelig som et sitat. Dette kommer av at praterobotene ikke vet hvor informasjonen den genererer, kommer fra.
Kjønnsnøytralitet:
Språkmodeller kan forsterke kjønnsstereotypier, selv om det ikke er intendert. Det er viktig å være bevisst på dette når man bruker slike verktøy. Eksempel: Hvis du ber en praterobot om å skrive en historie om en professor, gjør prateroboten professoren til en mann. Den kan dermed forsterke holdninger om kjønn som allerede eksisterer i samfunnet. Prateroboten kan lage skiller som etableres gjennom antall ganger de er funnet i kildematerialet – men som ikke dermed anses som gyldige i samfunnet.
Krenkelser:
OpenAI, Google og andre leverandører av prateroboter har strenge retningslinjer for å unngå krenkelser. Det er likevel alltid mulig at slike situasjoner kan oppstå.
Humor og politisk nøytralitet:
Humor og politisk nøytralitet er utfordrende for kunstig intelligens. ChatGPT og andre prateroboter kan generere vitser, men de er ikke alltid morsomme. Vitsene kan også ha implisitte politiske holdninger, uten at det var hensikten. Prateroboter forstår hvordan vitser er bygget opp, men de kjenner ikke alle nyansene som trengs for at de skal være morsomme. De tar heller ikke stilling til alle tolkningsmulighetene en vits kan ha. Humor er noe veldig menneskelig, og det er noe av det som er vanskelig å få kunstig intelligens til å mestre.