Chat GPT utfordrer sikkerheten – men det finnes motgift

Chat GPT AI

Nettfiskeangrep som overtaler mottakerne til å oppgi personlig, verdifull informasjon er fortsatt en alvorlig trussel i 2023. Chatboter som Chat GPT og AI-generert tekst utfordrer sikkerheten ytterligere fordi angripere kan skape troverdig innhold i stor skala uten å måtte legge inn stor innsats.

Chat GPT, utviklet av det ideelle forskningsselskapet OpenAI, forventes å skape en bølge av AI-baserte nettfiskeangrep. Utviklingen skjer raskt og vi leser daglig om hvordan Chat GPT har endret spillefeltet gjennom å generere velskrevet tekst på et øyeblikk.

Heldigvis forventes det at verktøy som med ulike metoder kan identifisere og varsle om AI-generert innhold innlemmes i plattformer for motvirking av phishing. To eksempler er GPT-2 Output Detector og vannmerking, som er under utvikling.

GPT-2 Output Detector
I en online-demo av GPT-2 Output Detector kan brukeren lime inn tekst i en rute og umiddelbar se sannsynligheten for om teksten er skrevet av AI. I følge forsking fra OpenAI har verktøyet en relativt høy deteksjonsgrad, men behøver å kombineres med metadatabaserte metoder og menneskelig dømmekraft for å bli mer effektivt. 

– Hvis OpenAI-ingeniører lykkes med å skape en bot som kan skrive like bra som eller bedre enn et menneske, så er det naturlig å forvente at de også kan utvikle en bot som oppdager når en tekst er AI-generert, sier Peter Graymon, ansvarlig for Barracuda Networks i Norden.

Vannmerking
En annen metode for å angripe problemet er å vannmerke all Chat GPT-generert tekst. I følge OpenAI-forskeren Scott Aaronson har ingeniører allerede bygget en fungerende prototype som vannmerker all tekst som skapes av OpenAI. Dette fungerer ved at verktøyet bruker det Aaronson kaller en "kryptografisk pseudoslumpfunksjon". Bare OpenAI har tilgang til nøkkelen.

– Vi må gå ut fra at nettfiskeangrepene kommer til å øke i både volum og troverdighet, sier Graymon.

Mange digitale prosesser må trolig revurderes framover fordi det nåværende nivået av tillit ikke lenger er mulig ettersom AI-generert tekst og e-poster har blitt et viktig verktøy for cyberkriminelle.

– At aktører utnytter Chat GPT og lignende løsninger bidrar også til at vi må revurdere måten vi mennesker tar i bruk og vurderer innhold som kan se veldig troverdig og velskrevet ut, avslutter Graymon.
 

LES OGSÅ: