SHERPA Consortium: Hvis AI kunne føle det, ville det frykte cyberangrep fra folk



Artificial intelligence (AI) is rapidly finding applications in nearly every walk of life. Self-driving cars, social media networks, cyber security companies, and everything in between uses it. But a new report published by the SHERPA consortium - an EU project studying the impact of AI on ethics and human rights that F-Secure joined in 2018 - finds that while human attackers have access to machine learning techniques, they currently focus most of their efforts on manipulating existing AI systems for malicious purposes instead of creating new attacks that would use machine learning.

Studiens primære fokus er på hvordan ondsinnede aktører kan misbruke AI, maskinlæring og smarte informasjonssystemer. Forskerne identifiserer en rekke potensielt ondsinnede bruksområder for AI som er innen rekkevidde av dagens angripere, inkludert oppretting av sofistikert desinformasjon og sosialteknisk kampanjer. Og selv om forskningen ikke fant noe endelig bevis på at ondsinnede aktører for tiden bruker AI for å drive cyberangrep, fremhever de at motstandere allerede angriper og manipulerer eksisterende AI-systemer som brukes av søkemotorer, selskaper i sosiale medier, anbefalingsnettsteder og mer.
F-Secures Andy Patel, forsker med selskapets kunstige intelligenssenter for fremragende kunnskap, tror mange vil synes dette er overraskende. Populære skildringer av AI antyder at den vil slå mot oss og begynne å angripe folk på egen hånd. Men den nåværende virkeligheten er at mennesker angriper AI-systemer med jevne mellomrom.

'Noen mennesker likestiller maskinell intelligens feil med menneskelig intelligens, og jeg tror det er grunnen til at de forbinder trusselen om AI med drapsmaskineri og datamaskiner utenfor kontrollen,' forklarer Patel. 'Men menneskelige angrep mot AI skjer faktisk hele tiden. Sybil-angrep designet for å forgifte AI-systemene folk bruker hver dag, som anbefalingssystemer, er en vanlig forekomst. Det er til og med selskaper som selger tjenester for å støtte denne oppførselen. Så ironisk nok har dagens AI-systemer mer å frykte fra mennesker enn omvendt. '

Sybil-angrep involverer en enkelt enhet som oppretter og kontrollerer flere falske kontoer for å manipulere dataene som AI bruker for å ta avgjørelser. Et populært eksempel på dette angrepet er å manipulere rangeringer av søkemotorer eller anbefalingssystemer for å promotere eller nedgradere bestemte deler av innholdet. Imidlertid kan disse angrepene også brukes til å sosialisere ingeniører i målrettede angrepscenarier.

- Disse typer angrep er allerede ekstremt vanskelige for online tjenesteleverandører å oppdage, og det er sannsynlig at denne oppførselen er langt mer utbredt enn noen helt forstår, sier Patel, som har gjort omfattende undersøkelser om mistenkelig aktivitet på Twitter.

Men kanskje AIs mest nyttige applikasjon for angripere i fremtiden vil være å hjelpe dem med å lage falskt innhold. Rapporten bemerker at AI har avansert til et punkt der den kan fremstille ekstremt realistisk skrevet, lyd og visuelt innhold. Noen AI-modeller er til og med blitt holdt tilbake fra publikum for å forhindre at de blir misbrukt av angripere.

'For øyeblikket er vår evne til å lage overbevisende falske innhold langt mer sofistikert og avansert enn vår evne til å oppdage det. Og AI hjelper oss med å bli flinkere til å fremstille lyd, video og bilder, som bare vil gjøre desinformasjon og falske innhold mer sofistikert og vanskeligere å oppdage, sier Patel. 'Og det er mange forskjellige bruksområder for overbevisende, falskt innhold, så jeg regner med at det kan ende opp med å bli problematisk.'

Studien ble produsert av F-Secure og dets partnere i SHERPA - et EU-finansiert prosjekt grunnlagt i 2018 av 11 organisasjoner fra 6 forskjellige land. Ytterligere funn og emner dekket i studien inkluderer:
  • Motstandere vil fortsette å lære å kompromittere AI-systemer når teknologien sprer seg
  • Antall måter angripere kan manipulere resultatet av AI gjør slike angrep vanskelig å oppdage og herde mot
  • Krefter som konkurrerer om å utvikle bedre typer AI til offensive / defensive formål, kan ende med å utfelle et 'AI våpenløp'
  • Å sikre AI-systemer mot angrep kan føre til etiske problemer (for eksempel kan økt overvåking av aktivitet krenke brukerens personvern)
  • AI-verktøy og modeller utviklet av avanserte, velutstyrte trusselaktører vil etter hvert spre seg og bli adoptert av lavere dyktige motstandere
    SHERPA prosjektkoordinator professor Bernd Stahl fra De Montfort University Leicester sier F-Secures rolle i SHERPA som eneste partner fra cybersikkerhetsbransjen er å hjelpe prosjektet med å redegjøre for hvordan ondsinnede aktører kan bruke AI for å undergrave tilliten til samfunnet.
Målet med vårt prosjekt er å forstå etiske og menneskerettighetsmessige konsekvenser av AI og big data-analyse for å bidra til å utvikle måter å adressere disse på. Dette arbeidet må være basert på en solid forståelse av tekniske evner så vel som sårbarheter, et avgjørende kompetanseområde som F-Secure bidrar til konsortiet, sier Stahl. 'Vi kan ikke ha meningsfulle samtaler om menneskerettigheter, personvern eller etikk i AI uten å vurdere cybersikkerhet. Og som en pålitelig
Kilde til sikkerhetskunnskap, F-Secures bidrag er en sentral del av prosjektet. '

The full-length study is currently available here. More information on artificial intelligence and cyber security is available on F-Secure's blog, or F-Secure's News from the Labs research blog.