Indholdsfortegnelse:

Dybe forfalskninger: Neuroset blev lært at generere lyd- og videoforfalskninger
Dybe forfalskninger: Neuroset blev lært at generere lyd- og videoforfalskninger

Video: Dybe forfalskninger: Neuroset blev lært at generere lyd- og videoforfalskninger

Video: Dybe forfalskninger: Neuroset blev lært at generere lyd- og videoforfalskninger
Video: Singapore’s Bold Plan to Build the Farms of the Future 2024, April
Anonim

For at skabe et "individuelt" nyhedsbillede for nogen af os og forfalske de medierapporter, der er udvalgt i det, er indsatsen fra en programmør nok i dag. Specialister i kunstig intelligens og cybersikkerhed fortalte Izvestia om dette.

For nylig vurderede de, at dette krævede arbejdet fra flere teams. En sådan acceleration er blevet mulig med udviklingen af teknologier til angreb på neurale netværk og generering af lyd- og videoforfalskninger ved hjælp af programmer til at skabe "dybe forfalskninger". Avisen Izvestia blev for nylig udsat for et lignende angreb, da tre libyske nyhedsportaler på én gang offentliggjorde en besked, der angiveligt dukkede op i et af numrene. Ifølge eksperter kan vi inden for 3-5 år forvente en invasion af robotmanipulatorer, som automatisk vil være i stand til at skabe en masse forfalskninger.

Fagre nye verden

Der er flere og flere projekter, der tilpasser informationsbilledet til specifikke brugeres opfattelse. Et eksempel på deres arbejde var den seneste handling fra tre libyske portaler, som offentliggjorde en nyhed, der angiveligt blev offentliggjort i nummeret af Izvestia den 20. november. Skaberne af den falske ændrede avisens forside og lagde en besked på den om forhandlingerne mellem feltmarskal Khalifa Haftar og premierministeren for regeringen for national overenskomst (PNS) Fayez Sarraj. Den falske, i Izvestia-skrifttype, blev ledsaget af et billede af de to ledere taget i maj 2017. Etiketten med publikationens logo er klippet fra det faktiske udgivne nummer af 20. november, og alle andre tekster på siden fra 23. oktober-nummeret.

Fra specialisters synspunkt kan sådanne forfalskninger i en overskuelig fremtid udføres automatisk.

The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture

"Teknologier til kunstig intelligens er nu fuldstændig åbne, og enheder til at modtage og behandle data miniaturiseres og bliver billigere," Yuri Vilsiter, doktor i fysiske og matematiske videnskaber, professor ved det russiske videnskabsakademi, leder af FSUE "GosNIIAS"-afdelingen, fortalte Izvestia. - Derfor er det højst sandsynligt, at ikke engang staten og store virksomheder, men blot private, i den nærmeste fremtid vil kunne aflytte og spionere på os, samt manipulere med virkeligheden. I de kommende år vil det være muligt, ved at analysere brugerpræferencer, at påvirke ham gennem nyhedsfeeds og meget smarte forfalskninger.

Ifølge Yuri Vilsiter eksisterer der allerede teknologier, der kan bruges til en sådan intervention i det psykiske miljø. I teorien kan invasionen af robotrobotter forventes om et par år, sagde han. Et begrænsende punkt her kan være behovet for at indsamle store databaser med eksempler på rigtige menneskers reaktioner på kunstige stimuli med sporing af langsigtede konsekvenser. Sådan sporing vil sandsynligvis kræve flere års forskning, før målrettede angreb konsekvent opnås.

Synsangreb

Alexey Parfentiev, leder af analyseafdelingen hos SearchInform, er også enig med Yuri Vilsiter. Ifølge ham forudsiger eksperter allerede angreb på neurale netværk, selvom der nu praktisk talt ikke er sådanne eksempler.

- Forskere fra Gartner mener, at i 2022 vil 30 % af alle cyberangreb være rettet mod at korrumpere de data, som det neurale netværk er trænet på, og at stjæle færdige maskinlæringsmodeller. Så kan for eksempel ubemandede køretøjer pludselig begynde at tage fejl af fodgængere for andre objekter. Og vi vil ikke tale om økonomisk eller omdømmemæssig risiko, men om almindelige menneskers liv og helbred, mener eksperten.

Angreb på computervisionssystemer udføres nu som en del af forskningen. Formålet med sådanne angreb er at få det neurale netværk til at opdage noget i billedet, som ikke er der. Eller omvendt ikke at se, hvad der var planlagt.

The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture

"Et af de aktivt udviklende emner inden for træning af neurale netværk er de såkaldte modstridende angreb ("adversarielle angreb. "- Izvestia)," forklarede Vladislav Tushkanov, en webanalytiker hos Kaspersky Lab. - I de fleste tilfælde er de rettet mod computervisionssystemer. For at udføre et sådant angreb skal du i de fleste tilfælde have fuld adgang til det neurale netværk (de såkaldte white-box-angreb) eller resultaterne af dets arbejde (black-box-angreb). Der er ingen metoder, der kan bedrage noget computersynssystem i 100 % af tilfældene. Derudover er der allerede skabt værktøjer, der giver dig mulighed for at teste neurale netværk for modstand mod kontradiktoriske angreb og øge deres modstand.

I løbet af et sådant angreb forsøger angriberen på en eller anden måde at ændre det genkendte billede, så det neurale netværk ikke fungerer. Ofte lægges der støj oven på billedet, svarende til det, der opstår ved fotografering i et dårligt oplyst rum. En person bemærker normalt ikke sådan interferens godt, men det neurale netværk begynder at fungere dårligt. Men for at udføre et sådant angreb skal angriberen have adgang til algoritmen.

Ifølge Stanislav Ashmanov, generaldirektør for Neuroset Ashmanov, er der i øjeblikket ingen metoder til at håndtere dette problem. Derudover er denne teknologi tilgængelig for alle: En gennemsnitlig programmør kan bruge den ved at downloade den nødvendige open source-software fra Github-tjenesten.

The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture

- Et angreb på et neuralt netværk er en teknik og algoritmer til at bedrage et neuralt netværk, som får det til at producere falske resultater, og faktisk bryde det som en dørlås, - mener Ashmanov. - For eksempel er det nu ret nemt at få ansigtsgenkendelsessystemet til at tro, at det ikke er dig, men Arnold Schwarzenegger foran det - dette gøres ved at blande tilsætningsstoffer, der er umærkelige for det menneskelige øje, i de data, der kommer til det neurale netværk. De samme angreb er mulige for talegenkendelses- og analysesystemer.

Eksperten er sikker på, at det kun vil blive værre - disse teknologier er gået til masserne, svindlere bruger dem allerede, og der er ingen beskyttelse mod dem. Da der ikke er nogen beskyttelse mod automatisk oprettelse af video- og lydforfalskninger.

Dybe forfalskninger

Deepfake-teknologier baseret på Deep Learning (teknologier til deep learning af neurale netværk. - Izvestia) udgør allerede en reel trussel. Video- eller lydforfalskninger skabes ved at redigere eller overlejre ansigter på kendte personer, der angiveligt udtaler den nødvendige tekst og spiller den nødvendige rolle i plottet.

"Deepfake giver dig mulighed for at erstatte læbebevægelser og menneskelig tale med video, hvilket skaber en følelse af realisme af, hvad der sker," siger Andrey Busargin, direktør for afdelingen for innovativ brandbeskyttelse og intellektuel ejendomsret hos Group-IB. - Falske berømtheder "tilbyder" brugere på sociale netværk at deltage i udtrækningen af værdifulde præmier (smartphones, biler, pengesummer) osv. Links fra sådanne videopublikationer fører ofte til svigagtige og phishing-websteder, hvor brugere bliver bedt om at indtaste personlige oplysninger, herunder bankkortoplysninger. Sådanne ordninger udgør en trussel mod både almindelige brugere og offentlige personer, der omtales i reklamer. Denne form for fidus begynder at forbinde berømthedsbilleder med fupnumre eller annoncerede varer, og det er her, vi løber ind i personlige brandskader, siger han.

The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neurale Networks Teught to Fake the News Picture

En anden trussel er forbundet med brugen af "falske stemmer" til telefonsvindel. I Tyskland brugte cyberkriminelle f.eks. voice deepfake til at få lederen af et datterselskab fra Storbritannien til omgående at overføre 220.000 € i en telefonsamtale, idet de udgav sig for at være virksomhedsleder.ind på en ungarsk leverandørs konto. Lederen af det britiske firma havde mistanke om et trick, da hans "chef" bad om en ny postanvisning, men opkaldet kom fra et østrigsk nummer. På dette tidspunkt var den første rate allerede blevet overført til en konto i Ungarn, hvorfra pengene blev trukket til Mexico.

Det viser sig, at de nuværende teknologier giver dig mulighed for at skabe et individuelt nyhedsbillede fyldt med falske nyheder. Desuden vil det snart være muligt kun at skelne falske fra ægte video og lyd ved hjælp af hardware. Ifølge eksperter er det usandsynligt, at foranstaltninger, der forbyder udvikling af neurale netværk, vil være effektive. Derfor vil vi snart leve i en verden, hvor det vil være nødvendigt konstant at kontrollere alt igen.

"Vi er nødt til at forberede os på dette, og dette skal accepteres," understregede Yuri Vilsiter. - Menneskeheden er ikke første gang, der går fra en virkelighed til en anden. Vores verden, levevis og værdier er radikalt anderledes end den verden, som vores forfædre levede i for 60.000 år siden, 5.000 år siden, 2.000 år siden og endda for 200-100 år siden. I den nærmeste fremtid vil en person stort set blive berøvet privatlivets fred og derfor tvunget til ikke at skjule noget og handle ærligt. Samtidig kan intet i den omgivende virkelighed og i ens egen personlighed tages på tro, alt vil skulle stilles spørgsmålstegn ved og konstant gentjekkes. Men vil denne fremtidige virkelighed være forfærdelig? Ingen. Det bliver simpelthen helt anderledes.

Anbefalede: