Moderna tehnologija donijela je razne mogućnosti kojima se korisnicima prezentira neistina Moderna tehnologija donijela je razne mogućnosti kojima se korisnicima prezentira neistina
Laži i krivotvorine nisu ništa novo. Sposobnost da se izmijeni realnost doživljava eksponencijalni rast sa “deepfake” tehnologijom. Ova tehnologija omogućava da se stvore audio... Moderna tehnologija donijela je razne mogućnosti kojima se korisnicima prezentira neistina

Laži i krivotvorine nisu ništa novo. Sposobnost da se izmijeni realnost doživljava eksponencijalni rast sa “deepfake” tehnologijom. Ova tehnologija omogućava da se stvore audio i video uradci na kojima ljudi govore i rade stvari koje nikad nisu rekli ili uradili. Tehnike učenja mašina su eskalacija visoko sofisticirane tehnologije, čineći „deepfake“ tehnologiju realističnijom i sve više otpornom na otkrivanje. „Deepfake“ tehnologija ima karakteristike koje omogućuju ubrzanu i raširenu difuziju, stavljanje u ruke eksperata ili onih koji to nisu.

Iako će „deepfake“ tehnologija donijeti sa sobom određene benefite, ona će predstavljati snažan sigurnosni izazov. Moderna tehnologija već je donijela razne mogućnosti da se korisnicima prezentira neistina. „Deepfake“ tehnologija će znatno pogoršati ovaj problem. Pojedinci i poslovi će se suočiti sa novim oblicima eksploatacije, zastrašivanja i sabotaže. Rizici za nacionalnu bezbijednost se mogu umnogostručiti.

Na najosnovnijoj razini „deepfake“ su laži prerušene u istinu“, kaže Andrea Hickerson, direktorica škole novinarstva i masovnih komunikacija na Sveučilištu u Južnoj Karolini. “Ako ih uzmemo kao istinu ili dokaz, lako možemo donijeti lažne zaključke s potencijalno katastrofalnim posljedicama.” Puno se straha, od ove tehnologije, s pravom tiče politike, kaže Hickerson. “Što se događa ako upotrebom ove tehnologije kreirani videozapis bude prikazivao političkog lidera koji potiče na nasilje? Mogu li druge zemlje biti prisiljene na akciju ako prijetnja bude djelovala kao jako ozbiljna?

Potencijal da utiče na ishod izbora također je sasvim realna, posebno ako napadač bude u stanju na vrijeme distribuirati sadržaj kreiran putem „deepfake“ tehnologije.  Tako će dobiti  dovoljno prostora za cirkulaciju lažnog sadržaja, ali ne i dovoljno prostora za žrtvu da ga efikasno raskrinka (pod pretpostavkom da može biti raskrinkana).

Zamišljena je web stranica „Deepnudes“ na kojoj bi se poznata lica i lica običnih žena mogla postaviti na pornografski video sadržaj. Osnivač kompanije „Deepnudes“ na kraju je otkazao pokretanje web lokacije, strahujući od „velike vjerovatnoće da će ljudi sadržaje zloupotrijebiti.“ Pitanje je, za šta bi se lažni pornografski sadržaj mogao služiti, osim za zloupotrebu?

Kako se kapacitet produkcije „deepfake“ sadržaja sve više širi, novinari će se susresti s dilemom: kad neko dostavi video ili audio dokaze o događaju koji je vrijedan vijesti, može li se vjerovati njegovoj autentičnosti? To nije novo pitanje, ali na to će biti teže odgovoriti zbog nove tehnologije koja se širi. Novinske organizacije mogu biti obeshrabrene da brzo objave stvarne, uznemirujuće sadržaje iz straha da će se pokazati lažnim.

U prošlosti, kako su se pojavili novi oblici informacija i dezinformacija, društvo je razvilo antitijela za suočavanje s njima: malo ljudi bi se sada zavaravalo propagandom iz Prvog svjetskog rata.  Ipak, svijet se mijenja tako brzo da možda ovaj put nećemo moći razviti ta antitijela, pa čak i ako to učinimo, to bi moglo potrajati godinama. Nadamo se da ova tehnologija neće doći u ruke ljudi sa zlim namjerama, što je osnovni preduslov da ne dođe do njene šire zloupotrebe.

Za Intelektualno.com priredio: Faris Marukić

Facebook komentar

Intelektualno