Aizvērt sludinājumu

Deepfake – tehnoloģija, kas ļauj fotogrāfijās un videoklipos aizstāt cilvēku sejas ar kāda cita sejām, pēdējos gados ir attīstījusies līdz tādai formai, kurā atšķirība starp īstu kadru un viltotiem datiem kļūst arvien sarežģītāka. Piemēram, vietnēs ar pornogrāfisku saturu dziļi viltojums tiek izmantots, lai izveidotu aizraujošus videoklipus ar slavenu aktieru līdzībām. Protams, tas viss notiek bez uzbrukušo personību piekrišanas, un, pateicoties tehnoloģiju pieaugošajai sarežģītībai, izmantojot mašīnmācīšanos, izplatās bailes par citiem iespējamiem tās ļaunprātīgas izmantošanas veidiem. Draudi, ka viltojums varētu pilnībā diskreditēt digitālos ierakstus kā pierādījumus tiesas prāvās, ir reāls un karājas pār tiesu sektoru kā Damokla zobens. Labās ziņas tagad nāk no Truepic, kur viņi ir izstrādājuši vienkāršu veidu, kā pārbaudīt ierakstu autentiskumu.

Tās veidotāji jauno tehnoloģiju nosauca par Foresight, un tā vietā, lai veiktu papildu video analīzi un noteiktu, vai tas ir dziļš viltojums, tā izmanto atsevišķu ierakstu sasaisti ar aparatūru, kurā tie tika izveidoti, lai nodrošinātu autentiskumu. Foresight atzīmē visus ierakstus, kad tie ir izveidoti, izmantojot īpašu šifrētu metadatu kopu. Dati tiek glabāti izplatītos formātos, lapas priekšskatījumā Android Policija uzņēmums pierādīja, ka šādā veidā aizsargātu attēlu var saglabāt JPEG formātā. Tāpēc nav jābaidās no nesaderīgiem datu formātiem.

Bet tehnoloģija cieš no mazu mušu rindas. Vislielākais, iespējams, ir fakts, ka failos vēl nav ierakstītas tajos veiktās izmaiņas. Risinājums ir iesaistīt vairāk uzņēmumu, kas atbalstītu šo drošības metodi. Tehnoloģijas panākumus tādējādi galvenokārt noteiks lielāko kameru un mobilo ierīču ražotāju iesaistīšanās ar Samsung un Applem. Vai jūs baidāties, ka kāds varētu ļaunprātīgi izmantot jūsu izskatu? Dalieties savā viedoklī ar mums diskusijā zem raksta.

Šodien visvairāk lasītais

.