Hvorfor AI-forfalskede videoer er en fare for nasjonal sikkerhet og forretningssikkerhet

Hvorfor AI-forfalskede videoer er en fare for nasjonal sikkerhet og forretningssikkerhet. Hvis du trodde falske nyheter var dårlige, bare vent til hackere får tak i AI-drevet ansiktsbytteknologi, sier G2 Crowd CRO Michael Fauscette.

Michael Fauscette, CRO for G2 Crowd, forteller til TechRepublic seniorprodusent Dan Patterson at ny AI-teknologi, som lett kan skape falske nyheter, kan være en velsignelse for hackere. Følgende er et redigert utskrift av intervjuet.

Dan Patterson: Kunstig intelligens kan gjøre mange ting, inkludert bytte ansiktet ditt. La oss snakke litt om ... det kan virke som en morsom nyhet, men alvorlige trusler er involvert i AI-basert ansiktsbytte. Hvordan fungerer denne teknologien?

Mer om kunstig intelligens

  • Google DeepMind-grunnlegger Demis Hassabis: Tre sannheter om AI
  • De 10 mest etterspurte AI-jobbene i verden
  • De 3 mest oversett begrensningene av AI i virksomheten
  • Hvordan bli maskinlæringsingeniør: Et jukseark

Michael Fauscette: Vel, det er noe som har utviklet seg veldig raskt det siste, vil jeg si, sannsynligvis et år. Det ble opprinnelig designet, i utgangspunktet et prosjekt, med noen som lekte med teknologi, basert på kunstig intelligens, maskinlæring. Ved hjelp av en ansiktsbytte slags algoritme kan du kutte andres ansikt ut av en video, legge den på noen annens kropp. Som du forventer, var selvfølgelig den første prøven av det ganske røff og ganske lett å fortelle, men i en verden av ting som lærer seg selv hvordan de skal bli bedre, har de lært seg å bli bedre veldig raskt. Og så nå begynner du å se ting som er ganske realistiske, videoer som skildrer et ansikts ansikt på en annen kropp og til og med lyd. Så det er veldig nøyaktig.

Dan Patterson : Når du sier at lærte seg selv, eller lærte, er dette AI som bruker 'rekursiv læring' for å forbedre?

Michael Fauscette: Det er riktig. Så det er egentlig bare maskinlæring eller dyplæring som tar en algoritme som gjør noe aktivitet, og deretter, ganske enkelt over tid, forbedrer seg selv, basert på forskjellige faktorer, og tilbakemeldinger, selvfølgelig. Jeg skal si deg, akkurat som et eksperiment, tok vi en av våre medarbeidere på markedsføringsteamet, noen som egentlig ikke hadde noen videoredigering eller spesielle ferdigheter, men som bare har gjort noen ting på egen hånd. Og i løpet av et døgn hadde han produsert en video som var ganske overbevisende, med en av forskerspesialistene mine som snakket ved å klippe og ta på en annen kropp, og så sette ordene i munnen så å si.

Dan Patterson: Så hva er den potensielle risikoen eller farene for næringspolitikk og andre næringer?

Michael Fauscette: Hvis du tenker på ordtaket om at oppfatningens virkelighet, tror jeg at du begynner å åpne for noen virkelig farlige situasjoner for næringslivet, og så som du sa, for regjeringen, men ta først saken og over de siste par år har aktiviteter for ransomware økt både i bystyre, som Atlanta-eksemplet nylig, og selvfølgelig for virksomheter som blir holdt løsepenger basert på en innsetting av ondsinnet programvare. Vel nå, ta det videre og gå, Oh, jeg kunne sette sammen en video som er overbevisende som viser at administrerende direktør tar bestikkelse eller gir bestikkelse eller gjør noe med en kvinne eller en eskorte eller hva som helst. Det er alle disse forskjellige potensielle tilfellene som får deg til å se ut som om du gjorde noe du normalt ikke ville gjort.

Zuckerberg hopper over global hørsel på falske nyheter og irriterer politikere (CNET)

Og selvfølgelig over tid med eksperter, kan du bevise det galt, men treffet for aksjekursen din, for eksempel, som ikke kommer seg så lett som du faktisk tror. Og i det øyeblikket kan det se veldig dårlig ut. Regjeringen, enda verre. De er slags offentlige tjenestemenn som tar bestikkelser eller kommenterer raser eller tjenestemenn dukker opp på steder og gjør ting som de normalt ikke ville ha gjort, eller til og med i kompromitterende stillinger, spioner eller kriminelle eller soldater som gjør grufulle ting i en krigssone. Det er alle slags scenarier der som igjen, i øyeblikket, til og med for et valg. Du har en kandidat som gjør noe som virkelig var uten karakter, ingen kunne forvente, men det har innvirkningen av å skape den forstyrrelsen i valget som kan føre til at de taper. Du kan se at det bare er mange scenarier som høres urovekkende ut, det er bare en måte å si det på

Dan Patterson: Som journalist der tillit til publikum og redaktører er en kritisk del av jobben, kan jeg se mange potensielt forferdelige bruksområder for denne typen teknologi. Akkurat nå er teknologien pakket som slags kuttete AR-apper, men hvor allment tilgjengelig er denne teknologien til våpenformål? Jeg tenker spesielt på skyggemeglere, lekkasje av NSA-nettvåpen, selv om det er innrammet som nettvåpen til å begynne med. Denne typen teknologi virker som den er veldig lett våpenutviklet. Hvor nøyaktig er det?

Michael Fauscette: Vel, det er veldig nøyaktig. Det hele startet egentlig med en reddit eller subreddit skulle jeg si, og noen kode som ble lagt ut der med noen videoer, selvfølgelig, og som til slutt ble lagt ned, men koden var allerede i naturen, og da var det selvfølgelig var et åpen kildekode-prosjekt, og det ble lagt inn på noen forskjellige nettsteder der du kan laste ned koden og du kan forbedre den. Så når koden er ute i naturen, betyr det at mange mennesker har tilgang til den, og den bare fortsetter å vises på forskjellige steder, slik at du ikke virkelig kan eliminere den, og det er virkelig ingen måte å kontrollere den på, og den fortsetter bare for å bli bedre med hver slags overlevering.

Deepfakes er en trussel mot nasjonal sikkerhet, sier lovgivere (CNET)

Dan Patterson: Mal et bilde for oss av det neste, si 18 til 36 måneder. Er det noen måte at denne typen teknologi blir distribuert av positive grunner, eller ser vi på en slags gal falske nyheter fremtid der falske mennesker blir blandet inn med falske nyheter?

Michael Fauscette: Dessverre ser jeg ikke en virkelig slags positiv bruk-sak for teknologien, og jeg tror at den kommer til å forbedre seg. Jeg tror det veldig godt kan skape noen veldig dårlige situasjoner, enten fra et forretningsmessig perspektiv, eller økonomisk, eller, fra et statlig perspektiv. Du kan tenke på alle slags scenarier der.

Vi blir flinkere på et par ting, vi blir flinkere til å bygge teknologi for å prøve å identifisere. Men problemet, selvfølgelig, med det, er at i øyeblikket kan skaden gjøres før du kunne komme til poenget med å identifisere den. Til og med en slags digitale sertifikater vi kanskje kunne bruke, for å bevise at noen videoer er herkomst. Men igjen, øyeblikket er problemet, og det er i det minste en stor risiko rundt det, og det falske nyhetsproblemet i det minste.

Nyhetsbrev om innovasjon

Vær kjent med smarte byer, AI, Internet of Things, VR, AR, robotikk, droner, autonom kjøring og mer av de kuleste teknologiske nyvinningene. Leveres onsdager og fredager

Registrer deg i dag

© Copyright 2020 | mobilegn.com