Hvorfor bedriftsledere bør være bekymret for AI-drevet ansiktsbytteknologi

Hvorfor AI-forfalskede videoer er en fare for nasjonal sikkerhet og forretningssikkerhet. Hvis du trodde falske nyheter var dårlige, bare vent til hackere får tak i AI-drevet ansiktsbytteknologi, sier G2 Crowd CRO Michael Fauscette.

Tech Patterson's Dan Patterson snakket med Michael Fauscette, CRO for programvareløsningsselskapet, G2 Crowd om trusselen som utgjør ansiktsbytteknologi.

Se videoen, eller les en transkripsjon av samtalen deres nedenfor:

Patterson: Michael, la oss snakke litt om, det kan virke som en morsom nyhet, men de alvorlige truslene knyttet til AI-basert ansiktsbytte, hvordan fungerer denne teknologien?

Mer om kunstig intelligens

  • Google DeepMind-grunnlegger Demis Hassabis: Tre sannheter om AI
  • De 10 mest etterspurte AI-jobbene i verden
  • De 3 mest oversett begrensningene av AI i virksomheten
  • Hvordan bli maskinlæringsingeniør: Et jukseark

Fauscette: Det er noe som har utviklet seg veldig raskt det siste vil jeg si, sannsynligvis et år. Og det ble opprinnelig designet bare i utgangspunktet at et prosjekt var noen som lekte med teknologi basert på læring av kunstig intelligens, og ved hjelp av ansiktsbytte slags algoritmer som ville la deg kutte andres ansikt ut av videoen og legge det på noen annens kropp.

Som du forventer var de første prøvelsene selvfølgelig ganske røffe og ganske enkle å fortelle. Men i en verden av ting som lærer seg selv hvordan de skal bli bedre, har de lært seg selv å bli bedre veldig raskt. Og så nå begynner du å se ting som er ganske realistiske. Videoer som skildrer en person, ansikt på en annen kropp og til og med lyd som er veldig nøyaktige.

Patterson: Så når du sier lærte seg selv, eller lærte, er dette AI som bruker rekursiv læring for å forbedre?

Fauscette: Det er riktig. Så det er egentlig bare maskinlæring eller dyp læring som tar en algoritme som gjør noe aktivitet, og så veldig enkelt over tid, forbedrer seg selv basert på forskjellige faktorer og tilbakemeldinger selvfølgelig. Jeg vil fortelle deg, akkurat som et eksperiment vi tok en av våre medarbeidere på markedsføringsteamet, noen som ikke egentlig hadde noen videoredigering spesielle ferdigheter, bare gjorde noen ting på egen hånd.

Og i løpet av et døgn produserte det en video som var ganske overbevisende med en av forskerspesialistene mine som snakket, ved å klippe og ta på en annen kropp og så sette ordene i munnen hans, for å si det slik.

Patterson: Hva er den potensielle risikoen eller farene for næringslivet, politikken og andre næringer?

Fauscette: Vel, hvis du tenker på ordtaket om at oppfatningens virkelighet, tror jeg at du begynner å åpne for noen virkelig farlige situasjoner for næringslivet, og deretter som du sa for regjeringen. Men ta først en sak, og i løpet av de siste par årene har aktiviteter innen ransomware økt både i bystyre som Atlanta-eksemplet nylig. Og selvfølgelig for virksomheten, er at de blir holdt løsepenger basert på innsetting av ondsinnet programvare.

Vel nå, ta det videre og gå, å jeg kunne sette sammen en video som er overbevisende som viser at administrerende direktør tar bestikkelse eller gir bestikkelse eller gjør noe med en kvinne eller eskorte, eller hva som helst. Det er alle disse forskjellige potensielle tilfellene som får deg til å se ut som om du gjorde noe du normalt ikke ville gjort.

Og selvfølgelig, over tid med eksperter kan du bevise at det er galt, men for eksempel aksjen til aksjekursen din, som ikke kommer seg så lett som du kanskje tror. Og i det øyeblikket kan det se veldig dårlig ut. Regjeringen, enda verre, ikke sant? De er slags offentlige tjenestemenn som tar bestikkelser, eller kommenterer raser, eller tjenestemenn dukker opp på steder og gjør ting som de normalt ikke ville ha gjort.

Eller til og med i kompromitterende stillinger. Spioner, kriminelle eller soldater som gjør grufulle ting i en krigssone. Det er alle slags scenarier der som igjen, i øyeblikket ... Vel, til og med for et valg. Du har en kandidat som gjør noe som virkelig var uten karakter, ingen kunne forvente. Men det har virkningen av å skape den forstyrrelsen i valget. Det kan føre til at de mister eller ... Du kan se at det bare er mange scenarier der som lydelystende jeg antar er måten å si det på.

Patterson: Ja. Som journalist der tillit til publikum og redaktører er en kritisk del av jobben, kan jeg se mange potensielt forferdelige bruksområder for denne typen teknologi. Akkurat nå er teknologien pakket som en slags kuttete AR-apper. Men hvor allment tilgjengelig er denne teknologien til våpenformål? Jeg tenker spesifikt, skyggemeglere, NSA-nettvåpen lekker, selv om det er innrammet som et nettvåpen til å begynne med. Denne typen teknologi virker som den er veldig lett våpenutviklet. Hvor nøyaktig er det?

Fauscette: Ja, jeg synes det er veldig nøyaktig. Det hele startet egentlig med en sub-Reddit skulle jeg si, og litt kode som ble lagt ut der med noen videoer selvfølgelig. Og det ble til slutt lagt ned, men koden var allerede vill. Og så var det selvfølgelig et open source-prosjekt, og det ble lagt inn på noen forskjellige nettsteder der du kan laste ned koden og du kan forbedre den.

Og så, når en kode allerede er i naturen, betyr det at mange mennesker har tilgang til den, og at den bare fortsetter å vises på forskjellige steder. Så du kan ikke eliminere det virkelig, og det er egentlig ingen måte å kontrollere det på. Og det fortsetter bare å bli bedre med hver slags hånd-off.

Patterson: Micheal Fauscette, CRO for G2 Crowd, maler et bilde for oss de neste 18 til 36 månedene. Er det noen måte at denne typen teknologi blir distribuert av positive årsaker, eller ser vi på en slags gal falske nyhetsfremtid der falske mennesker blir blandet inn med falske nyheter?

Fauscette: Dessverre ser jeg ikke en ekte slags positiv brukssak for teknologien. Og jeg tror at det kommer til å bli bedre, og jeg tror at det veldig godt kan skape noen veldig dårlige situasjoner enten fra et forretningsmessig perspektiv, eller økonomisk, eller fra et regjeringsperspektiv, og du kan tenke på alle slags scenarier der . Jeg tror vi blir bedre på et par ting. Vi skal bli flinkere til å bygge teknologi for å prøve å identifisere.

Men problemet er selvfølgelig at i øyeblikket kan skaden gjøres før du kunne komme til poenget med å identifisere den. Og til og med en slags digitale sertifikater som vi kanskje kan bruke til å bevise herkomst av visse videoer. Men igjen, for øyeblikket er problemet. Og så tror jeg i det minste en stund at det er en stor risiko rundt det og hele falske nyhetsproblemet.

Nyhetsbrev om innovasjon

Vær kjent med smarte byer, AI, Internet of Things, VR, AR, robotikk, droner, autonom kjøring og mer av de kuleste teknologiske nyvinningene. Leveres onsdager og fredager

Registrer deg i dag

© Copyright 2021 | mobilegn.com