Dreamforce 2019: Salesforce ønsker at etikk skal bakes inn i virksomheten deres

Dreamforce 2019: Salesforce ønsker at etikk skal bli bakt inn i virksomheten sin. Salesforce integrerer etikk og verdier i bruken av AI, den daglige beslutningsprosessen og å få kontakt med kunder.

På Dreamforce 2019 i San Francisco snakket TechRepublics Bill Detwiler med Salesforce Chief Ethical and Humane Use Officer Paula Goldman og Salesforce Architect of Ethical AI Kathy Baxter om metodene Salesforce bruker for å tilføre verdier og etikk i teknologibruk og hverdagens forretningspraksis. Følgende er et redigert utskrift av intervjuet.

Bill Detwiler: En stor del av det selskaper prøver å gjøre i dag for å tiltrekke seg topptalenter, å engasjere seg med kunder, hva de forventer, er å integrere etikk og verdier i sin forretningspraksis til daglig. Det gleder meg å være sammen med to personer for å snakke om hvordan Salesforce gjør det, og jeg lar dem presentere seg.

Paula Goldman: Jeg er Paula Goldman, og jeg er den øverste etiske og humane bruksoffiseren i Salesforce. Dette er, tror vi, en førsteklasses posisjon, og det handler egentlig om å se på alle teknologiproduktene våre og sørge for at vi baker etikk på måten de er designet på og måten de lever på. i verden.

Vi har en rekke virkelig spennende prosesser som vi har utviklet, og erkjenner at vi er på et kritisk tidspunkt i teknologibransjen, at teknologibransjen blir stadig mer under ild og folk forstår effekten av teknologi på hverdagen. Så vi samarbeider med, på tvers av våre teknologi- og produktteam, for å integrere etikk i den daglige beslutningen.

Vi har også et råd for etisk bruk, og det rådgivende rådet har ansatte og ledere og eksterne eksperter, og innen det har vi problemer som blir tatt opp når det gjelder hvordan teknologien vår blir brukt i verden, og vi har en policyprosess for å sikre at teknologien vår blir brukt til størst mulig fordel.

Ansettingssett: Salesforce Developer (TechRepublic Premium)

Bill Detwiler: Og Kathy, vi snakket litt før intervjuet startet om noe av teknologien, eller noe av den praksis som går ut på å gjøre det, og du ga meg noen eksempler. Først presenterer deg for seerne og fortell oss litt om den teknologien.

Kathy Baxter: Jeg er Kathy Baxter og er arkitekt for etisk AI. Det er mange forskjellige ting vi gjør når vi tenker på baketikk. I tillegg til det etiske rådgivende rådet, har vi et datavitenskapelig evalueringsråd, så når team jobber med modeller, kan de komme inn og få tilbakemeldinger på disse modellene, ikke bare fra et kvalitetssynspunkt, men også fra etisk hensynssynspunkt. Vi har spesifikke funksjoner i våre Einstein-produkter som hjelper våre kunder til å identifisere: Er opplærings- og evalueringsdata representative? Er modellene partiske? Så det gir dem verktøyene som hjelper dem å bruke vår Einstein AI ansvarlig. Og jeg tror at et av eksemplene på hvordan vi virkelig har bakt etiske betraktninger i et spesifikt produkt, er AI for Good-produktet som kalles en SharkEye.

Det er et virkelig fantastisk prosjekt med Benioff Oceans Institute og UC, San Diego for å studere haier. Store hvithaier kommer til den nordamerikanske kysten i større antall over lengre tid, og vi må studere dem og finne ut hva som er effekten av klimaendringer på dem. Hvordan lager vi verktøy for å hjelpe mennesker og haier med å dele havet trygt?

De etiske utfordringene ved AI: En leders guide (gratis PDF)

Så vi kombinerte vårt Field Service Live-produkt med vårt Einstein Vision Project-produkt for å kunne spore haiene i sanntid og varsle livvakter når de trenger å stenge stranden. Jeg tror mange kan anta at denne typen AI for Good-prosjekter ikke har etiske risikoer, men at de faktisk gjør det. Enhver form for teknologi kan ha utilsiktede konsekvenser.

Vi brukte mye tid på å tenke på hva som kan være noen av dem. Vi ønsket å beskytte innbyggernes personvern ute på stranden. Bruker drone-teknologi for å spore haiene - innspillingen begynner ikke før den er over havet. Vi har aldri trent Einstein Vision på mennesker, så den er bare trent for å spore de store hvite haiene.

I tillegg sørger vi for at det kun er sertifiserte droneoperatører ansatt i Benioff Oceans Initiative, så vi trenger ikke å bekymre deg for at en hel haug mennesker kommer ut på stranden med droner og avbryter opplevelsen, eller bruker informasjonen til å jakte haier eller på en eller annen måte, skade haiene. Det er mange overveielser som kom på plass for å sikre at det vi skapte ville beskytte både haiene og innbyggerne.

Bill Detwiler: Paula, det er så viktig når du vurderer de utilsiktede konsekvensene fordi du snakker om mange teknologiselskaper, det var å samle inn alle dataene vi kan, og så skal vi finne ut hvordan du kan beskytte det eller hva vi skal gjøre med det senere .

Det som er gjort er avlet mye av, du kan si fiendtlighet, kanskje mistillit, på kundenivå, på individnivå. Hvordan adresserer du den Paula? Fra et bedriftsperspektiv - hvordan går du tilbake til selskapet eller til kundene og sier: 'Vi vet at du har disse bekymringene, men her er hvordan vi kommer til å adressere dem.'

Paula Goldman: Jeg tror det viktigste spørsmålet du spurte, er, hvordan tenker vi om uventede konsekvenser? Og det er nøkkelspørsmålet for teknologibransjen på dette tidspunktet. Det er et enkelt spørsmål som kan ha store konsekvenser for produktene vi designer. Jeg vil si at vi nylig har eksperimentert med en rekke metodologier med våre teknologi- og produktteam på det. Vi har kjørt noen workshops kalt Konsekvensskanning der vi setter oss ned med et tverrfunksjonelt produktteam og sier: 'Ok, du er i ferd med å bygge denne funksjonen, hva er de forventede konsekvensene og hva er de uventede konsekvensene?'

Det høres superenkelt ut, men du begynner å se lyspæren slukke, og folk tenker som: 'Å, wow, jeg hadde ikke tenkt på den mulige retningen. La oss bygge denne typen funksjoner for å hjelpe produktene våre å bruke den på en ansvarlig måte og hjelpe kundene våre å bruke den på en ansvarlig måte. ' Jeg tror det du hørte Kathy snakket om. Det er en rekke funksjoner som kommer ut i AI-produktene våre som hjelper folk å forstå hvorfor får de spådommene de får. Hvordan kan de sørge for at de lett kan ta det valget når de for eksempel ikke vil bruke måter som en faktor i beslutningen? Det er de typer differensierere som jeg tror begynner å skille Salesforce-produktet fra hverandre fordi vi stiller oss disse spørsmålene tidlig i prosessen.

Bill Detwiler: Kathy, fra et teknisk perspektiv, snakket du om teamene du har satt sammen når du designer et nytt produkt, en ny tjeneste for å tenke gjennom noen av disse ubevisste skjevhetene eller de utilsiktede konsekvensene som kan komme ut av det. Hvordan adresserer vi det fra et teknisk perspektiv? Du snakket om det med Einstein og AI, og så beslutningen du tok for ikke å trene Einstein på mennesker og bare ha den fokusert på haier. Hva annet kan vi gjøre fra et teknisk perspektiv for å løse problemet?

Kathy Baxter: Vi har en strålende forsker som heter Nazneen, hvis ekspertise er innen forklarbar AI og identifisering av skjevhet i modeller. Vi vet at pålitelig AI må være ansvarlig, ansvarlig, gjennomsiktig, myndiggjørende og inkluderende. Forklarbarheten av hva en modell gjør berører så mange av disse tingene fordi du kan se hvorfor AI gir anbefalingen om at den gjør. Hva er faktorene som blir inkludert? Hvem er personene som blir ekskludert og hvem som blir inkludert? Får noen en fordel fremfor noen andre?

Å kunne forstå om at AI tar inkluderende beslutninger ved å være gjennomsiktig - så kan du holde det ansvarlig. Disse tingene kan utskiftes med hverandre, og det er her det er veldig viktig å tenke helt fra begynnelsen, fra forestillingen om funksjonen, fra modellen til unnfangelsen, fra innsamlingen av dataene.

Hvis du har en sjanse til å se forskningsnøkkelen på tirsdag, var det en demonstrasjon av stemmeassistenten vår, og vi er veldig stolte fordi vi legger ned en enorm innsats for å få representative treningsdata for det på tvers av forskjellige kjønn, som samt engelsk med et dusin forskjellige aksenter. Så engelsk med tysk aksent, med fransk aksent, slik at den er så inkluderende som mulig. Det fungerer for så mange mennesker som mulig. Dette er alle de forskjellige beslutningene på hvert punkt av veien som vi trenger for å sikre at vi investerer i.

Paula Goldman: Jeg tror likestilling er en kjerneverdi for Salesforce, og jeg tror det er kjernespørsmålet for teknisk etikk. På slutten av dagen, er teknologi som gjør verden til et mer likestilt sted eller et mindre like sted? Og vi stiller oss det spørsmålet hver dag. Vi spør oss selv, hvem er ved bordet som tar disse beslutningene? Hvordan sikrer vi at om det er treningsdataene eller en politisk beslutning, hvordan sørger vi for at vi er inkluderende i den beslutningen?

Bill Detwiler: Og dette er et litt tøffere spørsmål, og vi så Marc Benioff takle litt av dette ved grunntonen forleden. Hvordan takler du som selskap generelt, ikke Salesforce bare spesifikt, det mylder av etiske stillinger som forskjellige kunder eller forskjellige mennesker i samfunnet faktisk har?

Vi har alle forskjellige forventninger og opplevelser og forskjellige meninger om ting. Som en komplett sidelinje underviser jeg faktisk som adjunkt, og en av klassene jeg underviser er etikk for fagfolk i kriminell rettferdighet. Noe av det jeg alltid snakker om er å bygge de etiske rammene. Publikummet mitt og studentene mine er vanligvis hovedfag i strafferett, hovedfag i offentlig sikkerhet. Så for dem har det virkelige livs- og dødskonsekvenser.

Men du har ikke sett det så mye i bedriftsverdenen. Så jeg er virkelig interessert i hvordan du tar opp det en person anser som etisk, en annen person ikke. Hvordan adresserer du det innen Salesforce kanskje, og hvordan tror du at selskaper bør adressere det bredere?

Paula Goldman: Så det er et veldig viktig spørsmål, og jeg vil si at vi nærmer oss dette også med en ånd av ydmykhet. Vi later ikke som om vi har alle svarene, men en ting som er veldig viktig er at vi lytter veldig aktivt og med vilje. Jeg er utdannet antropolog. Jeg har en doktorgrad i antropologi, og så er det kjernekompetansen å virkelig kunne forstå forskjellige verdensbilder og integrere dem sammen.

Derfor har vi rådet, det er derfor vi stadig snakker med sivilsamfunnets medlemmer, aktivister, regjeringsansatte, og skaper så mange kanaler for stemme og for at folk skal føle seg komfortable med å uttrykke en bekymring eller syn.

Den andre tingen som jeg vil si er at det er en veldig viktig, dette er verdier drevet. Så vi har et sett med verdier som selskap. Fra det avledet vi et sett med prinsipper. Egentlig undersøkte vi alle ansatte og sa: 'Hva bør være de viktigste prinsippene for etisk bruk?' Og i den rangorden som de fortalte oss, innlemmet vi det i beslutningsprosessen vår. Så det handler egentlig om bred lytting og verdibasert beslutningstaking for selskaper.

Bill Detwiler: Noe du vil legge til det, Kathy?

Kathy Baxter: Ja, jeg vil si at jeg tenker når jeg engasjerer meg i kunder, og de spør om vi ønsket å lage en etisk AI-prosess, hvordan begynner vi? Vi sier alltid: 'Begynn med verdiene dine.' Jeg vil bli overrasket over å finne et selskap eller en organisasjon som ikke har noen form for misjonsuttalelse, en slags verdier som de er basert på. Og det er rammene du bygger på, og så kan du begynne å lage en oversikt over rammer for prioriteringer. Hva er de tingene vi ønsker å sikre at vi fokuserer på å gi tilbake til samfunnet eller fokusere på å bygge? Det er de tingene vi ønsker å fokusere på.

Og hva er de tingene som enten er de røde linjene, vi har ikke tenkt å gjøre disse tingene, eller de er bare lavere prioriterte? Ved å ha det, nå kan du virkelig hjelpe med å fokusere på beslutninger, slik at når et team kommer med en god ide som: 'Å, la oss gjøre en funksjon som gjør X.' Eller en kunde spør: "Kan du lage en funksjon som gjør Y?" Du har den rammen for å ta den avgjørelsen og si: 'Ja, dette passer helt inn i våre verdier. Dette er en av våre prioriteringer, 'eller' Dette er ikke en av våre prioriteringer. Vi har bestemt at vi ikke kommer til å investere ressursene våre i dette området, så vi kommer ikke til å gå inn på det aktuelle området. ' Det hjelper virkelig å ha det dokumentert, og alle er virkelig klare på det.

Bill Detwiler: Er det virkelig utfordringen? Når du har en stor organisasjon, titusenvis, hundretusener av ansatte, hvordan tar du opp den pushbacken du kan få internt fra: 'Hei, med denne nye funksjonen, dette nye produktet, tror vi det er et veldig stort marked for oss. Vi tror dette er et overskuddsenter. Vi synes dette er en flott inntektsmulighet. ' Og som Marc har sagt, vi trenger en ny form for kapitalisme til en viss grad. Vi må ta hensyn til faktorer ved siden av ren fortjeneste. Hvordan adresserer du den pushbacken i et privat kommersielt foretak?

Paula Goldman: Jeg synes det er et rettferdig spørsmål, og jeg vil ikke minimere kompleksiteten i det, men det jeg vil si er at dette handler om tillit. På slutten av dagen tror vi virkelig at jo mer vi integrerer etikk i produktutviklingen vår, desto mer er den til fordel for tilliten mellom oss og våre kunder og tilliten mellom våre kunder og deres kunder. Alle er bekymret for hvor teknologien skal, og hvis vi kan hjelpe mennesker med passende beskyttelsesskinner, tror jeg det faktisk blir en vinn-vinn. Og det er derfor jeg er så optimistisk hva vi gjør.

Kathy Baxter: Fordi vi er en plattform, er det så stor fleksibilitet med den plattformen. Med verktøyene våre kan vi for eksempel heve flagg. Med Einstein Discovery lar vi deg sjekke inn det vi kaller beskytte bestemte felt som du ikke vil bruke i en modell, alder, rase, kjønn. Så finner vi andre felt i datasettet ditt som er sterkt korrelert med det.

Så vi vil si 'Å, postnummer er sterkt korrelert med rase. Vil du beskytte det også? ' Vi kommer ikke til å gjøre det for dem, vi gir kundene kontrollen. Det handler om å gi kundene verktøyene til å ta utdannede beslutninger for seg selv, slik at de bruker verktøy på en måte som samsvarer med verdiene deres også.

Executive Briefing Nyhetsbrev

Oppdag hemmelighetene for suksess med IT-ledelse med disse tipsene om prosjektledelse, budsjetter og håndtering av daglige utfordringer. Leveres tirsdager og torsdager

Registrer deg i dag

© Copyright 2020 | mobilegn.com