Salesforce takler skjevheter i AI med ny Trailhead-modul

Hvordan AI kan brukes til å fjerne skjevheter i virksomheten Salesforce's Architect for Ethical AI Practices satte seg sammen med Dan Patterson for å diskutere hvordan kunstig intelligens kan brukes til å forbedre forretningsprosesser og redusere skjevhet.

Tirsdag kunngjorde Salesforce tillegg av moduler til deres Trailhead-utviklerutdanningsplattform, i et press for å fremme ansvarlig bruk av kunstig intelligens (AI) modeller. Den nylig introduserte modulen "Responsible Creation of Artificial Intelligence" er ment å "styrke utviklere, designere, forskere, forfattere, produktledere ... for å lære å bruke og bygge AI på en ansvarlig og pålitelig måte og forstå hvilken innvirkning det kan ha på sluttbrukere, næringsliv og samfunn, "sa Kathy Baxter, arkitekt for etisk AI-praksis hos Salesforce, i et blogginnlegg.

Spesiell rapport: Administrere AI og ML i bedriften (gratis PDF) (TechRepublic)

Trailhead, som ble lansert første gang i 2014, er Salesforces gratis individualiserte plattform for opplæring av nåværende ansatte for å lukke kompetansegap. Salesforces myTrailhead-plattform ble lansert i generell tilgjengelighet i mars, og ga en merkevareopplevelse for interne virksomhetsopplæringsprosjekter.

Hvor stort av et problem er skjevhet i AI?

AI er altfor ofte en "svart boks", ved at konklusjonene gitt av AI eller maskinlæringsalgoritmer virker gyldige, selv om forbrukerne av denne slutningen ikke nødvendigvis forstår hvordan det ble utledet - effektivt å redusere AI- og maskinlæringsalgoritmer til noe kjent å jobbe praksis, men ikke kjent for å jobbe i teori.

For å forstå effekten av AI-bruk på samfunnet - og på den måten bekjempe negative effekter - foreslo forskere ved MIT forrige måned feltet "maskinatferd", for å studere hvordan AI utvikler seg, som en slags analog til etologi. Forskerne bemerker at forståsegpåere og akademikere "vekker alarmen om de brede, utilsiktede konsekvensene av AI-agenter som kan utvise atferd og gi samfunnseffekter nedstrøms - både positive og negative - som ikke er forventet av deres skaper."

Behovet for Salesforces initiativ ble på samme måte tydeliggjort i CIO-juryen i april, som fant at 92% av teknologiledere ikke har noen policy for etisk bruk av AI. Heldigvis eksisterer bevissthet om problemet i styrerommet, ettersom ledere som ble spurt indikerte behov for en AI-etikkpolitikk.

Hvordan kan programmerere fjerne skjevheter fra AI-systemer?

Kvaliteten på en maskinlæringsalgoritme gjenspeiler kvaliteten på dataene som brukes til å trene den. Iboende skjevheter i at data kan unødig påvirke hvordan AI fungerer. For å dempe skjevhet, "mye av det er bare å være klar over hva slags data du trekker fra, " sa Rebecca Parsons, CTO for ThoughtWorks, til TechRepublic under Grace Hopper Celebration 2018.

"Det er også teknikker der det er litt lettere å forstå grunnlaget som en anbefaling blir gjort. Og så kan du kanskje trene på å bruke forskjellige metoder fra de samme dataene, og se på den som forteller deg hva slags mønstre den plukker opp i dataene, og det kan gi deg innsikt i skjevheten som kan finnes i dataene, "sa hun.

For mer, sjekk ut "Salesforce ruller ut nye lavkodetjenester for å bygge AI-drevne funksjoner, " "Gen Z og tusenårene vil ha AI-basert personlig støtte, " og "Google trekker plugin i AI-etikkgruppen bare noen uker etter oppstarten "på ZDNet.

© Copyright 2020 | mobilegn.com