5 domande per Kathy Baxter

Buon venerdì! Per questa installazione nella nostra rubrica settimanale, Il futuro in cinque domande, esaminiamo il ruolo dell’etica in un’impresa tecnologica redditizia con Kathy Baxter, il principale architetto della pratica etica dell’IA di Salesforce. Il software di Salesforce è onnipresente nel business americano, con i suoi servizi di gestione delle relazioni con i clienti (CRM) incorporati in oltre 150.000 aziende americane – ed è compito di Baxter cercare di mantenere quella tecnologia equa.

Continua a leggere per ascoltare i suoi pensieri sui pericoli del riconoscimento delle emozioni, sulla regolazione reattiva dell’IA e su ciò che rende buoni affari.

Le risposte sono state modificate per lunghezza e chiarezza.

Qual è una grande idea sottovalutata?

IA responsabile. Abbiamo bisogno che molte più aziende riconoscano che l’IA responsabile non è solo un’esigenza normativa, ma è un buon affare. DataRobot ha pubblicato all’inizio di quest’anno un sondaggio su oltre 350 dirigenti aziendali e responsabili dello sviluppo con sede negli Stati Uniti e nel Regno Unito che utilizzano o intendono utilizzare l’IA. E i risultati sono stati piuttosto scioccanti. Hanno scoperto che il 36% degli intervistati aveva subito perdite a causa del pregiudizio dell’IA. Questi intervistati hanno perso entrate, clienti e dipendenti, oltre a spese legali sostenute.

Anche se il tipo di intelligenza artificiale che stai costruendo non rientra nelle normative, lo è solo buoni affari per sapere se i dati che stai utilizzando per addestrare e creare i tuoi modelli sono rappresentativi di tutti coloro che hanno un impatto. C’è un pregiudizio sistemico in esso? Stai facendo previsioni o decisioni dannose per qualsiasi gruppo? Questo è qualcosa su cui ogni azienda dovrebbe investire.

Qual è una tecnologia che pensi sia sovrastimata?

Riconoscimento delle emozioni o rilevamento delle emozioni. La ricerca dell’ultimo decennio ha dimostrato che il riconoscimento o il rilevamento automatizzato delle emozioni è parziale e impreciso. Tende ad essere basato sulla pseudo-scienza. Quindi, quando viene utilizzato per il processo decisionale consequenziale, come il monitoraggio dei dipendenti, la sorveglianza o il tentativo di determinare se qualcuno sta mentendo, possono verificarsi danni reali.

Abbiamo visto durante l’estate che Microsoft ha annunciato che stanno rimuovendo le funzionalità di riconoscimento delle emozioni dalla loro tecnologia di riconoscimento facciale. È enorme. All’inizio del 2020, Google ha anche affermato che stavano bloccando qualsiasi nuova funzionalità di intelligenza artificiale per analizzare le emozioni, a causa dei timori di insensibilità culturale. Quindi IBM ha anche deprecato il proprio analizzatore di toni. Stiamo vedendo le principali aziende tecnologiche che lavorano in questa tecnologia da anni affermare: “Questo è potenzialmente dannoso. Non è ugualmente accurato per tutti” e allontanandosi da esso.

Qual è il libro che più ha plasmato la tua concezione del futuro?

Ho letto “The Left Hand of Darkness” di Ursula K. Le Guin al college. Essendo cresciuto nel sud rurale, è stato strabiliante per me.

Il concetto è che il personaggio principale visiti un pianeta in cui le persone cambiano sesso nel corso della loro vita. Immagina: se tutti fossimo in grado di provare veramente cosa vuol dire appartenere a un genere diverso, a una razza diversa o a una cultura completamente diversa nella tua vita. Ne risulterebbe leggi molto più empatiche. Avremmo una società che funziona meglio. Le risorse sarebbero distribuite in modo più equo. Quindi, come lo portiamo nella tecnologia? Come creiamo una tecnologia che possa essere empatica e ugualmente accurata per tutti?

Cosa potrebbe fare il governo riguardo alla tecnologia che non lo è?

Quasi tutti i governi del mondo stanno cercando di elaborare regolamenti o best practice per aiutare a mitigare i danni dell’IA. Ma AI o ML sono molti diversi tipi di tecnologie, applicate in molti diversi tipi di contesti. È una tecnologia incredibilmente olistica.

E stiamo ancora discutendo le definizioni di alcuni dei suoi concetti fondamentali. Cosa intendiamo quando diciamo IA? Cosa intendiamo quando diciamo che qualcosa è di parte? Come facciamo a sapere se qualcosa è effettivamente spiegabile o interpretabile? Cercare di elaborare standard per quando qualcosa è abbastanza sicuro per un uso diffuso è semplicemente incredibilmente difficile da fare.

Quindi abbiamo bisogno di più collaborazioni tra governo, società civile e industria, in modo che tutti è aggiornato. Dovrebbero sapere quale ricerca può essere applicata alla regolamentazione di un settore.

Per il prossimo anno, sarò un collega AI in visita presso NIST per aiutare a sviluppare un playbook per il loro framework di gestione del rischio di intelligenza artificiale, in modo che i professionisti come me sappiano come usarlo.

Cosa ti ha sorpreso di più quest’anno?

Mi aspettavo più regolamentazione dell’IA quest’anno. Ma stiamo facendo progressi, con la Carta dei diritti dell’IA, la legge sui pregiudizi dell’IA di New York City e la proposta di legge sull’IA dell’UE. Quindi si stanno facendo progressi: mi piacerebbe sempre che fosse un po’ più veloce.

Ancora una volta, è incredibilmente difficile da fare, ma non posso sottolineare abbastanza l’importanza della collaborazione governativa e della condivisione delle informazioni. Dobbiamo smetterla di discutere sulle definizioni. Ok, forse qualcosa non è una definizione perfetta, ma è quella su cui siamo d’accordo. E andiamo avanti con quello.

Al Digital Future Daily, non abbiamo un termine artistico abbastanza preciso per descrivere le disparate tecnologie che modellano il futuro che ricadono sotto il nostro ombrello editoriale: AI, blockchain, calcolo quantistico, VR e il metaverso, tra gli altri.

L’Unione Europea, tuttavia, è tipicamente in vantaggio su questo punto. Oggi i suoi ministri dell’innovazione approvato all’ordine del giorno per la sua strategia sulla “deep tech”, dove vuole evitare di ricreare la dinamica spesso ostile che esiste tra l’UE e i giganti tecnologici americani dell’attuale era dell’innovazione. Pieter Haeck di POLITICO segnalato per gli abbonati Pro a luglio, quando il piano è stato proposto, sul pensiero alla base di quello sforzo, in gran parte mirato a disegnare il tipo di investimento di avvio che ha reso la Silicon Valley così piena di denaro.

Resta da vedere se funzionerà. Ma mi interessa chiedere: come descrivi mentalmente, o categorizzi, tu, lettore, la tecnologia che trattiamo qui al DFD? Con tutto il rispetto per i nostri amici di Bruxelles, la “deep tech” non fa proprio per me. Scrivimi a [email protected] con i tuoi suggerimenti. — Derek Robertson

La scorsa settimana ho scritto sulla rivista POLITICO sulla politica conservatrice dell’acquisizione di Twitter da parte di Elon Musk e su come si inseriscono nell’evoluzione filosofica dell’era Trump del GOP.

Sorpresa, sorpresa: poiché Musk ha utilizzato la piattaforma per ripristinare la sua definizione di “equilibrio” nella “piazza della città digitale”, principalmente ripristinando una serie di account di destra precedentemente vietati e perdendo la censura, i repubblicani eletti sono usciti da la falegnameria per rallegrarlo. Rebecca Kern di POLITICO riportato sul coro di lodi di Musk al Congresso questa mattina, con alcune citazioni scelte:

  • “Ogni volta che possiamo aggiungere qualcuno dell’intelletto di Mr. Musk al Partito Repubblicano, farei un salto mortale all’indietro da vecchio”, ha detto il senatore John Kennedy (R-La.).
  • “Il governo perseguiterà qualcuno che vuole avere la libertà di parola?” Il leader della minoranza alla Camera Kevin McCarthy ha detto martedì dopo che il presidente Joe Biden ha chiesto una revisione del ruolo degli investitori stranieri nell’acquisto di Musk. “Penso che dovrebbero smetterla di prendersela con Elon Musk.”
  • E un dirigente del settore tecnologico che ha richiesto l’anonimato ha notato l’ovvio, dicendo: “Sembra che i repubblicani potrebbero andare un po’ più facilmente su Twitter perché a loro piacciono le decisioni che Musk sta prendendo”.

Musk ha ripetutamente protestato dicendo di non essere necessariamente di destra, ma desidera semplicemente frenare quello che vede come un eccessivo governo liberale dell’azienda. Qualunque sia la sua politica interna, l’imperscrutabile miliardario sta studiando rapidamente la politica di Washington: il nemico del tuo nemico è tuo amico. — Derek Robertson

Rimani in contatto con tutto il team: Ben Schreckinger ([email protected]); Derek Robertson ([email protected]); Steve Heuser ([email protected]); Altro Benton Ives ([email protected]). Seguici @Futuro Digitale su Twitter.

Se ti è stata inoltrata questa newsletter, puoi farlo iscrizione e leggi la nostra dichiarazione d’intenti ai link forniti.

Leave a Reply

Your email address will not be published. Required fields are marked *