Il 62% dei consumatori dichiara di riporre una fiducia maggiore nelle aziende che adottano un approccio etico nell’utilizzo dei sistemi di intelligenza artificiale
Secondo il 33% dei manager, la mancanza di trasparenza e di eticità è dovuta al fatto di non aver considerato la problematica nella fase di progettazione e sviluppo
“Un modo classico per guadagnare fiducia, in particolare le interazioni con l’IA, può essere riassunto in tre parole: trasparenza, responsabilità e responsabilizzazione”, commenta Luciano Floridi, professore dell’Università di Oxford
La divisione è netta, ma separa i manager di tutto il mondo in due categorie non troppo distanti tra loro: gli individui che hanno abbandonato definitivamente i sistemi di intelligenza artificiale quando sono state sollevate preoccupazioni etiche (41%) e coloro che hanno deciso di implementare una versione “annacquata” (“watered-down”) del sistema.
A fare la differenza sono gli stessi consumatori: il 62% degli intervistati dichiara di riporre una fiducia maggiore nelle aziende che adottano un approccio etico nell’utilizzo dei sistemi di intelligenza artificiale. Inoltre, il 74% desidera una trasparenza maggiore quando usufruisce di un servizio erogato con i sistemi di intelligenza artificiale, accanto a un 76% che richiede una regolamentazione in materia.
Ma quali sono le motivazioni che pongono le aziende in contrasto con i desideri dei consumatori e cosa stanno facendo per dissipare le loro preoccupazioni? Secondo il 33% dei manager coinvolti nella ricerca, la mancanza di trasparenza e di eticità è dovuta al fatto di non aver considerato la problematica nella fase di progettazione e sviluppo. Ma, soprattutto, mancherebbero non solo le risorse – economiche e umane – da investire sul tema, ma anche un codice etico dell’AI al quale fare riferimento. “La fiducia è qualcosa di molto difficile da ottenere e molto facile perdere – ha commentato Luciano Floridi, professore di filosofia e etica dell’informazione presso l’Università di Oxford – Ma un modo classico per guadagnare fiducia, in particolare nelle interazioni con l’IA, può essere riassunto in tre parole: trasparenza, responsabilità e responsabilizzazione”.
Secondo il Capgemini Research Institute, in definitiva, i business leader e i responsabili della fiducia e dell’etica aziendale dovrebbero elaborare una strategia e un codice di condotta per quella che la Commissione Europea definisce “l’etica dell’Intelligenza Artificiale”, un sottogruppo dell’etica e della tecnologia applicata che si focalizza sulle questioni etiche sollevate dallo sviluppo, dall’implementazione e dall’utilizzo dell’AI. Inoltre, è necessario creare delle strutture di governance etica e costituire dei team sensibili verso le stesse questioni etiche. Non solo. Affinché un’adeguata fiducia possa essere sviluppata, anche gli stessi utenti devono essere adeguatamente educati e informati, mitigando i pregiudizi nei confronti di questi nuovi sistemi. “Al di là di ciò che è legale o meno, e quindi di ciò a cui devi conformarti, devi determinare ciò che rappresenti come organizzazione – spiega Nicolas Economou, ceo di H5 – Puoi poi definire il tuo codice etico AI sulla base di ciò che rappresenti e, di conseguenza, determinare quale tipo di pratiche di intelligenza artificiale puoi ritenere conformi alla tua etica”.