Negli ultimi mesi Aviva Investors ha avviato una serie di incontri con aziende tecnologiche invitandole a rafforzare le difese sui rischi per i diritti umani legati all’intelligenza artificiale, come discriminazioni, licenziamenti di massa e riconoscimenti facciali non autorizzati
Legal & General investment management, che dispone di codici di gestione su questioni come la deforestazione e le forniture di armi, ha annunciato che sta lavorando a un documento simile sull’intelligenza artificiale
Secondo Kieron Boyle dell’Impact investing institute, un numero crescente di investitori a impatto teme che l’intelligenza artificiale possa riportare indietro di anni il countdown della diversity nella forza lavoro
Asset manager in allarme sull’intelligenza artificiale. Una coalizione di 32 istituzioni finanziarie (anche detta Collective impact coalition for digital inclusion) con 6,9 miliardi di dollari di masse in gestione – tra cui Aviva Investors, Fidelity International e Hsbc asset management – sta guidando un’azione di pressione sulle aziende tecnologiche affinché si assumano la responsabilità di un potenziale uso improprio della tecnologia. Le società di gestione patrimoniale, secondo quanto risulta al Financial Times, temono di poter essere ritenute responsabili di eventuali violazioni dei diritti umani da parte delle società di cui detengono azioni.
Intelligenza artificiale: le mosse di Aviva Investors
Negli ultimi mesi Aviva Investors ha avviato una serie di incontri con aziende tecnologiche (inclusi i produttori di chip) invitandole a rafforzare le difese sui rischi per i diritti umani legati all’intelligenza artificiale, come discriminazioni, licenziamenti di massa e riconoscimenti facciali non autorizzati. Louise Piffaut, head of environmental, social and governance equity integration della società di gestione patrimoniale londinese, ha dichiarato che i meeting con le aziende su queste tematiche hanno “accelerato il ritmo e il tono” a causa dei timori per i chatbot di intelligenza artificiale generativa come ChatGpt. “Se l’impegno fallisce, come per ogni azienda con cui si impegna, Aviva Investors può votare contro il management nelle assemblee generali annuali, sollevare dubbi con le autorità di regolamentazione o vendere azioni”, ha aggiunto. “È facile per le aziende dichiarare che non è una loro responsabilità se viene utilizzato un loro prodotto in maniera impropria: è qui che la conversazione diventa più difficile”, ha detto Piffaut.
LE OPPORTUNITÀ PER TE.
Quali sono i rischi per la privacy di sistemi di intelligenza artificiale, come ChatGpt?
Come tutelarla?
Gli esperti selezionati da We Wealth possono aiutarti a trovare le risposte che cerchi.
RICHIEDI LA TUA CONSULENZA GRATUITA
Aviva Investors ha una partecipazione in Taiwan semiconductor manufacturing company, che ha visto un’impennata nella domanda di chip avanzati per addestrare grandi modelli di intelligenza artificiale come quello alla base di ChatGpt. Inoltre, possiede partecipazioni in aziende di hardware e software come Tencent Holdings, Samsung Electronics, MediaTek e Nvidia oltre che in società tecnologiche che stanno sviluppando strumenti di intelligenza artificiale generativa come Alphabet e Microsoft. Stando alle informazioni raccolte dal quotidiano economico-finanziario britannico, sta incontrando anche aziende del settore dei consumi, dei media e dell’industria per verificare che si impegnino a riqualificare i lavoratori invece di licenziarli qualora l’intelligenza artificiale metta a rischio la loro posizione.
Legal & General verso un codice di gestione sull’Ai
Legal & General investment management, che dispone di codici di gestione su questioni come la deforestazione e le forniture di armi, ha annunciato invece che sta lavorando a un documento simile sull’intelligenza artificiale. Secondo Kieron Boyle, amministratore delegato dell’Impact investing institute (think tank finanziato dal governo britannico con l’obiettivo di rendere i mercati dei capitali più equi, aiutando investitori e consulenti a investire per affrontare sfide sociali e ambientali, oltre che generare un ritorno finanziario, ndr) ha affermato che “un numero crescente di investitori a impatto” teme che l’intelligenza artificiale possa ridurre le opportunità di ingresso per le donne e le minoranze etniche in tutti i settori, riportando indietro di anni il countdown della diversity nella forza lavoro.
Da Sony a Vodafone: la risposta delle aziende
Per Richard Gardiner, responsabile delle politiche pubbliche per la no-profit olandese World benchmarking alliance, gli investitori che spingono le aziende tech a concentrarsi sull’intera catena di fornitura intendono tutelarsi da possibili rischi etici e normativi, preoccupati del fatto di poter essere ritenuti responsabili di eventuali violazioni dei diritti umani da parte delle società partecipate. Intanto, solo 44 delle 200 società tecnologiche valutate dalla World benchmarking alliance a marzo avevano pubblicato un quadro di riferimento sull’intelligenza artificiale etica. Alcune implementando però anche pratiche virtuose. Sony, per esempio, ha adottato linee guida etiche sull’intelligenza artificiale che devono essere rispettate da tutti i dipendenti del gruppo. I clienti di Vodafone, invece, possono presentare ricorso qualora ritengano di essere stati trattati ingiustamente a causa di una decisione di un sistema di intelligenza artificiale. Deutsche Telekom, infine, ha previsto un “kill switch” (o interruttore d’emergenza, ndr) per disattivare i sistemi di intelligenza artificiale in qualsiasi momento.