Microsoft ha presentato un’iniziativa per utilizzare l’intelligenza artificiale per rilevare la corruzione del governo, definendolo “un problema globale urgente che può e deve essere risolto”.
La nuova iniziativa Microsoft Anti-Corruption Technology and Solutions “farà leva sugli investimenti dell’azienda in cloud computing, visualizzazione dei dati, intelligenza artificiale, machine learning e altre tecnologie emergenti per migliorare la trasparenza e rilevare e scoraggiare la corruzione” nel prossimo decennio, ha affermato Dev Stahlkopf , Consulente legale di Microsoft, in un post che annuncia il piano.
Microsoft ha fatto l’annuncio in concomitanza con la Giornata internazionale contro la corruzione delle Nazioni Unite. Stahlkopf ha descritto l’iniziativa come sempre più importante visti gli eventi dell’anno passato.
“I governi di tutto il mondo si stanno affrettando per affrontare la pandemia Covid-19, accelerando per attuare misure per affrontare l’emergenza sanitaria e per fornire risorse a coloro che sono stati più colpiti dalla conseguente recessione economica”, ha scritto Stahlkopf. “Questi investimenti senza precedenti, tuttavia, hanno esposto vulnerabilità nelle catene di approvvigionamento, nei processi di approvvigionamento e nei controlli di corruzione”.
Il concetto di utilizzare l’IA per rilevare e prevenire la corruzione è stato oggetto di crescente attenzione negli ultimi anni negli ambienti governativi. Microsoft ha lavorato a progetti correlati in passato, inclusa una partnership con la Banca mondiale per analizzare i dati e rilevare modelli sospetti nelle offerte per contratti.
Agenzie in paesi come Brasile e Ucraina hanno sperimentato programmi di machine learning e AI per rilevare la corruzione, ma la pratica non è ancora diffusa, secondo un rapporto dello scorso anno dell’U4 Anti-Corruption Resource Center.
Tuttavia, l’uso dell’IA comporta anche rischi intrinseci, avverte il rapporto.
“Gli effetti collaterali indesiderati di tali sistemi decisionali possono derivare da pregiudizi nei dati utilizzati per addestrare l’IA o nella progettazione di un algoritmo”, afferma il rapporto. “Gli algoritmi opachi e quindi i sistemi decisionali opachi rappresentano una sfida nota come il problema della scatola nera. Il diritto alla spiegazione richiede una progettazione trasparente di algoritmi o metodologie in grado di testare o contestare le decisioni “.
Il rapporto ha sottolineato l’importanza di seguire i principi etici dell’IA per evitare che i sistemi vadano male. Microsoft, che compete contro i giganti del cloud Amazon e Google nello sviluppo di tecnologie di intelligenza artificiale, ha un proprio ufficio etico interno e comitato per mantenere l’azienda ai suoi principi di intelligenza artificiale responsabile.
Ma i controlli possono essere difficili da applicare una volta che la tecnologia è in circolazione. Ciò è stato evidenziato da un incidente di alto profilo in cui è stato riferito che un partner di Microsoft, la startup israeliana AnyVision, ha utilizzato la sua tecnologia di riconoscimento facciale in un progetto di sorveglianza militare segreta che monitorava i palestinesi in Cisgiordania, spingendo la società di Redmond a commissionare un’indagine e infine cedere la sua partecipazione nella startup.
Microsoft non è stata immune da questo problema, pagando 25 milioni di dollari l’anno scorso per saldare le accuse di corruzione su presunti schemi di corruzione nei suoi uffici in Ungheria, Arabia Saudita, Thailandia e Turchia.