Le amministrazioni pubbliche possono sperimentare l’IA incuranti dei danni?

I chatbot sono comodi. Innanzitutto per chi li rende disponibili ai propri utenti, in quanto consente di fornire un servizio sempre attivo che dà risposte in qualsiasi orario. Per gli utenti, invece, è davvero utile avere sempre a portata di clic l’informazione di cui si ha bisogno. Pensate alla comodità di interrogare un chatbot sull’interpretazione di leggi e regolamenti, senza doversi orientare tra norme che, tra l’altro, non sempre sono scritte in modo facilmente comprensibile.

Il caso MyCity

Proprio in quest’ottica, la città di NewYork ha reso disponibile MyCity, un chatbot a cui gli imprenditori possono fare – velocemente e comodamente – tutte le domande utili per il loro business. Ad esempio, “è legale rifiutare il pagamento in contanti?”. La risposta di MyCity è stata netta e tranquillizzante “Si, certo che è legale. È rimesso alla discrezionalità dell’esercente scegliere se accettare contanti.” Oppure “Qual è il salario minimo da corrispondere ai dipendenti?”, risposta “15 dollari”. Comodo, no? In pochi secondi hai l’informazione che ti serve, senza dover reperire gli atti ufficiali o cercare su Google, evitando il rischio di informazioni inattendibili. Dopotutto è il chatbot dell’amministrazione. Peccato, però, che nessuna di queste risposte fosse giusta. Infatti, MyCity non ha tenuto conto di provvedimenti che hanno obbligato gli esercenti di negozi e locali ad accettare i contanti o che hanno innalzato il salario minimo da 15 a 16 dollari l’ora.

>> IL NOSTRO SPECIALE IN TEMA DI INTELLIGENZA ARTIFICIALE NELLA PUBBLICA AMMINISTRAZIONE.

Gli errori dell’intelligenza artificiale

Alcuni errori possono capitare, si dirà. Eppure, stando a quanto ha riportato The Markup, sono tantissime le testimonianze di risposte sbagliate che hanno, di fatto, messo in condizione imprese e cittadini di violare la legge (sia pure inconsapevolmente). Il sindaco di New York, Eric Adams, e il suo staff hanno escluso categoricamente di mettere offline il chatbot, rivendicando la necessità di mantenerlo pubblico mentre ne migliorano l’affidabilità. Hanno fatto presente che, tra l’altro, è chiaramente evidenziato che il servizio è offerto “in beta” (espressione utilizzata da sviluppatori e fornitori di servizi IT per rendere edotto l’utente del fatto che il servizio/app non è ancora stabile e potrebbe funzionare in modo anomalo o non corretto). A onor del vero il sito, in modo onesto, presenta disclaimer che chiariscono bene l’inaffidabilità del sistema: “Siamo costantemente al lavoro per migliorare MyCity Chatbot, che utilizza i dati delle agenzie di NYC relativi al business per rispondere alle tue domande. Poiché si tratta di un prodotto beta, le sue risposte possono talvolta essere inesatte o incomplete. Verifica sempre le informazioni fornite utilizzando i link forniti o visitando MyCity Business. Non utilizzare le risposte come consulenza legale o professionale o fornire informazioni sensibili al Chatbot”. Oppure, “Potrebbe occasionalmente produrre contenuti errati, dannosi o discriminatori”.

>> QUESTO ARTICOLO E’ TRATTO DA LEGGE ZERO, LA NEWSLETTER GRATUITA DI MAGGIOLI EDITORE CHE ESPLORA INTELLIGENZA ARTIFICIALE, DIRITTO E L’INTERAZIONE TRA QUESTI DUE AMBITI. ISCRIVITI QUI.

PA e consapevole utilizzo dell’intelligenza artificiale

Quali e quanti sono i danni che il chatbot ha prodotto (e sta producendo)? Forse sarà possibile quantificarlo solo nei prossimi mesi. Sicuramente ci sono state risposte errate che gli utenti hanno seguito in buona fede, confidando nella loro accuratezza, e che probabilmente li esporranno a multe e contenziosi di vario tipo. L’esempio di New York – non proprio la meno evoluta delle amministrazioni – dimostra come in questa corsa a pubblicare il proprio chatbot sia opportuno fare i dovuti test sui sistemi di IA, specialmente in ambito pubblico. In LeggeZero #13 abbiamo già parlato della responsabilità di un’azienda il cui chatbot fornisce informazioni errate, ma per una Pubblica Amministrazione l’affidabilità delle IA usate è, se possibile, ancora più importante che per i privati.
In Italia, esiste una norma, l’art. 6 del decreto legislativo n. 33/2013, che espressamente prevede che le pubbliche amministrazioni debbano garantire la qualità delle informazioni pubblicate sui siti istituzionali “assicurandone l’integrità, il costante aggiornamento, la completezza, la tempestività, la semplicità di consultazione, la comprensibilità, l’omogeneità, la facile accessibilità, nonché la conformità ai documenti originali in possesso dell’amministrazione, l’indicazione della loro provenienza e la riutilizzabilità.”
Pertanto, anche prima che vengano adottate norme specifiche in tal senso, è possibile affermare che le amministrazioni devono garantire l’affidabilità dei propri chatbot (se e quando decidono di avvalersene). Questo significa: scegliere adeguatamente i fornitori e le soluzioni, prestare attenzione alla fase (e ai dati) di addestramento, dedicare i tempi giusti ai test (che non possono essere fatti dopo la pubblicazione del chatbot) in modo da ridurre al minimo l’impatto di eventuali errori. Per questo motivo, in altri Paesi, molte istituzioni stanno lavorando da tempo a progetti di implementazione di sistemi di intelligenza artificiale generativa non direttamente nei rapporti con il pubblico, ma prima per aumentare la produttività (e migliorare la vita) dei dipendenti pubblici. Infatti, nel caso in cui il bot risponda in modo scorretto, il dipendente pubblico (che si presume sia esperto della materia) dovrebbe accorgersene.

> CONTINUA A LEGGERE SU LEGGE ZERO.

© RIPRODUZIONE RISERVATA

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *