I SISTEMI DI INTELLIGENZA ARTIFICIALE NELLA MACROREGIONE MEDITERRANEA. REGOLE E GARANZIE PER CITTADINI E IMPRESE MEDITERRANEI

da | Dic 15, 2023 | Digitalization and communication

USO RESPONSABILE DELL’INTELLIGENZA ARTIFICIALE

Il Quarto Pilastro (digitalizzazione e Tlc) della Strategia della Macroregione Mediterranea si aggiorna con una serie di regole e garanzie a favore di cittadini ed imprese mediterranei ovvero sull’ uso responsabile dei sistemi di Intelligenza artificiale.

Si tratta di regole, act IA (1), capace di garantire che i sistemi di intelligenza artificiale utilizzati nell’area della Macroregione Mediterranea siano sicuri e rispettino i diritti fondamentali della persona, senza tarpare le ali agli investimenti e all’innovazione del settore.

È un sistema di regole che si inquadra in un binomio libertà e sicurezza, promozione dei diritti fondamentali, separazione dei poteri, pluralismo culturale e religioso, libera espressione, partecipazione e meritocrazia: i pilastri su cui la Comunità Mediterranea digitale aperta si ispira, nell’affrontare i vantaggi ed i rischi delle nuove tecnologie, dell’Intelligenza artificiale in particolare.

Uno dei punti centrali del sistema di regole è l’adozione di un approccio sul rischio: ovvero l’obbligo a fornitori e sviluppatori di sistemi IA, a seconda dei diversi livelli di rischio identificati.

Il che significa che ci possono essere delle pratiche IA vietate perché comportano un rischio inaccettabile per la sicurezza ed i diritti fondamentali.

Al centro dei divieti, i sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso è limitato a casi specifici.

Tra i sistemi IA considerati “ad alto rischio”, per cui sono oggetto di regole rigorose, come sistemi di mitigazione del rischio, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di sicurezza informatica.

Tra i sistemi AI ad alto rischio ci sono alcune infrastrutture critiche nei settori del gas, dell’elettricità e dell’acqua, ma anche dispositivi medici, sistemi per l’accesso alle istituzioni educative o per reclutare personale e sistemi utilizzati dalle forze dell’ordine, nei controlli delle frontiere e nell’amministrazione della giustizia.

 

REGOLE ANCHE PER L’ALGORITMO

Attraverso il motore di ricerca di un computer si arriva alla conoscenza di fatti: ben diverso è usare la nuova tecnologia dell’intelligenza artificiale. Se si fa una domanda a  “chat Gpt” o “Bard”, sistemi AI in uso, la risposta che si ottiene non è un fatto, ma frasi in un linguaggio simile al nostro, basate però su «modelli predittivi», e cioè, scandagliando il mare magnum del web, il risultato che si ottiene è il frutto dell’analisi di miliardi di dati attraverso i quali computer potentissimi tentano di indovinare quale parola segua al meglio un’altra parola. Si tratta di “indovinare”, cosa che impedisce di distinguere il vero dal falso

Ciò significa che non si deve stare attenti solo al prodotto “chat gpt” ma all’algoritmo, e cioè al processo che c’è dietro il prodotto. Prima di questa nuova tecnologia si doveva solo catalogare il rischio legato a un auto autonoma o a una tecnologia medica che analizzava le radiografie, ovvero alle applicazioni dell’hi-tech. Ma ma se un’azienda prende un algoritmo e lo usa per governare tutti i suoi prodotti, e se alla base di quell’algoritmo c’è un pregiudizio, o un errore, questo si propagherà a cascata su tutta l’offerta dell’azienda.

Di qui la necessità del sistema di regole, come nella strategia digitale della Macroregione Mediterranea, che ‘’governa’’ non soltanto quanto “produce” la singola applicazione, ma anche che cosa c’è a monte (l’algoritmo) dell’applicazione stessa.

Domenico Campana

(1)  https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

Translate »