Magazine Qualità

Magazine Qualità

Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità - Condividiamo la Qualità e l'Eccellenza - Dati e Notizie dal Mondo della Qualità -

Magazine Qualità

Intelligenza Artificiale: meno rischi e più tutele con l’accreditamento

L’accordo tra Consiglio e Parlamento UE sul nuovo Regolamento AI farà perno sull’approccio risk-based, che affida un ruolo alla valutazione della conformità degli organismi notificati, perché può dare maggiori garanzie di affidabilità e sicurezza.

accredia intelligenza artificiale su magazine qualità

L’8 dicembre il Consiglio e il Parlamento dell’Unione europea hanno raggiunto un accordo sulla proposta di Regolamento europeo sull’intelligenza artificiale. L’EU AI ACT troverà applicazione a un numero elevato di strumenti software in settori molto diversi tra loro. Strumenti e ambiti che verranno orientati attraverso il cosiddetto “risk-based approach” per l’individuazione di sistemi di AI con rischio inaccettabile (che saranno vietati), alto, limitato e minimo.

“Per uno sviluppo efficace e consapevole dell’intelligenza artificiale il controllo sarà cruciale” spiega il Presidente di Accredia Prof. Massimo De Felice ai microfoni dell’Ansa. Il modello di gestione comunitario dell’intelligenza artificiale, infatti, farà perno sull’approccio risk-based che sembra porre in rilievo l’importanza della valutazione della conformità da parte degli organismi notificati.

La valutazione di parte terza accreditata potrà fornire garanzie di affidabilità e sicurezza perché è svolta da “organismi la cui indipendenza, imparzialità e competenza vengono garantite in modo prevalente e preferibile dall’accreditamento, come previsto per numerosi prodotti prima della loro immissione nel mercato europeo” chiarisce il Direttore Generale di Accredia, Filippo Trifiletti su Agenda Digitale.

Proprio in questo ambito, Accredia sta conducendo una nuova ricerca dell’”Osservatorio Accredia” con il Consorzio Interuniversitario Nazionale per l’Informatica (CINI) “per analizzare come le attività di valutazione della conformità avranno un ruolo di rilievo in relazione ai requisiti imposti dall’AI ACT”.

La marcatura CE per i sistemi AI

Il riconoscimento che il mercato e le Pubbliche Amministrazioni attribuiscono ormai alla sicurezza e all’affidabilità delle certificazioni, ispezioni, prove e tarature accreditate da un soggetto super partes come Accredia, si sposta, oggi, sulle nuove frontiere, sempre più articolate e complesse, dell’intelligenza artificiale.

La proposta di Regolamento UE prevede espressamente, ad esempio, che i sistemi di AI definiti ad alto rischio, ovvero in grado di incidere in modo sensibile sui diritti fondamentali dei cittadini, debbano recare la marcatura CE per poter essere immessi sul mercato europeo, così come tanti altri prodotti.

La marcatura richiederà un’attestazione della conformità, di ogni sistema classificato come tale, a tutti i requisiti che hanno l’obiettivo di minimizzare i potenziali danni a essi connessi. Ed è proprio in questo ambito che la valutazione di terza parte accreditata può intervenire per assicurare il rispetto delle prescrizioni del Legislatore europeo.

L’accreditamento a garanzia della conformità

La proposta di Regolamento europeo sull’intelligenza artificiale prevede che i requisiti di indipendenza, imparzialità e competenza degli organismi di valutazione della conformità siano valutati da un’Autorità notificante per ogni Stato membro.

L’accreditamento rappresenta lo strumento preferibile e prevalente per verificare il possesso di questi requisiti. Per questo, gli organismi sono invitati a corredare di un certificato di accreditamento la domanda di notifica presentata all’Autorità. In assenza di tale documento, l’organismo dovrà dimostrare – con prove documentali – di essere conforme a quanto disposto dall’AI ACT.

La valutazione di conformità accreditata: i dispositivi medici

Le applicazioni su cui esercitare i controlli in ambito AI sono numerose e complesse: dalle tematiche del machine learning all’allenamento e alla formazione delle reti neurali. Così come gli ambiti, dalla Pubblica Amministrazione alla diagnostica medica. A titolo esemplificativo, sono significativi i controlli per l’immissione sul mercato europeo dei dispositivi medici, disciplinati dal Regolamento UE 2017/745.

Per alcune categorie di dispositivi, il Regolamento prevede una procedura di valutazione di conformità da parte di un organismo notificato. L’organismo dovrà verificarne la conformità (se è un software AI o ne contiene uno) sia ai requisiti del Regolamento Dispositivi Medici, sia a quelli dell’AI ACT.

La ricerca che Accredia sta conducendo con il CINI analizza proprio come le attività di valutazione della conformità cambieranno in relazione ai nuovi requisiti, con un focus anche sui dispositivi medici.

AI e normazione tecnica

A livello normativo, sono impegnati nello sviluppo degli standard di riferimento due gruppi di lavoro internazionali, l’ISO/IEC JTC1 SC42 e il CEN/CENLEC (JTC21).

L’ISO/IEC JTC1 SC42, suddiviso in cinque sottogruppi, come chiarisce Filippo Trifiletti ha “l’obiettivo di sviluppare norme applicabili sul mercato globale”. Invece, il CEN/CENLEC (JTC21) “dovrà sviluppare gli standard (che poi diventeranno norme armonizzate) per attestare la corrispondenza di un software ai requisiti previsti dall’AI ACT”.

Quando la normazione tecnica sarà ultimata e vagliata dalla Commissione europea, i produttori “avranno degli standard di riferimento per realizzare dei sistemi AI conformi al nuovo quadro regolatorio”. Nei casi previsti dal Regolamento, quindi, l’intervento della normazione tecnica e della valutazione di terza parte accreditata, consentirà di “attestare il rispetto delle disposizioni in materia di AI”.

Cybersicurezza e formazione

Il controllo di qualità in contesti molto complessi, come quelli connessi allo sviluppo delle tecnologie di intelligenza artificiale, converge non soltanto sulla qualità degli strumenti di elaborazione ma, come precisa De Felice, anche “sull’ambito informativo in cui questi strumenti di elaborazione agiscono”.

La sicurezza, la qualità dei dati e la loro selezione per l’addestramento dei sistemi di intelligenza artificiale sono fattori fortemente connessi tra loro. Ed è per questo che, sempre in collaborazione con il CINI, Accredia ha già realizzato una ricerca dell’”Osservatorio Accredia” sulla cybersicurezza che confluirà nel lavoro sull’AI.

“Questo tipo di ricerche è senz’altro utile per acquisire competenze operative” ma anche per sostenere l’attività formativa dell’Ente che ha avviato anche il progetto Accredia Academy “per disegnare degli itinerari didattici sia mirati alle esigenze interne di formazione” che rivolti al pubblico.

ARTICOLO

Comunicazione a cura di ACCREDIA

2023-12-29T16:46:44+01:00Dicembre 29th, 2023|ACCREDIA|
Torna in cima