<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wikiaiact.mywikis.eu/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiCA</id>
	<title>WikiAiAct - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wikiaiact.mywikis.eu/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiCA"/>
	<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/wiki/Speciale:Contributi/InsaidewikiCA"/>
	<updated>2026-05-06T16:13:33Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.39.10</generator>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1349</id>
		<title>FAQ</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1349"/>
		<updated>2024-12-11T17:01:59Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Perché è necessario regolamentare l&#039;uso dell&#039;intelligenza artificiale?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge dell&#039;Unione europea sull&#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&#039;ambiente.&lt;br /&gt;
&lt;br /&gt;
L&#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&#039;innovazione dell&#039;UE e della sua competitività a livello mondiale. In determinati casi le caratteristiche specifiche di alcuni sistemi di IA possono tuttavia creare nuovi rischi per quanto riguarda la sicurezza, anche fisica, degli utenti e i diritti fondamentali. Alcuni potenti modelli di IA il cui utilizzo è molto diffuso potrebbero persino comportare rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
Ciò determina una mancanza di certezza del diritto e un&#039;adozione potenzialmente più lenta delle tecnologie di IA da parte delle autorità pubbliche, dovuta alla mancanza di fiducia. Risposte normative disuguali da parte delle autorità nazionali rischierebbero di frammentare il mercato interno.&lt;br /&gt;
&lt;br /&gt;
Per rispondere a queste sfide era necessaria un&#039;azione legislativa che garantisse il buon funzionamento del mercato interno per i sistemi di IA e tenesse adeguatamente conto sia dei benefici sia dei rischi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;A chi si applica la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro giuridico si applicherà ai soggetti pubblici e privati, all&#039;interno e all&#039;esterno dell&#039;UE, a condizione che il sistema di IA sia immesso sul mercato dell&#039;Unione o che il suo utilizzo abbia effetti su persone situate nell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
Gli obblighi possono riguardare sia i fornitori (ad esempio, uno sviluppatore di uno strumento di screening dei CV) sia i deployer di sistemi di IA (ad esempio, una banca che acquista il suddetto strumento di screening). Il regolamento prevede alcune deroghe. Le attività di ricerca, sviluppo e prototipazione che hanno luogo prima dell&#039;immissione sul mercato di un sistema di IA non sono soggette a tali regolamenti. Sono inoltre esenti anche i sistemi di IA progettati esclusivamente per finalità militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le categorie di rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA introduce un quadro uniforme in tutti gli Stati membri dell&#039;UE, basato su una definizione di IA che guarda al futuro e su un approccio basato sul rischio: &lt;br /&gt;
&lt;br /&gt;
* rischio inaccettabile: una serie molto limitata di usi dell&#039;IA particolarmente dannosi, che contravvengono ai valori dell&#039;UE perché violano i diritti fondamentali e che saranno pertanto vietati:&lt;br /&gt;
** sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali; &lt;br /&gt;
** punteggio sociale per finalità pubbliche e private; &lt;br /&gt;
** attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone; &lt;br /&gt;
** scraping non mirato di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l&#039;ampliamento di banche dati; &lt;br /&gt;
** riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota); &lt;br /&gt;
** categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell&#039;ambito delle attività di contrasto; &lt;br /&gt;
** identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle autorità di contrasto, fatte salve limitate eccezioni (v. sotto);&lt;br /&gt;
*la Commissione pubblicherà orientamenti sui divieti prima della loro entrata in vigore il 2 febbraio 2025;&lt;br /&gt;
*rischio alto: è considerato ad alto rischio un numero limitato di sistemi di IA definiti nella proposta, che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell&#039;UE). Al regolamento è allegato l&#039;elenco dei sistemi di IA ad alto rischio, che può essere riveduto per allinearsi all&#039;evoluzione dei casi d&#039;uso dell&#039;IA;&lt;br /&gt;
*tali sistemi comprendono anche i componenti di sicurezza dei prodotti disciplinati dalla legislazione settoriale dell&#039;Unione, che saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale;&lt;br /&gt;
tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA che valutano se qualcuno può ricevere un determinato trattamento medico, ottenere un determinato lavoro o un prestito per acquistare un appartamento.  Altri sistemi di IA ad alto rischio sono quelli utilizzati dalla polizia per profilare le persone o valutarne il rischio di commettere un reato (a meno che non siano vietati a norma dell&#039;articolo 5). Potrebbero essere ad alto rischio anche i sistemi di IA che gestiscono robot, droni o dispositivi medici;&lt;br /&gt;
*rischio specifico per la trasparenza: per promuovere la fiducia, è importante garantire la trasparenza sull&#039;uso dell&#039;IA. Pertanto la legge sull&#039;IA introduce specifici obblighi di trasparenza per determinate applicazioni di IA, ad esempio laddove esista un evidente rischio di manipolazione (ad esempio, attraverso l&#039;uso di chatbot) o di deep fake, affinché gli utenti siano consapevoli del fatto che stanno interagendo con una macchina; &lt;br /&gt;
*rischio minimo: la maggioranza dei sistemi di IA possono essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici. I fornitori di tali sistemi possono scegliere di applicare, su base volontaria, i requisiti per un&#039;IA affidabile e aderire a codici di condotta volontari.&lt;br /&gt;
La legge sull&#039;IA prende inoltre in considerazione i rischi sistemici che potrebbero derivare dai modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, che possono essere utilizzati per un&#039;ampia serie di compiti e stanno diventando la base di molti sistemi di IA nell&#039;UE. Alcuni di questi modelli potrebbero comportare rischi sistemici se risultano particolarmente efficaci o molto utilizzati. Modelli potenti potrebbero ad esempio causare incidenti gravi o essere utilizzati impropriamente per attacchi informatici di vasta portata. Se un modello propagasse distorsioni dannose in molte applicazioni, le persone colpite potrebbero essere molte.   &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sapere se un sistema di IA è ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce una solida metodologia per la classificazione dei sistemi di IA come ad alto rischio. L&#039;obiettivo è garantire la certezza del diritto per le imprese e gli altri operatori.&lt;br /&gt;
&lt;br /&gt;
La classificazione del rischio si basa sulla finalità prevista del sistema di IA, in linea con la vigente legislazione dell&#039;UE in materia di sicurezza dei prodotti. Ciò significa che la classificazione dipende dalla funzione svolta dal sistema di IA e dalle finalità e modalità specifiche di utilizzo di tale sistema.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA possono essere classificati come ad alto rischio in due casi: &lt;br /&gt;
&lt;br /&gt;
*se il sistema di IA è integrato come componente di sicurezza in prodotti disciplinati dalla legislazione vigente in materia di prodotti (allegato I) o costituisce esso stesso un simile prodotto. Questo potrebbe essere, ad esempio, il caso di un software medico basato sull&#039;IA; &lt;br /&gt;
*se il sistema di IA è destinato a essere utilizzato per un caso d&#039;uso ad alto rischio, tra quelli elencati nell&#039;allegato III della legge sull&#039;IA. L&#039;elenco comprende casi d&#039;uso provenienti da settori quali l&#039;istruzione, l&#039;occupazione, le attività di contrasto o la migrazione. &lt;br /&gt;
La Commissione sta preparando orientamenti per la classificazione ad alto rischio, che saranno pubblicati prima della data di applicazione di tali norme. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli esempi di casi d&#039;uso ad alto rischio definiti nell&#039;allegato III?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;allegato III comprende otto settori in cui l&#039;uso dell&#039;IA può essere particolarmente sensibile ed elenca casi d&#039;uso concreti per ciascun settore. Un sistema di IA è classificato come ad alto rischio se è destinato a essere utilizzato in uno di questi casi d&#039;uso.&lt;br /&gt;
&lt;br /&gt;
Alcuni esempi sono:&lt;br /&gt;
&lt;br /&gt;
*sistemi di IA utilizzati come componenti di sicurezza in determinate infrastrutture critiche, ad esempio nei settori del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;&lt;br /&gt;
*sistemi di IA utilizzati nel settore dell&#039;istruzione e formazione professionale, ad esempio per valutare i risultati dell&#039;apprendimento, orientare il processo di apprendimento e monitorare i comportamenti disonesti;&lt;br /&gt;
*sistemi di IA utilizzati nei settori dell&#039;occupazione, della gestione dei lavoratori e dell&#039;accesso al lavoro autonomo, ad esempio per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati;&lt;br /&gt;
*sistemi di IA utilizzati per l&#039;accesso a servizi e a prestazioni pubblici e privati essenziali (ad esempio l&#039;assistenza sanitaria), la valutazione dell&#039;affidabilità creditizia delle persone fisiche e la valutazione dei rischi e la determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;&lt;br /&gt;
*sistemi di IA utilizzati nei settori delle attività di contrasto, della migrazione e del controllo delle frontiere, nella misura in cui sono consentiti, nonché nell&#039;amministrazione della giustizia e nei processi democratici;&lt;br /&gt;
*sistemi di IA utilizzati per l&#039;identificazione biometrica, la categorizzazione biometrica e il riconoscimento delle emozioni, nella misura in cui sono consentiti.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi per i fornitori di sistemi di IA ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prima di immettere un sistema di IA ad alto rischio sul mercato dell&#039;UE, o di metterlo in servizio, i fornitori devono sottoporlo a una valutazione della conformità. Potranno così dimostrare che il loro sistema è conforme ai requisiti obbligatori per un&#039;IA affidabile (ad esempio qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza, cibersicurezza e robustezza). Tale valutazione deve essere ripetuta in caso di modifica sostanziale del sistema o della sua finalità.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA che fungono da componenti di sicurezza di prodotti disciplinati dalla legislazione settoriale dell&#039;Unione saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale. Inoltre tutti i sistemi biometrici, indipendentemente dalla loro applicazione, richiederanno una valutazione della conformità da parte di terzi.&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio dovranno inoltre implementare sistemi di gestione della qualità e del rischio per garantire la conformità ai nuovi requisiti e ridurre al minimo i rischi per gli utenti e le persone interessate, anche dopo che un prodotto è stato immesso sul mercato.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA ad alto rischio utilizzati da autorità pubbliche o entità che agiscono per loro conto dovranno essere registrati in una banca dati pubblica dell&#039;UE, a meno che tali sistemi non siano utilizzati per le attività di contrasto e la migrazione. Questi ultimi sistemi dovranno essere registrati in una parte non pubblica della banca dati, che sarà accessibile solo alle autorità di controllo competenti.&lt;br /&gt;
&lt;br /&gt;
Per garantire la conformità durante l&#039;intero ciclo di vita del sistema di IA, le autorità di vigilanza del mercato effettueranno audit periodici e agevoleranno il monitoraggio successivo all&#039;immissione sul mercato e consentiranno ai fornitori di segnalare volontariamente eventuali incidenti gravi o violazioni degli obblighi in materia di diritti fondamentali di cui siano venuti a conoscenza.  In casi eccezionali, le autorità possono concedere deroghe per specifici sistemi di IA ad alto rischio da immettere sul mercato.&lt;br /&gt;
&lt;br /&gt;
In caso di violazione, i requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;uso del sistema di IA sia conforme alla legge. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale sarebbe il ruolo della normazione nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, i sistemi di IA ad alto rischio saranno soggetti a requisiti specifici. Le norme armonizzate europee svolgeranno un ruolo fondamentale nell&#039;attuazione di tali requisiti. &lt;br /&gt;
&lt;br /&gt;
Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC di elaborare norme per tali requisiti ad alto rischio. Tale mandato sarà ora modificato per allinearlo al testo finale della legge sull&#039;IA. &lt;br /&gt;
&lt;br /&gt;
Le organizzazioni europee di normazione avranno tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell&#039;UE. Una volta pubblicate, tali norme garantiranno una &amp;quot;presunzione di conformità&amp;quot; ai sistemi di IA sviluppati in conformità alle stesse.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sono regolamentati i modelli di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, possono essere utilizzati per vari compiti. I singoli modelli possono essere integrati in un gran numero di sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
È fondamentale che un fornitore di un sistema di IA che integra un modello di IA per finalità generali abbia accesso a tutte le informazioni necessarie per garantire che il suo sistema sia sicuro e conforme alla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA obbliga di conseguenza i fornitori di tali modelli a comunicare determinate informazioni ai fornitori di sistemi a valle. Una siffatta trasparenza rende possibile una migliore comprensione di tali modelli.&lt;br /&gt;
&lt;br /&gt;
È altresì necessario che i fornitori di modelli dispongano di politiche in essere atte a garantire il rispetto del diritto d&#039;autore nel corso dell&#039;addestramento dei loro modelli.&lt;br /&gt;
&lt;br /&gt;
Alcuni di questi modelli potrebbero inoltre comportare rischi sistemici, in quanto particolarmente efficaci o molto utilizzati.&lt;br /&gt;
&lt;br /&gt;
Attualmente si ritiene che i modelli di IA per finalità generali addestrati utilizzando una potenza di calcolo totale di oltre 10^25 FLOPS presentino rischi sistemici. La Commissione può aggiornare o integrare tale soglia alla luce dell&#039;evoluzione tecnologica e può inoltre designare altri modelli che ritiene presentino rischi sistemici sulla base di ulteriori criteri (ad esempio il numero di utenti o il grado di autonomia del modello).&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli che presentano rischi sistemici sono tenuti a valutare e attenuare i rischi, segnalare incidenti gravi, condurre prove e valutazioni all&#039;avanguardia dei modelli e garantire la cibersicurezza degli stessi.&lt;br /&gt;
&lt;br /&gt;
I fornitori sono invitati a collaborare con l&#039;ufficio per l&#039;IA e altri portatori di interessi per elaborare un codice di buone pratiche che specifichi le regole e garantisca così lo sviluppo sicuro e responsabile dei loro modelli. Tale codice dovrebbe rappresentare uno strumento centrale per i fornitori di modelli di IA per finalità generali al fine di dimostrarne la conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Per quale motivo 10^25 FLOPS è una soglia adeguata per l&#039;IA per finalità generali con rischi sistemici?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il FLOPS è un indicatore delle capacità del modello e la soglia FLOPS esatta può essere aggiornata al rialzo o al ribasso dalla Commissione, ad esempio alla luce dei progressi nella misurazione obiettiva delle capacità dei modelli e dell&#039;evoluzione della potenza di calcolo necessaria per un determinato livello di prestazione.&lt;br /&gt;
&lt;br /&gt;
Le capacità dei modelli al di sopra di tale soglia non sono ancora sufficientemente comprese: potrebbero comportare rischi sistemici ed è pertanto ragionevole imporre l&#039;insieme aggiuntivo di obblighi ai loro fornitori.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi relativi all&#039;aggiunta di filigrane digitali e all&#039;etichettatura dell&#039;output dell&#039;IA stabiliti nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce norme in materia di trasparenza per i contenuti prodotti dall&#039;IA generativa, al fine di affrontare il rischio di manipolazione, inganno e disinformazione.  &lt;br /&gt;
&lt;br /&gt;
Essa obbliga i fornitori di sistemi di IA generativa a contrassegnare gli output dell&#039;IA in un formato leggibile meccanicamente e a garantire che siano rilevabili come generati o manipolati artificialmente. Le soluzioni tecniche devono essere efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell&#039;arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche.  &lt;br /&gt;
&lt;br /&gt;
I deployer dei sistemi di IA generativa che generano o manipolano immagini o contenuti audio o video che costituiscono un &amp;quot;deep fake&amp;quot; devono inoltre rendere noto in modo visibile che il contenuto è stato generato o manipolato artificialmente. I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico devono anche rendere noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se il contenuto generato dall&#039;IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA pubblicherà orientamenti per fornire un&#039;ulteriore guida ai fornitori e ai deployer in merito agli obblighi di cui all&#039;articolo 50, che saranno applicabili due anni dopo l&#039;entrata in vigore della legge sull&#039;IA (il 2 agosto 2026).&lt;br /&gt;
&lt;br /&gt;
Inoltre l&#039;ufficio per l&#039;IA incoraggerà e agevolerà l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione per facilitare l&#039;efficace attuazione degli obblighi relativi alla rilevazione e all&#039;etichettatura dei contenuti generati o manipolati artificialmente.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA è adeguata alle esigenze future?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce un quadro giuridico che risponde ai nuovi sviluppi, è facile e rapido da adattare e consente una valutazione frequente.&lt;br /&gt;
&lt;br /&gt;
Essa stabilisce requisiti e obblighi orientati ai risultati, ma affida la definizione delle soluzioni tecniche e di livello operativo concrete alle norme e ai codici di buone pratiche determinati dall&#039;industria, che dispongono della flessibilità necessaria per essere adattati ai diversi casi d&#039;uso e rendere possibili nuove soluzioni tecnologiche.&lt;br /&gt;
&lt;br /&gt;
La legislazione stessa può inoltre essere modificata mediante atti delegati e di esecuzione, ad esempio per rivedere l&#039;elenco dei casi d&#039;uso ad alto rischio di cui all&#039;allegato III.&lt;br /&gt;
&lt;br /&gt;
Determinate parti della legge sull&#039;IA e, in ultima analisi, l&#039;intero regolamento, saranno infine oggetto di valutazioni frequenti, garantendo che siano individuate eventuali necessità di revisione e modifica.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come è disciplinata l&#039;identificazione biometrica nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;uso dell&#039;identificazione biometrica remota in tempo reale in spazi accessibili al pubblico (ossia il riconoscimento facciale mediante telecamere a circuito chiuso) a fini di attività di contrasto è vietato. Gli Stati membri possono introdurre nel loro diritto eccezioni che consentano l&#039;uso dell&#039;identificazione biometrica remota in tempo reale nei seguenti casi:&lt;br /&gt;
&lt;br /&gt;
*attività di contrasto relative a 16 reati specifici molto gravi;&lt;br /&gt;
*ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse;&lt;br /&gt;
*prevenzione di minacce per la vita o l&#039;incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico.&lt;br /&gt;
Qualsiasi uso eccezionale sarebbe subordinato a un&#039;autorizzazione preventiva rilasciata da un&#039;autorità giudiziaria o amministrativa indipendente, la cui decisione è vincolante. In caso di urgenza, l&#039;approvazione può essere rilasciata entro 24 ore; se l&#039;autorizzazione è respinta, tutti i dati e gli output devono essere cancellati.&lt;br /&gt;
&lt;br /&gt;
L&#039;autorizzazione dovrebbe essere preceduta da una valutazione preventiva d&#039;impatto sui diritti fondamentali e dovrebbe essere notificata alle pertinenti autorità di vigilanza del mercato e autorità per la protezione dei dati. In situazioni di urgenza, è possibile iniziare a usare il sistema senza registrazione.&lt;br /&gt;
&lt;br /&gt;
L&#039;uso di sistemi di IA per l&#039;identificazione biometrica remota a posteriori (identificazione di persone in materiale raccolto in precedenza) delle persone oggetto di indagine richiede l&#039;autorizzazione preventiva da parte di un&#039;autorità giudiziaria o di un&#039;autorità amministrativa indipendente, nonché la notifica all&#039;autorità per la protezione dei dati e all&#039;autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché sono necessarie regole particolari per l&#039;identificazione biometrica remota?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può assumere varie forme. L&#039;autenticazione e la verifica biometriche, ad esempio per sbloccare uno smartphone o per la verifica/autenticazione ai valichi di frontiera dell&#039;identità di una persona rispetto ai suoi documenti di viaggio (corrispondenza &amp;quot;uno a uno&amp;quot;), rimangono non regolamentate, in quanto non rappresentano un rischio significativo per i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può essere utilizzata anche a distanza, ad esempio per identificare le persone in una folla, e ciò, al contrario, può avere un impatto significativo sulla tutela della vita privata nello spazio pubblico.&lt;br /&gt;
&lt;br /&gt;
L&#039;accuratezza dei sistemi per il riconoscimento facciale può essere significativamente influenzata da un&#039;ampia gamma di fattori, quali la qualità della fotocamera, la luce, la distanza, la banca dati, l&#039;algoritmo e l&#039;etnia, l&#039;età o il sesso del soggetto. Lo stesso vale per il riconoscimento vocale e dell&#039;andatura e per altri sistemi biometrici. Il tasso di falsi positivi dei sistemi altamente avanzati è in continua diminuzione.&lt;br /&gt;
&lt;br /&gt;
Tuttavia se un tasso di accuratezza del 99% può sembrare buono in generale, esso è notevolmente rischioso quando il risultato può condurre a sospettare di una persona innocente. Anche un tasso di errore dello 0,1% può avere un impatto significativo se applicato a un gran numero di persone, ad esempio nelle stazioni ferroviarie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le regole tutelano i diritti fondamentali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A livello dell&#039;UE e degli Stati membri esiste già una forte tutela dei diritti fondamentali e della non discriminazione, ma la complessità e l&#039;opacità di determinate applicazioni di IA (le cosiddette &amp;quot;scatole nere&amp;quot;) possono porre un problema.&lt;br /&gt;
&lt;br /&gt;
Un approccio antropocentrico all&#039;IA significa garantire che le applicazioni di IA rispettino la legislazione in materia di diritti fondamentali. Integrando i requisiti di responsabilità e trasparenza nello sviluppo di sistemi di IA ad alto rischio, e migliorando le capacità di applicazione della legislazione, possiamo garantire che tali sistemi siano progettati sin dall&#039;inizio tenendo conto del rispetto degli obblighi normativi. Qualora si verifichino delle violazioni, tali requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;IA è stata usata in modo conforme al diritto dell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA prevede inoltre che alcuni deployer di sistemi di IA ad alto rischio effettuino una valutazione d&#039;impatto sui diritti fondamentali. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Cos&#039;è una valutazione d&#039;impatto sui diritti fondamentali? Chi deve effettuare tale valutazione? Quando deve essere effettuata?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio devono effettuare una valutazione dei rischi e progettare il sistema in modo da ridurre al minimo i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Tuttavia alcuni rischi per i diritti fondamentali possono essere pienamente individuati solo conoscendo il contesto di utilizzo del sistema di IA ad alto rischio. Quando i sistemi di IA ad alto rischio sono utilizzati in settori particolarmente sensibili in cui possono verificarsi asimmetrie di potere, tali rischi vanno tenuti ulteriormente in considerazione.&lt;br /&gt;
&lt;br /&gt;
Pertanto i deployer che sono organismi di diritto pubblico o gli operatori privati che forniscono servizi pubblici, nonché gli operatori che forniscono sistemi di IA ad alto rischio che effettuano valutazioni dell&#039;affidabilità creditizia o valutazioni dei rischi e determinazione dei prezzi per assicurazioni sulla vita e assicurazioni sanitarie, devono effettuare una valutazione d&#039;impatto sui diritti fondamentali e comunicarne i risultati all&#039;autorità nazionale.&lt;br /&gt;
&lt;br /&gt;
Nella pratica anche molti deployer dovranno effettuare una valutazione d&#039;impatto sulla protezione dei dati. In tali casi, per evitare sovrapposizioni sostanziali, la valutazione d&#039;impatto sui diritti fondamentali è effettuata congiuntamente alla valutazione d&#039;impatto sulla protezione dei dati.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo questo regolamento affronta le distorsioni nell&#039;IA legate al genere o alla razza?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
È molto importante sottolineare che i sistemi di IA non creano o riproducono distorsioni. Anzi, se adeguatamente progettati e utilizzati, i sistemi di IA possono al contrario contribuire a ridurre le distorsioni e le discriminazioni strutturali esistenti, portando così a decisioni più eque e non discriminatorie (ad esempio nella selezione del personale).&lt;br /&gt;
&lt;br /&gt;
I nuovi requisiti obbligatori per tutti i sistemi di IA ad alto rischio serviranno a questo. I sistemi di IA devono essere tecnicamente robusti per garantire che siano adatti allo scopo e non producano risultati distorti, quali falsi positivi o negativi, che colpiscono in modo sproporzionato i gruppi emarginati, compresi quelli basati sull&#039;origine razziale o etnica, sul sesso, sull&#039;età e su altre caratteristiche protette.&lt;br /&gt;
&lt;br /&gt;
I sistemi ad alto rischio dovranno inoltre essere addestrati e testati con set di dati sufficientemente rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello e garantire che, se presenti, queste possano essere risolte mediante opportune misure di rilevazione, correzione e attenuazione.&lt;br /&gt;
&lt;br /&gt;
Tali sistemi devono inoltre essere tracciabili e verificabili, garantendo la conservazione dell&#039;opportuna documentazione, compresi i dati utilizzati per addestrare l&#039;algoritmo, fondamentali per le indagini ex post.&lt;br /&gt;
&lt;br /&gt;
Il sistema di verifica della conformità prima e dopo l&#039;immissione sul mercato dovrà garantire che tali sistemi siano regolarmente monitorati e che i rischi potenziali siano prontamente affrontati. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quando sarà pienamente applicabile la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA si applicherà il 2 agosto 2026, due anni dopo l&#039;entrata in vigore, ad eccezione che per le seguenti disposizioni specifiche:&lt;br /&gt;
&lt;br /&gt;
*i divieti, le definizioni e le disposizioni relativi all&#039;alfabetizzazione in materia di IA si applicheranno 6 mesi dopo l&#039;entrata in vigore, il 2 febbraio 2025;&lt;br /&gt;
*le norme in materia di governance e gli obblighi per l&#039;IA per finalità generali diventano applicabili 12 mesi dopo l&#039;entrata in vigore, il 2 agosto 2025;&lt;br /&gt;
*gli obblighi per i sistemi di IA ad alto rischio, che si classificano come ad alto rischio perché integrati in prodotti regolamentati, elencati nell&#039;allegato II (elenco della normativa di armonizzazione dell&#039;Unione), si applicano 36 mesi dopo l&#039;entrata in vigore, il 2 agosto 2027.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà applicata la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce un sistema di governance a due livelli, in cui le autorità nazionali sono responsabili della supervisione e dell&#039;applicazione delle norme per i sistemi di IA, mentre l&#039;UE è responsabile della regolamentazione dei modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Per garantire la coerenza e la cooperazione a livello dell&#039;UE, sarà istituito il consiglio europeo per l&#039;intelligenza artificiale (consiglio per l&#039;IA), composto da rappresentanti degli Stati membri, con sottogruppi specializzati per le autorità nazionali di regolamentazione e altre autorità competenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA, l&#039;organismo della Commissione per l&#039;attuazione della legge sull&#039;IA, fornirà orientamenti strategici al consiglio per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce inoltre due organi consultivi per consentire agli esperti di fornire il loro contributo: il gruppo di esperti scientifici e il forum consultivo. Tali organismi consentiranno ai portatori di interessi e alle comunità scientifiche interdisciplinari di fornire spunti preziosi, che informeranno il processo decisionale e garantiranno un approccio equilibrato allo sviluppo dell&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché è necessario un consiglio europeo per l&#039;intelligenza artificiale e di cosa si occuperà?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il consiglio europeo per l&#039;intelligenza artificiale comprende rappresentanti di alto livello degli Stati membri e il Garante europeo della protezione dei dati. In qualità di consulente principale, il consiglio per l&#039;IA fornisce orientamenti su tutte le questioni relative alle politiche in materia di IA, in particolare quelle che riguardano la regolamentazione dell&#039;IA, l&#039;innovazione e l&#039;eccellenza e la cooperazione internazionale in materia di IA.&lt;br /&gt;
&lt;br /&gt;
Il consiglio per l&#039;IA svolge un ruolo cruciale nel garantire un&#039;attuazione agevole, efficace e armonizzata della legge sull&#039;IA. Il consiglio per l&#039;IA fungerà da forum in cui le autorità di regolamentazione dell&#039;IA, ossia l&#039;ufficio per l&#039;IA, le autorità nazionali e il Garante europeo della protezione dei dati, possono coordinare l&#039;applicazione coerente della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le sanzioni in caso di violazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Gli Stati membri dovranno stabilire sanzioni effettive, proporzionate e dissuasive in caso di violazione delle norme relative ai sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
Il regolamento stabilisce le soglie da tenere in considerazione:&lt;br /&gt;
&lt;br /&gt;
*fino a 35 milioni di € o al 7% del fatturato mondiale totale annuo dell&#039;esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l&#039;inosservanza di requisiti in materia di dati;&lt;br /&gt;
*fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi altro requisito o obbligo del regolamento;&lt;br /&gt;
*fino a 7,5 milioni di € o all&#039;1,5% del fatturato mondiale totale annuo dell&#039;esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta;&lt;br /&gt;
*per ciascuna categoria di violazione, la soglia per le PMI sarebbe l&#039;importo più basso tra i due previsti, mentre per le altre imprese sarebbe l&#039;importo più elevato.&lt;br /&gt;
La Commissione può inoltre applicare le norme sui fornitori di modelli di IA per finalità generali mediante sanzioni pecuniarie, tenendo in considerazione la seguente soglia:&lt;br /&gt;
&lt;br /&gt;
*fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi obbligo o misura richiesta dalla Commissione a norma del regolamento.&lt;br /&gt;
Le istituzioni, le agenzie o gli organismi dell&#039;UE sono chiamate a dare l&#039;esempio e saranno quindi soggette anch&#039;esse alla normativa e a eventuali sanzioni. Il Garante europeo della protezione dei dati avrà il potere di infliggere loro sanzioni pecuniarie in caso di non conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà elaborato il codice di buone pratiche in materia di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;elaborazione del primo codice segue un processo inclusivo e trasparente. Sarà istituita una plenaria sul codice di buone pratiche per facilitare il processo iterativo di elaborazione e sarà costituita da tutti i fornitori interessati e ammissibili di modelli di IA per finalità generali, dai fornitori a valle che integrano un modello di IA per finalità generali nel loro sistema di IA, da altre organizzazioni del settore, da altre organizzazioni di portatori di interessi, quali la società civile o le organizzazioni dei titolari dei diritti, nonché da rappresentanti del mondo accademico e da altri esperti indipendenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA ha pubblicato un invito a manifestare interesse per partecipare all&#039;elaborazione del primo codice di buone pratiche. Parallelamente a tale invito a manifestare interesse, è stata avviata una consultazione multilaterale per raccogliere i pareri e i contributi di tutti i portatori di interessi sul primo codice di buone pratiche. Le risposte e le osservazioni costituiranno la base della prima iterazione per l&#039;elaborazione del codice di buone pratiche. Il codice si basa quindi fin dall&#039;inizio su una vasta gamma di prospettive e competenze.&lt;br /&gt;
&lt;br /&gt;
La plenaria sarà strutturata in quattro gruppi di lavoro per consentire discussioni mirate su temi specifici finalizzati a specificare gli obblighi per i fornitori di modelli di IA per finalità generali e di modelli di IA per finalità generali con rischio sistemico. I partecipanti alla plenaria sono liberi di scegliere uno o più gruppi di lavoro a cui desiderano partecipare. Le riunioni si svolgono esclusivamente online.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA nominerà i presidenti e, se del caso, i vicepresidenti di ciascuno dei quattro gruppi di lavoro della plenaria, selezionati tra gli esperti indipendenti interessati. I presidenti sintetizzeranno i contributi e le osservazioni dei partecipanti alla plenaria per elaborare iterativamente il primo codice di buone pratiche.&lt;br /&gt;
&lt;br /&gt;
In quanto principali destinatari del codice, i fornitori di modelli di IA per finalità generali saranno invitati a seminari dedicati per contribuire a informare ciascun ciclo iterativo di elaborazione, oltre che a partecipare alla plenaria.&lt;br /&gt;
&lt;br /&gt;
La versione definitiva del primo codice di buone pratiche sarà presentata dopo 9 mesi, in una sessione plenaria conclusiva prevista per aprile, e pubblicata. La plenaria conclusiva offrirà ai fornitori di modelli di IA per finalità generali l&#039;opportunità di esprimersi e dichiarare se intendono utilizzare il codice. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Se approvato, in che modo il codice di buone pratiche per i fornitori di modelli di IA per finalità generali funge da strumento centrale per la conformità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Al termine del processo di elaborazione del codice di buone pratiche, l&#039;ufficio per l&#039;IA e il consiglio per l&#039;IA ne valuteranno l&#039;adeguatezza e pubblicheranno la loro valutazione. In seguito a tale valutazione, la Commissione può decidere di approvare il codice di buone pratiche e conferirgli validità generale all&#039;interno dell&#039;Unione mediante atti di esecuzione. Se, nel momento in cui il regolamento diventa applicabile, il codice di buone pratiche non è ritenuto adeguato dall&#039;ufficio per l&#039;IA, la Commissione può stabilire norme comuni per l&#039;attuazione degli obblighi pertinenti.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali possono pertanto basarsi sul codice di buone pratiche per dimostrare il rispetto degli obblighi stabiliti dalla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, il codice di buone pratiche dovrebbe includere obiettivi, misure e, se del caso, indicatori chiave di prestazione (ICP).&lt;br /&gt;
&lt;br /&gt;
I fornitori che aderiscono al codice di buone pratiche dovrebbero riferire periodicamente all&#039;ufficio per l&#039;IA in merito all&#039;attuazione delle misure adottate e ai loro risultati, anche sulla base di indicatori chiave di prestazione, se del caso.&lt;br /&gt;
&lt;br /&gt;
Ciò facilita l&#039;applicazione della normativa da parte dell&#039;ufficio per l&#039;IA, che si avvale dei poteri conferiti alla Commissione dalla legge sull&#039;IA. Tali poteri includono la capacità di effettuare valutazioni dei modelli di IA per finalità generali, di richiedere informazioni e misure ai fornitori di modelli e di applicare sanzioni. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA incoraggerà e agevolerà, se del caso, la revisione e l&#039;adeguamento del codice per tenere conto dei progressi tecnologici e dello stato dell&#039;arte.&lt;br /&gt;
&lt;br /&gt;
Quando una norma armonizzata è pubblicata e ritenuta idonea a disciplinare i pertinenti obblighi da parte dell&#039;ufficio per l&#039;IA, la conformità a una norma armonizzata europea dovrebbe conferire ai fornitori la presunzione di conformità.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali dovrebbero inoltre essere in grado di dimostrare la conformità utilizzando mezzi adeguati alternativi, se non sono disponibili codici di buone pratiche o norme armonizzate, oppure se tali fornitori scelgono di non fare affidamento su tali codici e norme.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA contiene disposizioni in materia di protezione ambientale e sostenibilità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;obiettivo della proposta sull&#039;IA è affrontare i rischi per la sicurezza e i diritti fondamentali, compreso il diritto fondamentale a una protezione ambientale di alto livello. L&#039;ambiente è anche uno degli interessi giuridici esplicitamente menzionati e tutelati.&lt;br /&gt;
&lt;br /&gt;
La Commissione è invitata a chiedere alle organizzazioni europee di normazione di elaborare un prodotto di normazione sui processi di documentazione e segnalazione per migliorare le prestazioni dei sistemi di IA in termini di uso delle risorse, come la riduzione del consumo di energia e di altre risorse del sistema di IA ad alto rischio durante il suo ciclo di vita, e sullo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Entro due anni dalla data di applicazione del regolamento, e successivamente ogni quattro anni, la Commissione è inoltre invitata a presentare una relazione sul riesame dei progressi compiuti nell&#039;elaborazione dei prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli per finalità generali e a valutare la necessità di ulteriori misure o azioni, anche vincolanti.&lt;br /&gt;
&lt;br /&gt;
In aggiunta a ciò, i fornitori di modelli di IA per finalità generali, che sono addestrati su grandi quantità di dati e quindi soggetti a un elevato consumo di energia, sono tenuti a comunicare il consumo di energia. Nel caso di modelli di IA per finalità generali con rischi sistemici, occorre inoltre valutare l&#039;efficienza energetica.&lt;br /&gt;
&lt;br /&gt;
Alla Commissione è conferito il potere di elaborare una metodologia di misurazione adeguata e comparabile per tali obblighi di comunicazione.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le nuove regole possono sostenere l&#039;innovazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro normativo può contribuire a una maggiore adozione dell&#039;IA in due modi. Da un lato, l&#039;aumento della fiducia degli utenti farà crescere la domanda di IA utilizzata dalle imprese e dalle autorità pubbliche. Dall&#039;altro, la maggiore certezza del diritto e l&#039;armonizzazione delle regole consentiranno ai fornitori di IA di accedere a mercati più grandi, con prodotti che gli utenti e i consumatori apprezzano e acquistano. Le regole si applicheranno solo laddove strettamente necessario e in modo da ridurre al minimo l&#039;onere per gli operatori economici, con una struttura di governance leggera.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA consente inoltre la creazione di spazi di sperimentazione normativa e di prova in condizioni reali, che forniscono un ambiente controllato per testare tecnologie innovative per un periodo di tempo limitato, promuovendo in tal modo l&#039;innovazione da parte delle imprese, delle PMI e delle start-up nel rispetto della legge sull&#039;IA. Queste, insieme ad altre misure quali le reti dei centri di eccellenza per l&#039;IA aggiuntive, il partenariato pubblico-privato sull&#039;intelligenza artificiale, i dati e la robotica e l&#039;accesso ai poli dell&#039;innovazione digitale e alle strutture di prova e sperimentazione, contribuiranno a creare le giuste condizioni quadro affinché le imprese sviluppino e utilizzino l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali dei sistemi di IA ad alto rischio possono essere effettuate per un massimo di 6 mesi (prorogabili di altri 6 mesi). Prima delle prove deve essere elaborato un piano che deve essere presentato all&#039;autorità di vigilanza del mercato, la quale deve approvare il piano e le condizioni di prova specifiche; in caso di mancata risposta entro 30 giorni, il piano si considera automaticamente approvato in modo tacito. Le prove possono essere oggetto di ispezioni senza preavviso da parte dell&#039;autorità.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali possono essere effettuate solo se sono presenti garanzie specifiche, ad esempio gli utenti dei sistemi sottoposti a prova in condizioni reali devono fornire un consenso informato, le prove non devono avere alcun effetto negativo sugli utenti, gli esiti delle prove devono essere reversibili o devono poter essere ignorati, e i loro dati devono essere cancellati dopo la conclusione delle prove. Una protezione speciale deve essere concessa ai gruppi vulnerabili, ad esempio a causa della loro età o della disabilità fisica o mentale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale ruolo svolge il patto per l&#039;IA nell&#039;attuazione della legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Avviato dal commissario Breton nel maggio 2023, il patto per l&#039;IA mira a rafforzare la collaborazione tra l&#039;ufficio per l&#039;IA e le organizzazioni (pilastro I) e a incoraggiare l&#039;impegno volontario del settore a iniziare ad attuare i requisiti della legge sull&#039;IA prima del termine legale (pilastro II).&lt;br /&gt;
&lt;br /&gt;
In particolare, nell&#039;ambito del pilastro I, i partecipanti contribuiranno alla creazione di una comunità collaborativa, condividendo le loro esperienze e conoscenze. In tale contesto l&#039;ufficio per l&#039;IA provvederà a organizzare seminari per fornire ai partecipanti una migliore comprensione della legge sull&#039;IA, delle loro responsabilità e di come prepararsi alla sua attuazione. A sua volta, l&#039;ufficio per l&#039;IA può raccogliere informazioni sulle migliori pratiche e sulle sfide cui devono far fronte i partecipanti.&lt;br /&gt;
&lt;br /&gt;
Nell&#039;ambito del pilastro II le organizzazioni sono incoraggiate a rendere noti proattivamente i processi e le pratiche che stanno attuando per la conformità anticipata alla legge sull&#039;IA, attraverso impegni volontari. Gli impegni sono intesi come &amp;quot;dichiarazioni di impegno&amp;quot; e conterranno azioni (pianificate o in corso) per soddisfare alcuni dei requisiti della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La maggior parte delle norme della legge sull&#039;IA (ad esempio, alcuni requisiti relativi ai sistemi di IA ad alto rischio) si applicherà alla fine di un periodo transitorio (ossia il periodo che intercorre tra l&#039;entrata in vigore e la data di applicabilità).&lt;br /&gt;
&lt;br /&gt;
In tale contesto e nel quadro del patto per l&#039;IA, l&#039;ufficio per l&#039;IA invita tutte le organizzazioni ad anticipare e attuare proattivamente alcune delle disposizioni fondamentali della legge sull&#039;IA, con l&#039;obiettivo di attenuare quanto prima i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Oltre 700 organizzazioni hanno già espresso il loro interesse ad aderire all&#039;iniziativa del patto per l&#039;IA, a seguito di un invito lanciato nel novembre 2023. Una prima sessione informativa si è tenuta online il 6 maggio, con 300 partecipanti. La firma ufficiale degli impegni volontari è prevista per l&#039;autunno 2024. Nella prima settimana di settembre si terrà un seminario relativo al patto per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Qual è la dimensione internazionale dell&#039;approccio dell&#039;UE?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le conseguenze e le sfide dell&#039;IA trascendono i confini, per questo motivo la cooperazione internazionale è fondamentale. L&#039;ufficio per l&#039;IA è responsabile dell&#039;impegno internazionale dell&#039;Unione europea nel settore dell&#039;IA, sulla base della legge sull&#039;IA e del piano coordinato sull&#039;IA. L&#039;UE mira a promuovere la gestione responsabile e la buona governance dell&#039;IA in collaborazione con i partner internazionali e in linea con il sistema multilaterale basato su regole e i valori che essa difende.&lt;br /&gt;
&lt;br /&gt;
L&#039;UE si impegna a livello bilaterale e multilaterale per promuovere un&#039;IA affidabile, antropocentrica ed etica. Di conseguenza, l&#039;UE partecipa a forum multilaterali in cui si discute dell&#039;IA – in particolare il G7, il G20, l&#039;OCSE, il Consiglio d&#039;Europa, il partenariato globale sull&#039;IA e le Nazioni Unite – e intrattiene stretti legami bilaterali, ad esempio con Canada, Stati Uniti, India, Giappone, Corea del Sud, Singapore e la regione dell&#039;America latina e dei Caraibi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Aggiornato l&#039;1.8.2024.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1348</id>
		<title>FAQ</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1348"/>
		<updated>2024-12-02T11:48:15Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Perché è necessario regolamentare l&#039;uso dell&#039;intelligenza artificiale?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge dell&#039;Unione europea sull&#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&#039;ambiente.&lt;br /&gt;
&lt;br /&gt;
L&#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&#039;innovazione dell&#039;UE e della sua competitività a livello mondiale. In determinati casi le caratteristiche specifiche di alcuni sistemi di IA possono tuttavia creare nuovi rischi per quanto riguarda la sicurezza, anche fisica, degli utenti e i diritti fondamentali. Alcuni potenti modelli di IA il cui utilizzo è molto diffuso potrebbero persino comportare rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
Ciò determina una mancanza di certezza del diritto e un&#039;adozione potenzialmente più lenta delle tecnologie di IA da parte delle autorità pubbliche, dovuta alla mancanza di fiducia. Risposte normative disuguali da parte delle autorità nazionali rischierebbero di frammentare il mercato interno.&lt;br /&gt;
&lt;br /&gt;
Per rispondere a queste sfide era necessaria un&#039;azione legislativa che garantisse il buon funzionamento del mercato interno per i sistemi di IA e tenesse adeguatamente conto sia dei benefici sia dei rischi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;A chi si applica la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro giuridico si applicherà ai soggetti pubblici e privati, all&#039;interno e all&#039;esterno dell&#039;UE, a condizione che il sistema di IA sia immesso sul mercato dell&#039;Unione o che il suo utilizzo abbia effetti su persone situate nell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
Gli obblighi possono riguardare sia i fornitori (ad esempio, uno sviluppatore di uno strumento di screening dei CV) sia i deployer di sistemi di IA (ad esempio, una banca che acquista il suddetto strumento di screening). Il regolamento prevede alcune deroghe. Le attività di ricerca, sviluppo e prototipazione che hanno luogo prima dell&#039;immissione sul mercato di un sistema di IA non sono soggette a tali regolamenti. Sono inoltre esenti anche i sistemi di IA progettati esclusivamente per finalità militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le categorie di rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA introduce un quadro uniforme in tutti gli Stati membri dell&#039;UE, basato su una definizione di IA che guarda al futuro e su un approccio basato sul rischio: &lt;br /&gt;
&lt;br /&gt;
* rischio inaccettabile: una serie molto limitata di usi dell&#039;IA particolarmente dannosi, che contravvengono ai valori dell&#039;UE perché violano i diritti fondamentali e che saranno pertanto vietati:&lt;br /&gt;
** sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali; &lt;br /&gt;
** punteggio sociale per finalità pubbliche e private; &lt;br /&gt;
** attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone; &lt;br /&gt;
** scraping non mirato di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l&#039;ampliamento di banche dati; &lt;br /&gt;
** riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota); &lt;br /&gt;
** categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell&#039;ambito delle attività di contrasto; &lt;br /&gt;
** identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle autorità di contrasto, fatte salve limitate eccezioni (v. sotto);&lt;br /&gt;
la Commissione pubblicherà orientamenti sui divieti prima della loro entrata in vigore il 2 febbraio 2025;&lt;br /&gt;
rischio alto: è considerato ad alto rischio un numero limitato di sistemi di IA definiti nella proposta, che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell&#039;UE). Al regolamento è allegato l&#039;elenco dei sistemi di IA ad alto rischio, che può essere riveduto per allinearsi all&#039;evoluzione dei casi d&#039;uso dell&#039;IA;&lt;br /&gt;
tali sistemi comprendono anche i componenti di sicurezza dei prodotti disciplinati dalla legislazione settoriale dell&#039;Unione, che saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale;&lt;br /&gt;
tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA che valutano se qualcuno può ricevere un determinato trattamento medico, ottenere un determinato lavoro o un prestito per acquistare un appartamento.  Altri sistemi di IA ad alto rischio sono quelli utilizzati dalla polizia per profilare le persone o valutarne il rischio di commettere un reato (a meno che non siano vietati a norma dell&#039;articolo 5). Potrebbero essere ad alto rischio anche i sistemi di IA che gestiscono robot, droni o dispositivi medici;&lt;br /&gt;
rischio specifico per la trasparenza: per promuovere la fiducia, è importante garantire la trasparenza sull&#039;uso dell&#039;IA. Pertanto la legge sull&#039;IA introduce specifici obblighi di trasparenza per determinate applicazioni di IA, ad esempio laddove esista un evidente rischio di manipolazione (ad esempio, attraverso l&#039;uso di chatbot) o di deep fake, affinché gli utenti siano consapevoli del fatto che stanno interagendo con una macchina; &lt;br /&gt;
rischio minimo: la maggioranza dei sistemi di IA possono essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici. I fornitori di tali sistemi possono scegliere di applicare, su base volontaria, i requisiti per un&#039;IA affidabile e aderire a codici di condotta volontari.&lt;br /&gt;
La legge sull&#039;IA prende inoltre in considerazione i rischi sistemici che potrebbero derivare dai modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, che possono essere utilizzati per un&#039;ampia serie di compiti e stanno diventando la base di molti sistemi di IA nell&#039;UE. Alcuni di questi modelli potrebbero comportare rischi sistemici se risultano particolarmente efficaci o molto utilizzati. Modelli potenti potrebbero ad esempio causare incidenti gravi o essere utilizzati impropriamente per attacchi informatici di vasta portata. Se un modello propagasse distorsioni dannose in molte applicazioni, le persone colpite potrebbero essere molte.   &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sapere se un sistema di IA è ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce una solida metodologia per la classificazione dei sistemi di IA come ad alto rischio. L&#039;obiettivo è garantire la certezza del diritto per le imprese e gli altri operatori.&lt;br /&gt;
&lt;br /&gt;
La classificazione del rischio si basa sulla finalità prevista del sistema di IA, in linea con la vigente legislazione dell&#039;UE in materia di sicurezza dei prodotti. Ciò significa che la classificazione dipende dalla funzione svolta dal sistema di IA e dalle finalità e modalità specifiche di utilizzo di tale sistema.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA possono essere classificati come ad alto rischio in due casi: &lt;br /&gt;
&lt;br /&gt;
se il sistema di IA è integrato come componente di sicurezza in prodotti disciplinati dalla legislazione vigente in materia di prodotti (allegato I) o costituisce esso stesso un simile prodotto. Questo potrebbe essere, ad esempio, il caso di un software medico basato sull&#039;IA; &lt;br /&gt;
se il sistema di IA è destinato a essere utilizzato per un caso d&#039;uso ad alto rischio, tra quelli elencati nell&#039;allegato III della legge sull&#039;IA. L&#039;elenco comprende casi d&#039;uso provenienti da settori quali l&#039;istruzione, l&#039;occupazione, le attività di contrasto o la migrazione. &lt;br /&gt;
La Commissione sta preparando orientamenti per la classificazione ad alto rischio, che saranno pubblicati prima della data di applicazione di tali norme. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli esempi di casi d&#039;uso ad alto rischio definiti nell&#039;allegato III?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;allegato III comprende otto settori in cui l&#039;uso dell&#039;IA può essere particolarmente sensibile ed elenca casi d&#039;uso concreti per ciascun settore. Un sistema di IA è classificato come ad alto rischio se è destinato a essere utilizzato in uno di questi casi d&#039;uso.&lt;br /&gt;
&lt;br /&gt;
Alcuni esempi sono:&lt;br /&gt;
&lt;br /&gt;
sistemi di IA utilizzati come componenti di sicurezza in determinate infrastrutture critiche, ad esempio nei settori del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;&lt;br /&gt;
sistemi di IA utilizzati nel settore dell&#039;istruzione e formazione professionale, ad esempio per valutare i risultati dell&#039;apprendimento, orientare il processo di apprendimento e monitorare i comportamenti disonesti;&lt;br /&gt;
sistemi di IA utilizzati nei settori dell&#039;occupazione, della gestione dei lavoratori e dell&#039;accesso al lavoro autonomo, ad esempio per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati;&lt;br /&gt;
sistemi di IA utilizzati per l&#039;accesso a servizi e a prestazioni pubblici e privati essenziali (ad esempio l&#039;assistenza sanitaria), la valutazione dell&#039;affidabilità creditizia delle persone fisiche e la valutazione dei rischi e la determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;&lt;br /&gt;
sistemi di IA utilizzati nei settori delle attività di contrasto, della migrazione e del controllo delle frontiere, nella misura in cui sono consentiti, nonché nell&#039;amministrazione della giustizia e nei processi democratici;&lt;br /&gt;
sistemi di IA utilizzati per l&#039;identificazione biometrica, la categorizzazione biometrica e il riconoscimento delle emozioni, nella misura in cui sono consentiti.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi per i fornitori di sistemi di IA ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prima di immettere un sistema di IA ad alto rischio sul mercato dell&#039;UE, o di metterlo in servizio, i fornitori devono sottoporlo a una valutazione della conformità. Potranno così dimostrare che il loro sistema è conforme ai requisiti obbligatori per un&#039;IA affidabile (ad esempio qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza, cibersicurezza e robustezza). Tale valutazione deve essere ripetuta in caso di modifica sostanziale del sistema o della sua finalità.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA che fungono da componenti di sicurezza di prodotti disciplinati dalla legislazione settoriale dell&#039;Unione saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale. Inoltre tutti i sistemi biometrici, indipendentemente dalla loro applicazione, richiederanno una valutazione della conformità da parte di terzi.&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio dovranno inoltre implementare sistemi di gestione della qualità e del rischio per garantire la conformità ai nuovi requisiti e ridurre al minimo i rischi per gli utenti e le persone interessate, anche dopo che un prodotto è stato immesso sul mercato.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA ad alto rischio utilizzati da autorità pubbliche o entità che agiscono per loro conto dovranno essere registrati in una banca dati pubblica dell&#039;UE, a meno che tali sistemi non siano utilizzati per le attività di contrasto e la migrazione. Questi ultimi sistemi dovranno essere registrati in una parte non pubblica della banca dati, che sarà accessibile solo alle autorità di controllo competenti.&lt;br /&gt;
&lt;br /&gt;
Per garantire la conformità durante l&#039;intero ciclo di vita del sistema di IA, le autorità di vigilanza del mercato effettueranno audit periodici e agevoleranno il monitoraggio successivo all&#039;immissione sul mercato e consentiranno ai fornitori di segnalare volontariamente eventuali incidenti gravi o violazioni degli obblighi in materia di diritti fondamentali di cui siano venuti a conoscenza.  In casi eccezionali, le autorità possono concedere deroghe per specifici sistemi di IA ad alto rischio da immettere sul mercato.&lt;br /&gt;
&lt;br /&gt;
In caso di violazione, i requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;uso del sistema di IA sia conforme alla legge. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale sarebbe il ruolo della normazione nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, i sistemi di IA ad alto rischio saranno soggetti a requisiti specifici. Le norme armonizzate europee svolgeranno un ruolo fondamentale nell&#039;attuazione di tali requisiti. &lt;br /&gt;
&lt;br /&gt;
Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC di elaborare norme per tali requisiti ad alto rischio. Tale mandato sarà ora modificato per allinearlo al testo finale della legge sull&#039;IA. &lt;br /&gt;
&lt;br /&gt;
Le organizzazioni europee di normazione avranno tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell&#039;UE. Una volta pubblicate, tali norme garantiranno una &amp;quot;presunzione di conformità&amp;quot; ai sistemi di IA sviluppati in conformità alle stesse.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sono regolamentati i modelli di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, possono essere utilizzati per vari compiti. I singoli modelli possono essere integrati in un gran numero di sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
È fondamentale che un fornitore di un sistema di IA che integra un modello di IA per finalità generali abbia accesso a tutte le informazioni necessarie per garantire che il suo sistema sia sicuro e conforme alla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA obbliga di conseguenza i fornitori di tali modelli a comunicare determinate informazioni ai fornitori di sistemi a valle. Una siffatta trasparenza rende possibile una migliore comprensione di tali modelli.&lt;br /&gt;
&lt;br /&gt;
È altresì necessario che i fornitori di modelli dispongano di politiche in essere atte a garantire il rispetto del diritto d&#039;autore nel corso dell&#039;addestramento dei loro modelli.&lt;br /&gt;
&lt;br /&gt;
Alcuni di questi modelli potrebbero inoltre comportare rischi sistemici, in quanto particolarmente efficaci o molto utilizzati.&lt;br /&gt;
&lt;br /&gt;
Attualmente si ritiene che i modelli di IA per finalità generali addestrati utilizzando una potenza di calcolo totale di oltre 10^25 FLOPS presentino rischi sistemici. La Commissione può aggiornare o integrare tale soglia alla luce dell&#039;evoluzione tecnologica e può inoltre designare altri modelli che ritiene presentino rischi sistemici sulla base di ulteriori criteri (ad esempio il numero di utenti o il grado di autonomia del modello).&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli che presentano rischi sistemici sono tenuti a valutare e attenuare i rischi, segnalare incidenti gravi, condurre prove e valutazioni all&#039;avanguardia dei modelli e garantire la cibersicurezza degli stessi.&lt;br /&gt;
&lt;br /&gt;
I fornitori sono invitati a collaborare con l&#039;ufficio per l&#039;IA e altri portatori di interessi per elaborare un codice di buone pratiche che specifichi le regole e garantisca così lo sviluppo sicuro e responsabile dei loro modelli. Tale codice dovrebbe rappresentare uno strumento centrale per i fornitori di modelli di IA per finalità generali al fine di dimostrarne la conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Per quale motivo 10^25 FLOPS è una soglia adeguata per l&#039;IA per finalità generali con rischi sistemici?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il FLOPS è un indicatore delle capacità del modello e la soglia FLOPS esatta può essere aggiornata al rialzo o al ribasso dalla Commissione, ad esempio alla luce dei progressi nella misurazione obiettiva delle capacità dei modelli e dell&#039;evoluzione della potenza di calcolo necessaria per un determinato livello di prestazione.&lt;br /&gt;
&lt;br /&gt;
Le capacità dei modelli al di sopra di tale soglia non sono ancora sufficientemente comprese: potrebbero comportare rischi sistemici ed è pertanto ragionevole imporre l&#039;insieme aggiuntivo di obblighi ai loro fornitori.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi relativi all&#039;aggiunta di filigrane digitali e all&#039;etichettatura dell&#039;output dell&#039;IA stabiliti nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce norme in materia di trasparenza per i contenuti prodotti dall&#039;IA generativa, al fine di affrontare il rischio di manipolazione, inganno e disinformazione.  &lt;br /&gt;
&lt;br /&gt;
Essa obbliga i fornitori di sistemi di IA generativa a contrassegnare gli output dell&#039;IA in un formato leggibile meccanicamente e a garantire che siano rilevabili come generati o manipolati artificialmente. Le soluzioni tecniche devono essere efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell&#039;arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche.  &lt;br /&gt;
&lt;br /&gt;
I deployer dei sistemi di IA generativa che generano o manipolano immagini o contenuti audio o video che costituiscono un &amp;quot;deep fake&amp;quot; devono inoltre rendere noto in modo visibile che il contenuto è stato generato o manipolato artificialmente. I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico devono anche rendere noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se il contenuto generato dall&#039;IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA pubblicherà orientamenti per fornire un&#039;ulteriore guida ai fornitori e ai deployer in merito agli obblighi di cui all&#039;articolo 50, che saranno applicabili due anni dopo l&#039;entrata in vigore della legge sull&#039;IA (il 2 agosto 2026).&lt;br /&gt;
&lt;br /&gt;
Inoltre l&#039;ufficio per l&#039;IA incoraggerà e agevolerà l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione per facilitare l&#039;efficace attuazione degli obblighi relativi alla rilevazione e all&#039;etichettatura dei contenuti generati o manipolati artificialmente.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA è adeguata alle esigenze future?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce un quadro giuridico che risponde ai nuovi sviluppi, è facile e rapido da adattare e consente una valutazione frequente.&lt;br /&gt;
&lt;br /&gt;
Essa stabilisce requisiti e obblighi orientati ai risultati, ma affida la definizione delle soluzioni tecniche e di livello operativo concrete alle norme e ai codici di buone pratiche determinati dall&#039;industria, che dispongono della flessibilità necessaria per essere adattati ai diversi casi d&#039;uso e rendere possibili nuove soluzioni tecnologiche.&lt;br /&gt;
&lt;br /&gt;
La legislazione stessa può inoltre essere modificata mediante atti delegati e di esecuzione, ad esempio per rivedere l&#039;elenco dei casi d&#039;uso ad alto rischio di cui all&#039;allegato III.&lt;br /&gt;
&lt;br /&gt;
Determinate parti della legge sull&#039;IA e, in ultima analisi, l&#039;intero regolamento, saranno infine oggetto di valutazioni frequenti, garantendo che siano individuate eventuali necessità di revisione e modifica.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come è disciplinata l&#039;identificazione biometrica nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;uso dell&#039;identificazione biometrica remota in tempo reale in spazi accessibili al pubblico (ossia il riconoscimento facciale mediante telecamere a circuito chiuso) a fini di attività di contrasto è vietato. Gli Stati membri possono introdurre nel loro diritto eccezioni che consentano l&#039;uso dell&#039;identificazione biometrica remota in tempo reale nei seguenti casi:&lt;br /&gt;
&lt;br /&gt;
attività di contrasto relative a 16 reati specifici molto gravi;&lt;br /&gt;
ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse;&lt;br /&gt;
prevenzione di minacce per la vita o l&#039;incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico.&lt;br /&gt;
Qualsiasi uso eccezionale sarebbe subordinato a un&#039;autorizzazione preventiva rilasciata da un&#039;autorità giudiziaria o amministrativa indipendente, la cui decisione è vincolante. In caso di urgenza, l&#039;approvazione può essere rilasciata entro 24 ore; se l&#039;autorizzazione è respinta, tutti i dati e gli output devono essere cancellati.&lt;br /&gt;
&lt;br /&gt;
L&#039;autorizzazione dovrebbe essere preceduta da una valutazione preventiva d&#039;impatto sui diritti fondamentali e dovrebbe essere notificata alle pertinenti autorità di vigilanza del mercato e autorità per la protezione dei dati. In situazioni di urgenza, è possibile iniziare a usare il sistema senza registrazione.&lt;br /&gt;
&lt;br /&gt;
L&#039;uso di sistemi di IA per l&#039;identificazione biometrica remota a posteriori (identificazione di persone in materiale raccolto in precedenza) delle persone oggetto di indagine richiede l&#039;autorizzazione preventiva da parte di un&#039;autorità giudiziaria o di un&#039;autorità amministrativa indipendente, nonché la notifica all&#039;autorità per la protezione dei dati e all&#039;autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché sono necessarie regole particolari per l&#039;identificazione biometrica remota?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può assumere varie forme. L&#039;autenticazione e la verifica biometriche, ad esempio per sbloccare uno smartphone o per la verifica/autenticazione ai valichi di frontiera dell&#039;identità di una persona rispetto ai suoi documenti di viaggio (corrispondenza &amp;quot;uno a uno&amp;quot;), rimangono non regolamentate, in quanto non rappresentano un rischio significativo per i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può essere utilizzata anche a distanza, ad esempio per identificare le persone in una folla, e ciò, al contrario, può avere un impatto significativo sulla tutela della vita privata nello spazio pubblico.&lt;br /&gt;
&lt;br /&gt;
L&#039;accuratezza dei sistemi per il riconoscimento facciale può essere significativamente influenzata da un&#039;ampia gamma di fattori, quali la qualità della fotocamera, la luce, la distanza, la banca dati, l&#039;algoritmo e l&#039;etnia, l&#039;età o il sesso del soggetto. Lo stesso vale per il riconoscimento vocale e dell&#039;andatura e per altri sistemi biometrici. Il tasso di falsi positivi dei sistemi altamente avanzati è in continua diminuzione.&lt;br /&gt;
&lt;br /&gt;
Tuttavia se un tasso di accuratezza del 99% può sembrare buono in generale, esso è notevolmente rischioso quando il risultato può condurre a sospettare di una persona innocente. Anche un tasso di errore dello 0,1% può avere un impatto significativo se applicato a un gran numero di persone, ad esempio nelle stazioni ferroviarie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le regole tutelano i diritti fondamentali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A livello dell&#039;UE e degli Stati membri esiste già una forte tutela dei diritti fondamentali e della non discriminazione, ma la complessità e l&#039;opacità di determinate applicazioni di IA (le cosiddette &amp;quot;scatole nere&amp;quot;) possono porre un problema.&lt;br /&gt;
&lt;br /&gt;
Un approccio antropocentrico all&#039;IA significa garantire che le applicazioni di IA rispettino la legislazione in materia di diritti fondamentali. Integrando i requisiti di responsabilità e trasparenza nello sviluppo di sistemi di IA ad alto rischio, e migliorando le capacità di applicazione della legislazione, possiamo garantire che tali sistemi siano progettati sin dall&#039;inizio tenendo conto del rispetto degli obblighi normativi. Qualora si verifichino delle violazioni, tali requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;IA è stata usata in modo conforme al diritto dell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA prevede inoltre che alcuni deployer di sistemi di IA ad alto rischio effettuino una valutazione d&#039;impatto sui diritti fondamentali. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Cos&#039;è una valutazione d&#039;impatto sui diritti fondamentali? Chi deve effettuare tale valutazione? Quando deve essere effettuata?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio devono effettuare una valutazione dei rischi e progettare il sistema in modo da ridurre al minimo i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Tuttavia alcuni rischi per i diritti fondamentali possono essere pienamente individuati solo conoscendo il contesto di utilizzo del sistema di IA ad alto rischio. Quando i sistemi di IA ad alto rischio sono utilizzati in settori particolarmente sensibili in cui possono verificarsi asimmetrie di potere, tali rischi vanno tenuti ulteriormente in considerazione.&lt;br /&gt;
&lt;br /&gt;
Pertanto i deployer che sono organismi di diritto pubblico o gli operatori privati che forniscono servizi pubblici, nonché gli operatori che forniscono sistemi di IA ad alto rischio che effettuano valutazioni dell&#039;affidabilità creditizia o valutazioni dei rischi e determinazione dei prezzi per assicurazioni sulla vita e assicurazioni sanitarie, devono effettuare una valutazione d&#039;impatto sui diritti fondamentali e comunicarne i risultati all&#039;autorità nazionale.&lt;br /&gt;
&lt;br /&gt;
Nella pratica anche molti deployer dovranno effettuare una valutazione d&#039;impatto sulla protezione dei dati. In tali casi, per evitare sovrapposizioni sostanziali, la valutazione d&#039;impatto sui diritti fondamentali è effettuata congiuntamente alla valutazione d&#039;impatto sulla protezione dei dati.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo questo regolamento affronta le distorsioni nell&#039;IA legate al genere o alla razza?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
È molto importante sottolineare che i sistemi di IA non creano o riproducono distorsioni. Anzi, se adeguatamente progettati e utilizzati, i sistemi di IA possono al contrario contribuire a ridurre le distorsioni e le discriminazioni strutturali esistenti, portando così a decisioni più eque e non discriminatorie (ad esempio nella selezione del personale).&lt;br /&gt;
&lt;br /&gt;
I nuovi requisiti obbligatori per tutti i sistemi di IA ad alto rischio serviranno a questo. I sistemi di IA devono essere tecnicamente robusti per garantire che siano adatti allo scopo e non producano risultati distorti, quali falsi positivi o negativi, che colpiscono in modo sproporzionato i gruppi emarginati, compresi quelli basati sull&#039;origine razziale o etnica, sul sesso, sull&#039;età e su altre caratteristiche protette.&lt;br /&gt;
&lt;br /&gt;
I sistemi ad alto rischio dovranno inoltre essere addestrati e testati con set di dati sufficientemente rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello e garantire che, se presenti, queste possano essere risolte mediante opportune misure di rilevazione, correzione e attenuazione.&lt;br /&gt;
&lt;br /&gt;
Tali sistemi devono inoltre essere tracciabili e verificabili, garantendo la conservazione dell&#039;opportuna documentazione, compresi i dati utilizzati per addestrare l&#039;algoritmo, fondamentali per le indagini ex post.&lt;br /&gt;
&lt;br /&gt;
Il sistema di verifica della conformità prima e dopo l&#039;immissione sul mercato dovrà garantire che tali sistemi siano regolarmente monitorati e che i rischi potenziali siano prontamente affrontati. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quando sarà pienamente applicabile la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA si applicherà il 2 agosto 2026, due anni dopo l&#039;entrata in vigore, ad eccezione che per le seguenti disposizioni specifiche:&lt;br /&gt;
&lt;br /&gt;
i divieti, le definizioni e le disposizioni relativi all&#039;alfabetizzazione in materia di IA si applicheranno 6 mesi dopo l&#039;entrata in vigore, il 2 febbraio 2025;&lt;br /&gt;
le norme in materia di governance e gli obblighi per l&#039;IA per finalità generali diventano applicabili 12 mesi dopo l&#039;entrata in vigore, il 2 agosto 2025;&lt;br /&gt;
gli obblighi per i sistemi di IA ad alto rischio, che si classificano come ad alto rischio perché integrati in prodotti regolamentati, elencati nell&#039;allegato II (elenco della normativa di armonizzazione dell&#039;Unione), si applicano 36 mesi dopo l&#039;entrata in vigore, il 2 agosto 2027.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà applicata la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce un sistema di governance a due livelli, in cui le autorità nazionali sono responsabili della supervisione e dell&#039;applicazione delle norme per i sistemi di IA, mentre l&#039;UE è responsabile della regolamentazione dei modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Per garantire la coerenza e la cooperazione a livello dell&#039;UE, sarà istituito il consiglio europeo per l&#039;intelligenza artificiale (consiglio per l&#039;IA), composto da rappresentanti degli Stati membri, con sottogruppi specializzati per le autorità nazionali di regolamentazione e altre autorità competenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA, l&#039;organismo della Commissione per l&#039;attuazione della legge sull&#039;IA, fornirà orientamenti strategici al consiglio per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce inoltre due organi consultivi per consentire agli esperti di fornire il loro contributo: il gruppo di esperti scientifici e il forum consultivo. Tali organismi consentiranno ai portatori di interessi e alle comunità scientifiche interdisciplinari di fornire spunti preziosi, che informeranno il processo decisionale e garantiranno un approccio equilibrato allo sviluppo dell&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché è necessario un consiglio europeo per l&#039;intelligenza artificiale e di cosa si occuperà?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il consiglio europeo per l&#039;intelligenza artificiale comprende rappresentanti di alto livello degli Stati membri e il Garante europeo della protezione dei dati. In qualità di consulente principale, il consiglio per l&#039;IA fornisce orientamenti su tutte le questioni relative alle politiche in materia di IA, in particolare quelle che riguardano la regolamentazione dell&#039;IA, l&#039;innovazione e l&#039;eccellenza e la cooperazione internazionale in materia di IA.&lt;br /&gt;
&lt;br /&gt;
Il consiglio per l&#039;IA svolge un ruolo cruciale nel garantire un&#039;attuazione agevole, efficace e armonizzata della legge sull&#039;IA. Il consiglio per l&#039;IA fungerà da forum in cui le autorità di regolamentazione dell&#039;IA, ossia l&#039;ufficio per l&#039;IA, le autorità nazionali e il Garante europeo della protezione dei dati, possono coordinare l&#039;applicazione coerente della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le sanzioni in caso di violazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Gli Stati membri dovranno stabilire sanzioni effettive, proporzionate e dissuasive in caso di violazione delle norme relative ai sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
Il regolamento stabilisce le soglie da tenere in considerazione:&lt;br /&gt;
&lt;br /&gt;
fino a 35 milioni di € o al 7% del fatturato mondiale totale annuo dell&#039;esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l&#039;inosservanza di requisiti in materia di dati;&lt;br /&gt;
fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi altro requisito o obbligo del regolamento;&lt;br /&gt;
fino a 7,5 milioni di € o all&#039;1,5% del fatturato mondiale totale annuo dell&#039;esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta;&lt;br /&gt;
per ciascuna categoria di violazione, la soglia per le PMI sarebbe l&#039;importo più basso tra i due previsti, mentre per le altre imprese sarebbe l&#039;importo più elevato.&lt;br /&gt;
La Commissione può inoltre applicare le norme sui fornitori di modelli di IA per finalità generali mediante sanzioni pecuniarie, tenendo in considerazione la seguente soglia:&lt;br /&gt;
&lt;br /&gt;
fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi obbligo o misura richiesta dalla Commissione a norma del regolamento.&lt;br /&gt;
Le istituzioni, le agenzie o gli organismi dell&#039;UE sono chiamate a dare l&#039;esempio e saranno quindi soggette anch&#039;esse alla normativa e a eventuali sanzioni. Il Garante europeo della protezione dei dati avrà il potere di infliggere loro sanzioni pecuniarie in caso di non conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà elaborato il codice di buone pratiche in materia di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;elaborazione del primo codice segue un processo inclusivo e trasparente. Sarà istituita una plenaria sul codice di buone pratiche per facilitare il processo iterativo di elaborazione e sarà costituita da tutti i fornitori interessati e ammissibili di modelli di IA per finalità generali, dai fornitori a valle che integrano un modello di IA per finalità generali nel loro sistema di IA, da altre organizzazioni del settore, da altre organizzazioni di portatori di interessi, quali la società civile o le organizzazioni dei titolari dei diritti, nonché da rappresentanti del mondo accademico e da altri esperti indipendenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA ha pubblicato un invito a manifestare interesse per partecipare all&#039;elaborazione del primo codice di buone pratiche. Parallelamente a tale invito a manifestare interesse, è stata avviata una consultazione multilaterale per raccogliere i pareri e i contributi di tutti i portatori di interessi sul primo codice di buone pratiche. Le risposte e le osservazioni costituiranno la base della prima iterazione per l&#039;elaborazione del codice di buone pratiche. Il codice si basa quindi fin dall&#039;inizio su una vasta gamma di prospettive e competenze.&lt;br /&gt;
&lt;br /&gt;
La plenaria sarà strutturata in quattro gruppi di lavoro per consentire discussioni mirate su temi specifici finalizzati a specificare gli obblighi per i fornitori di modelli di IA per finalità generali e di modelli di IA per finalità generali con rischio sistemico. I partecipanti alla plenaria sono liberi di scegliere uno o più gruppi di lavoro a cui desiderano partecipare. Le riunioni si svolgono esclusivamente online.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA nominerà i presidenti e, se del caso, i vicepresidenti di ciascuno dei quattro gruppi di lavoro della plenaria, selezionati tra gli esperti indipendenti interessati. I presidenti sintetizzeranno i contributi e le osservazioni dei partecipanti alla plenaria per elaborare iterativamente il primo codice di buone pratiche.&lt;br /&gt;
&lt;br /&gt;
In quanto principali destinatari del codice, i fornitori di modelli di IA per finalità generali saranno invitati a seminari dedicati per contribuire a informare ciascun ciclo iterativo di elaborazione, oltre che a partecipare alla plenaria.&lt;br /&gt;
&lt;br /&gt;
La versione definitiva del primo codice di buone pratiche sarà presentata dopo 9 mesi, in una sessione plenaria conclusiva prevista per aprile, e pubblicata. La plenaria conclusiva offrirà ai fornitori di modelli di IA per finalità generali l&#039;opportunità di esprimersi e dichiarare se intendono utilizzare il codice. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Se approvato, in che modo il codice di buone pratiche per i fornitori di modelli di IA per finalità generali funge da strumento centrale per la conformità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Al termine del processo di elaborazione del codice di buone pratiche, l&#039;ufficio per l&#039;IA e il consiglio per l&#039;IA ne valuteranno l&#039;adeguatezza e pubblicheranno la loro valutazione. In seguito a tale valutazione, la Commissione può decidere di approvare il codice di buone pratiche e conferirgli validità generale all&#039;interno dell&#039;Unione mediante atti di esecuzione. Se, nel momento in cui il regolamento diventa applicabile, il codice di buone pratiche non è ritenuto adeguato dall&#039;ufficio per l&#039;IA, la Commissione può stabilire norme comuni per l&#039;attuazione degli obblighi pertinenti.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali possono pertanto basarsi sul codice di buone pratiche per dimostrare il rispetto degli obblighi stabiliti dalla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, il codice di buone pratiche dovrebbe includere obiettivi, misure e, se del caso, indicatori chiave di prestazione (ICP).&lt;br /&gt;
&lt;br /&gt;
I fornitori che aderiscono al codice di buone pratiche dovrebbero riferire periodicamente all&#039;ufficio per l&#039;IA in merito all&#039;attuazione delle misure adottate e ai loro risultati, anche sulla base di indicatori chiave di prestazione, se del caso.&lt;br /&gt;
&lt;br /&gt;
Ciò facilita l&#039;applicazione della normativa da parte dell&#039;ufficio per l&#039;IA, che si avvale dei poteri conferiti alla Commissione dalla legge sull&#039;IA. Tali poteri includono la capacità di effettuare valutazioni dei modelli di IA per finalità generali, di richiedere informazioni e misure ai fornitori di modelli e di applicare sanzioni. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA incoraggerà e agevolerà, se del caso, la revisione e l&#039;adeguamento del codice per tenere conto dei progressi tecnologici e dello stato dell&#039;arte.&lt;br /&gt;
&lt;br /&gt;
Quando una norma armonizzata è pubblicata e ritenuta idonea a disciplinare i pertinenti obblighi da parte dell&#039;ufficio per l&#039;IA, la conformità a una norma armonizzata europea dovrebbe conferire ai fornitori la presunzione di conformità.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali dovrebbero inoltre essere in grado di dimostrare la conformità utilizzando mezzi adeguati alternativi, se non sono disponibili codici di buone pratiche o norme armonizzate, oppure se tali fornitori scelgono di non fare affidamento su tali codici e norme.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA contiene disposizioni in materia di protezione ambientale e sostenibilità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;obiettivo della proposta sull&#039;IA è affrontare i rischi per la sicurezza e i diritti fondamentali, compreso il diritto fondamentale a una protezione ambientale di alto livello. L&#039;ambiente è anche uno degli interessi giuridici esplicitamente menzionati e tutelati.&lt;br /&gt;
&lt;br /&gt;
La Commissione è invitata a chiedere alle organizzazioni europee di normazione di elaborare un prodotto di normazione sui processi di documentazione e segnalazione per migliorare le prestazioni dei sistemi di IA in termini di uso delle risorse, come la riduzione del consumo di energia e di altre risorse del sistema di IA ad alto rischio durante il suo ciclo di vita, e sullo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Entro due anni dalla data di applicazione del regolamento, e successivamente ogni quattro anni, la Commissione è inoltre invitata a presentare una relazione sul riesame dei progressi compiuti nell&#039;elaborazione dei prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli per finalità generali e a valutare la necessità di ulteriori misure o azioni, anche vincolanti.&lt;br /&gt;
&lt;br /&gt;
In aggiunta a ciò, i fornitori di modelli di IA per finalità generali, che sono addestrati su grandi quantità di dati e quindi soggetti a un elevato consumo di energia, sono tenuti a comunicare il consumo di energia. Nel caso di modelli di IA per finalità generali con rischi sistemici, occorre inoltre valutare l&#039;efficienza energetica.&lt;br /&gt;
&lt;br /&gt;
Alla Commissione è conferito il potere di elaborare una metodologia di misurazione adeguata e comparabile per tali obblighi di comunicazione.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le nuove regole possono sostenere l&#039;innovazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro normativo può contribuire a una maggiore adozione dell&#039;IA in due modi. Da un lato, l&#039;aumento della fiducia degli utenti farà crescere la domanda di IA utilizzata dalle imprese e dalle autorità pubbliche. Dall&#039;altro, la maggiore certezza del diritto e l&#039;armonizzazione delle regole consentiranno ai fornitori di IA di accedere a mercati più grandi, con prodotti che gli utenti e i consumatori apprezzano e acquistano. Le regole si applicheranno solo laddove strettamente necessario e in modo da ridurre al minimo l&#039;onere per gli operatori economici, con una struttura di governance leggera.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA consente inoltre la creazione di spazi di sperimentazione normativa e di prova in condizioni reali, che forniscono un ambiente controllato per testare tecnologie innovative per un periodo di tempo limitato, promuovendo in tal modo l&#039;innovazione da parte delle imprese, delle PMI e delle start-up nel rispetto della legge sull&#039;IA. Queste, insieme ad altre misure quali le reti dei centri di eccellenza per l&#039;IA aggiuntive, il partenariato pubblico-privato sull&#039;intelligenza artificiale, i dati e la robotica e l&#039;accesso ai poli dell&#039;innovazione digitale e alle strutture di prova e sperimentazione, contribuiranno a creare le giuste condizioni quadro affinché le imprese sviluppino e utilizzino l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali dei sistemi di IA ad alto rischio possono essere effettuate per un massimo di 6 mesi (prorogabili di altri 6 mesi). Prima delle prove deve essere elaborato un piano che deve essere presentato all&#039;autorità di vigilanza del mercato, la quale deve approvare il piano e le condizioni di prova specifiche; in caso di mancata risposta entro 30 giorni, il piano si considera automaticamente approvato in modo tacito. Le prove possono essere oggetto di ispezioni senza preavviso da parte dell&#039;autorità.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali possono essere effettuate solo se sono presenti garanzie specifiche, ad esempio gli utenti dei sistemi sottoposti a prova in condizioni reali devono fornire un consenso informato, le prove non devono avere alcun effetto negativo sugli utenti, gli esiti delle prove devono essere reversibili o devono poter essere ignorati, e i loro dati devono essere cancellati dopo la conclusione delle prove. Una protezione speciale deve essere concessa ai gruppi vulnerabili, ad esempio a causa della loro età o della disabilità fisica o mentale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale ruolo svolge il patto per l&#039;IA nell&#039;attuazione della legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Avviato dal commissario Breton nel maggio 2023, il patto per l&#039;IA mira a rafforzare la collaborazione tra l&#039;ufficio per l&#039;IA e le organizzazioni (pilastro I) e a incoraggiare l&#039;impegno volontario del settore a iniziare ad attuare i requisiti della legge sull&#039;IA prima del termine legale (pilastro II).&lt;br /&gt;
&lt;br /&gt;
In particolare, nell&#039;ambito del pilastro I, i partecipanti contribuiranno alla creazione di una comunità collaborativa, condividendo le loro esperienze e conoscenze. In tale contesto l&#039;ufficio per l&#039;IA provvederà a organizzare seminari per fornire ai partecipanti una migliore comprensione della legge sull&#039;IA, delle loro responsabilità e di come prepararsi alla sua attuazione. A sua volta, l&#039;ufficio per l&#039;IA può raccogliere informazioni sulle migliori pratiche e sulle sfide cui devono far fronte i partecipanti.&lt;br /&gt;
&lt;br /&gt;
Nell&#039;ambito del pilastro II le organizzazioni sono incoraggiate a rendere noti proattivamente i processi e le pratiche che stanno attuando per la conformità anticipata alla legge sull&#039;IA, attraverso impegni volontari. Gli impegni sono intesi come &amp;quot;dichiarazioni di impegno&amp;quot; e conterranno azioni (pianificate o in corso) per soddisfare alcuni dei requisiti della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La maggior parte delle norme della legge sull&#039;IA (ad esempio, alcuni requisiti relativi ai sistemi di IA ad alto rischio) si applicherà alla fine di un periodo transitorio (ossia il periodo che intercorre tra l&#039;entrata in vigore e la data di applicabilità).&lt;br /&gt;
&lt;br /&gt;
In tale contesto e nel quadro del patto per l&#039;IA, l&#039;ufficio per l&#039;IA invita tutte le organizzazioni ad anticipare e attuare proattivamente alcune delle disposizioni fondamentali della legge sull&#039;IA, con l&#039;obiettivo di attenuare quanto prima i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Oltre 700 organizzazioni hanno già espresso il loro interesse ad aderire all&#039;iniziativa del patto per l&#039;IA, a seguito di un invito lanciato nel novembre 2023. Una prima sessione informativa si è tenuta online il 6 maggio, con 300 partecipanti. La firma ufficiale degli impegni volontari è prevista per l&#039;autunno 2024. Nella prima settimana di settembre si terrà un seminario relativo al patto per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Qual è la dimensione internazionale dell&#039;approccio dell&#039;UE?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le conseguenze e le sfide dell&#039;IA trascendono i confini, per questo motivo la cooperazione internazionale è fondamentale. L&#039;ufficio per l&#039;IA è responsabile dell&#039;impegno internazionale dell&#039;Unione europea nel settore dell&#039;IA, sulla base della legge sull&#039;IA e del piano coordinato sull&#039;IA. L&#039;UE mira a promuovere la gestione responsabile e la buona governance dell&#039;IA in collaborazione con i partner internazionali e in linea con il sistema multilaterale basato su regole e i valori che essa difende.&lt;br /&gt;
&lt;br /&gt;
L&#039;UE si impegna a livello bilaterale e multilaterale per promuovere un&#039;IA affidabile, antropocentrica ed etica. Di conseguenza, l&#039;UE partecipa a forum multilaterali in cui si discute dell&#039;IA – in particolare il G7, il G20, l&#039;OCSE, il Consiglio d&#039;Europa, il partenariato globale sull&#039;IA e le Nazioni Unite – e intrattiene stretti legami bilaterali, ad esempio con Canada, Stati Uniti, India, Giappone, Corea del Sud, Singapore e la regione dell&#039;America latina e dei Caraibi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Aggiornato l&#039;1.8.2024.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1347</id>
		<title>FAQ</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1347"/>
		<updated>2024-12-01T20:36:05Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Perché è necessario regolamentare l&#039;uso dell&#039;intelligenza artificiale?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge dell&#039;Unione europea sull&#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&#039;ambiente.&lt;br /&gt;
&lt;br /&gt;
L&#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&#039;innovazione dell&#039;UE e della sua competitività a livello mondiale. In determinati casi le caratteristiche specifiche di alcuni sistemi di IA possono tuttavia creare nuovi rischi per quanto riguarda la sicurezza, anche fisica, degli utenti e i diritti fondamentali. Alcuni potenti modelli di IA il cui utilizzo è molto diffuso potrebbero persino comportare rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
Ciò determina una mancanza di certezza del diritto e un&#039;adozione potenzialmente più lenta delle tecnologie di IA da parte delle autorità pubbliche, dovuta alla mancanza di fiducia. Risposte normative disuguali da parte delle autorità nazionali rischierebbero di frammentare il mercato interno.&lt;br /&gt;
&lt;br /&gt;
Per rispondere a queste sfide era necessaria un&#039;azione legislativa che garantisse il buon funzionamento del mercato interno per i sistemi di IA e tenesse adeguatamente conto sia dei benefici sia dei rischi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;A chi si applica la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro giuridico si applicherà ai soggetti pubblici e privati, all&#039;interno e all&#039;esterno dell&#039;UE, a condizione che il sistema di IA sia immesso sul mercato dell&#039;Unione o che il suo utilizzo abbia effetti su persone situate nell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
Gli obblighi possono riguardare sia i fornitori (ad esempio, uno sviluppatore di uno strumento di screening dei CV) sia i deployer di sistemi di IA (ad esempio, una banca che acquista il suddetto strumento di screening). Il regolamento prevede alcune deroghe. Le attività di ricerca, sviluppo e prototipazione che hanno luogo prima dell&#039;immissione sul mercato di un sistema di IA non sono soggette a tali regolamenti. Sono inoltre esenti anche i sistemi di IA progettati esclusivamente per finalità militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le categorie di rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA introduce un quadro uniforme in tutti gli Stati membri dell&#039;UE, basato su una definizione di IA che guarda al futuro e su un approccio basato sul rischio: &lt;br /&gt;
&lt;br /&gt;
rischio inaccettabile: una serie molto limitata di usi dell&#039;IA particolarmente dannosi, che contravvengono ai valori dell&#039;UE perché violano i diritti fondamentali e che saranno pertanto vietati:&lt;br /&gt;
sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali; &lt;br /&gt;
punteggio sociale per finalità pubbliche e private; &lt;br /&gt;
attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone; &lt;br /&gt;
scraping non mirato di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l&#039;ampliamento di banche dati; &lt;br /&gt;
riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota); &lt;br /&gt;
categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell&#039;ambito delle attività di contrasto; &lt;br /&gt;
identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle autorità di contrasto, fatte salve limitate eccezioni (v. sotto);&lt;br /&gt;
la Commissione pubblicherà orientamenti sui divieti prima della loro entrata in vigore il 2 febbraio 2025;&lt;br /&gt;
rischio alto: è considerato ad alto rischio un numero limitato di sistemi di IA definiti nella proposta, che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell&#039;UE). Al regolamento è allegato l&#039;elenco dei sistemi di IA ad alto rischio, che può essere riveduto per allinearsi all&#039;evoluzione dei casi d&#039;uso dell&#039;IA;&lt;br /&gt;
tali sistemi comprendono anche i componenti di sicurezza dei prodotti disciplinati dalla legislazione settoriale dell&#039;Unione, che saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale;&lt;br /&gt;
tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA che valutano se qualcuno può ricevere un determinato trattamento medico, ottenere un determinato lavoro o un prestito per acquistare un appartamento.  Altri sistemi di IA ad alto rischio sono quelli utilizzati dalla polizia per profilare le persone o valutarne il rischio di commettere un reato (a meno che non siano vietati a norma dell&#039;articolo 5). Potrebbero essere ad alto rischio anche i sistemi di IA che gestiscono robot, droni o dispositivi medici;&lt;br /&gt;
rischio specifico per la trasparenza: per promuovere la fiducia, è importante garantire la trasparenza sull&#039;uso dell&#039;IA. Pertanto la legge sull&#039;IA introduce specifici obblighi di trasparenza per determinate applicazioni di IA, ad esempio laddove esista un evidente rischio di manipolazione (ad esempio, attraverso l&#039;uso di chatbot) o di deep fake, affinché gli utenti siano consapevoli del fatto che stanno interagendo con una macchina; &lt;br /&gt;
rischio minimo: la maggioranza dei sistemi di IA possono essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici. I fornitori di tali sistemi possono scegliere di applicare, su base volontaria, i requisiti per un&#039;IA affidabile e aderire a codici di condotta volontari.&lt;br /&gt;
La legge sull&#039;IA prende inoltre in considerazione i rischi sistemici che potrebbero derivare dai modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, che possono essere utilizzati per un&#039;ampia serie di compiti e stanno diventando la base di molti sistemi di IA nell&#039;UE. Alcuni di questi modelli potrebbero comportare rischi sistemici se risultano particolarmente efficaci o molto utilizzati. Modelli potenti potrebbero ad esempio causare incidenti gravi o essere utilizzati impropriamente per attacchi informatici di vasta portata. Se un modello propagasse distorsioni dannose in molte applicazioni, le persone colpite potrebbero essere molte.   &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sapere se un sistema di IA è ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce una solida metodologia per la classificazione dei sistemi di IA come ad alto rischio. L&#039;obiettivo è garantire la certezza del diritto per le imprese e gli altri operatori.&lt;br /&gt;
&lt;br /&gt;
La classificazione del rischio si basa sulla finalità prevista del sistema di IA, in linea con la vigente legislazione dell&#039;UE in materia di sicurezza dei prodotti. Ciò significa che la classificazione dipende dalla funzione svolta dal sistema di IA e dalle finalità e modalità specifiche di utilizzo di tale sistema.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA possono essere classificati come ad alto rischio in due casi: &lt;br /&gt;
&lt;br /&gt;
se il sistema di IA è integrato come componente di sicurezza in prodotti disciplinati dalla legislazione vigente in materia di prodotti (allegato I) o costituisce esso stesso un simile prodotto. Questo potrebbe essere, ad esempio, il caso di un software medico basato sull&#039;IA; &lt;br /&gt;
se il sistema di IA è destinato a essere utilizzato per un caso d&#039;uso ad alto rischio, tra quelli elencati nell&#039;allegato III della legge sull&#039;IA. L&#039;elenco comprende casi d&#039;uso provenienti da settori quali l&#039;istruzione, l&#039;occupazione, le attività di contrasto o la migrazione. &lt;br /&gt;
La Commissione sta preparando orientamenti per la classificazione ad alto rischio, che saranno pubblicati prima della data di applicazione di tali norme. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli esempi di casi d&#039;uso ad alto rischio definiti nell&#039;allegato III?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;allegato III comprende otto settori in cui l&#039;uso dell&#039;IA può essere particolarmente sensibile ed elenca casi d&#039;uso concreti per ciascun settore. Un sistema di IA è classificato come ad alto rischio se è destinato a essere utilizzato in uno di questi casi d&#039;uso.&lt;br /&gt;
&lt;br /&gt;
Alcuni esempi sono:&lt;br /&gt;
&lt;br /&gt;
sistemi di IA utilizzati come componenti di sicurezza in determinate infrastrutture critiche, ad esempio nei settori del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;&lt;br /&gt;
sistemi di IA utilizzati nel settore dell&#039;istruzione e formazione professionale, ad esempio per valutare i risultati dell&#039;apprendimento, orientare il processo di apprendimento e monitorare i comportamenti disonesti;&lt;br /&gt;
sistemi di IA utilizzati nei settori dell&#039;occupazione, della gestione dei lavoratori e dell&#039;accesso al lavoro autonomo, ad esempio per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati;&lt;br /&gt;
sistemi di IA utilizzati per l&#039;accesso a servizi e a prestazioni pubblici e privati essenziali (ad esempio l&#039;assistenza sanitaria), la valutazione dell&#039;affidabilità creditizia delle persone fisiche e la valutazione dei rischi e la determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;&lt;br /&gt;
sistemi di IA utilizzati nei settori delle attività di contrasto, della migrazione e del controllo delle frontiere, nella misura in cui sono consentiti, nonché nell&#039;amministrazione della giustizia e nei processi democratici;&lt;br /&gt;
sistemi di IA utilizzati per l&#039;identificazione biometrica, la categorizzazione biometrica e il riconoscimento delle emozioni, nella misura in cui sono consentiti.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi per i fornitori di sistemi di IA ad alto rischio?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prima di immettere un sistema di IA ad alto rischio sul mercato dell&#039;UE, o di metterlo in servizio, i fornitori devono sottoporlo a una valutazione della conformità. Potranno così dimostrare che il loro sistema è conforme ai requisiti obbligatori per un&#039;IA affidabile (ad esempio qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza, cibersicurezza e robustezza). Tale valutazione deve essere ripetuta in caso di modifica sostanziale del sistema o della sua finalità.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA che fungono da componenti di sicurezza di prodotti disciplinati dalla legislazione settoriale dell&#039;Unione saranno sempre considerati ad alto rischio se soggetti a una valutazione della conformità da parte di terzi ai sensi di tale legislazione settoriale. Inoltre tutti i sistemi biometrici, indipendentemente dalla loro applicazione, richiederanno una valutazione della conformità da parte di terzi.&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio dovranno inoltre implementare sistemi di gestione della qualità e del rischio per garantire la conformità ai nuovi requisiti e ridurre al minimo i rischi per gli utenti e le persone interessate, anche dopo che un prodotto è stato immesso sul mercato.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA ad alto rischio utilizzati da autorità pubbliche o entità che agiscono per loro conto dovranno essere registrati in una banca dati pubblica dell&#039;UE, a meno che tali sistemi non siano utilizzati per le attività di contrasto e la migrazione. Questi ultimi sistemi dovranno essere registrati in una parte non pubblica della banca dati, che sarà accessibile solo alle autorità di controllo competenti.&lt;br /&gt;
&lt;br /&gt;
Per garantire la conformità durante l&#039;intero ciclo di vita del sistema di IA, le autorità di vigilanza del mercato effettueranno audit periodici e agevoleranno il monitoraggio successivo all&#039;immissione sul mercato e consentiranno ai fornitori di segnalare volontariamente eventuali incidenti gravi o violazioni degli obblighi in materia di diritti fondamentali di cui siano venuti a conoscenza.  In casi eccezionali, le autorità possono concedere deroghe per specifici sistemi di IA ad alto rischio da immettere sul mercato.&lt;br /&gt;
&lt;br /&gt;
In caso di violazione, i requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;uso del sistema di IA sia conforme alla legge. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale sarebbe il ruolo della normazione nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, i sistemi di IA ad alto rischio saranno soggetti a requisiti specifici. Le norme armonizzate europee svolgeranno un ruolo fondamentale nell&#039;attuazione di tali requisiti. &lt;br /&gt;
&lt;br /&gt;
Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC di elaborare norme per tali requisiti ad alto rischio. Tale mandato sarà ora modificato per allinearlo al testo finale della legge sull&#039;IA. &lt;br /&gt;
&lt;br /&gt;
Le organizzazioni europee di normazione avranno tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell&#039;UE. Una volta pubblicate, tali norme garantiranno una &amp;quot;presunzione di conformità&amp;quot; ai sistemi di IA sviluppati in conformità alle stesse.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come sono regolamentati i modelli di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, possono essere utilizzati per vari compiti. I singoli modelli possono essere integrati in un gran numero di sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
È fondamentale che un fornitore di un sistema di IA che integra un modello di IA per finalità generali abbia accesso a tutte le informazioni necessarie per garantire che il suo sistema sia sicuro e conforme alla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA obbliga di conseguenza i fornitori di tali modelli a comunicare determinate informazioni ai fornitori di sistemi a valle. Una siffatta trasparenza rende possibile una migliore comprensione di tali modelli.&lt;br /&gt;
&lt;br /&gt;
È altresì necessario che i fornitori di modelli dispongano di politiche in essere atte a garantire il rispetto del diritto d&#039;autore nel corso dell&#039;addestramento dei loro modelli.&lt;br /&gt;
&lt;br /&gt;
Alcuni di questi modelli potrebbero inoltre comportare rischi sistemici, in quanto particolarmente efficaci o molto utilizzati.&lt;br /&gt;
&lt;br /&gt;
Attualmente si ritiene che i modelli di IA per finalità generali addestrati utilizzando una potenza di calcolo totale di oltre 10^25 FLOPS presentino rischi sistemici. La Commissione può aggiornare o integrare tale soglia alla luce dell&#039;evoluzione tecnologica e può inoltre designare altri modelli che ritiene presentino rischi sistemici sulla base di ulteriori criteri (ad esempio il numero di utenti o il grado di autonomia del modello).&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli che presentano rischi sistemici sono tenuti a valutare e attenuare i rischi, segnalare incidenti gravi, condurre prove e valutazioni all&#039;avanguardia dei modelli e garantire la cibersicurezza degli stessi.&lt;br /&gt;
&lt;br /&gt;
I fornitori sono invitati a collaborare con l&#039;ufficio per l&#039;IA e altri portatori di interessi per elaborare un codice di buone pratiche che specifichi le regole e garantisca così lo sviluppo sicuro e responsabile dei loro modelli. Tale codice dovrebbe rappresentare uno strumento centrale per i fornitori di modelli di IA per finalità generali al fine di dimostrarne la conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Per quale motivo 10^25 FLOPS è una soglia adeguata per l&#039;IA per finalità generali con rischi sistemici?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il FLOPS è un indicatore delle capacità del modello e la soglia FLOPS esatta può essere aggiornata al rialzo o al ribasso dalla Commissione, ad esempio alla luce dei progressi nella misurazione obiettiva delle capacità dei modelli e dell&#039;evoluzione della potenza di calcolo necessaria per un determinato livello di prestazione.&lt;br /&gt;
&lt;br /&gt;
Le capacità dei modelli al di sopra di tale soglia non sono ancora sufficientemente comprese: potrebbero comportare rischi sistemici ed è pertanto ragionevole imporre l&#039;insieme aggiuntivo di obblighi ai loro fornitori.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono gli obblighi relativi all&#039;aggiunta di filigrane digitali e all&#039;etichettatura dell&#039;output dell&#039;IA stabiliti nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce norme in materia di trasparenza per i contenuti prodotti dall&#039;IA generativa, al fine di affrontare il rischio di manipolazione, inganno e disinformazione.  &lt;br /&gt;
&lt;br /&gt;
Essa obbliga i fornitori di sistemi di IA generativa a contrassegnare gli output dell&#039;IA in un formato leggibile meccanicamente e a garantire che siano rilevabili come generati o manipolati artificialmente. Le soluzioni tecniche devono essere efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell&#039;arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche.  &lt;br /&gt;
&lt;br /&gt;
I deployer dei sistemi di IA generativa che generano o manipolano immagini o contenuti audio o video che costituiscono un &amp;quot;deep fake&amp;quot; devono inoltre rendere noto in modo visibile che il contenuto è stato generato o manipolato artificialmente. I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico devono anche rendere noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se il contenuto generato dall&#039;IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA pubblicherà orientamenti per fornire un&#039;ulteriore guida ai fornitori e ai deployer in merito agli obblighi di cui all&#039;articolo 50, che saranno applicabili due anni dopo l&#039;entrata in vigore della legge sull&#039;IA (il 2 agosto 2026).&lt;br /&gt;
&lt;br /&gt;
Inoltre l&#039;ufficio per l&#039;IA incoraggerà e agevolerà l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione per facilitare l&#039;efficace attuazione degli obblighi relativi alla rilevazione e all&#039;etichettatura dei contenuti generati o manipolati artificialmente.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA è adeguata alle esigenze future?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA stabilisce un quadro giuridico che risponde ai nuovi sviluppi, è facile e rapido da adattare e consente una valutazione frequente.&lt;br /&gt;
&lt;br /&gt;
Essa stabilisce requisiti e obblighi orientati ai risultati, ma affida la definizione delle soluzioni tecniche e di livello operativo concrete alle norme e ai codici di buone pratiche determinati dall&#039;industria, che dispongono della flessibilità necessaria per essere adattati ai diversi casi d&#039;uso e rendere possibili nuove soluzioni tecnologiche.&lt;br /&gt;
&lt;br /&gt;
La legislazione stessa può inoltre essere modificata mediante atti delegati e di esecuzione, ad esempio per rivedere l&#039;elenco dei casi d&#039;uso ad alto rischio di cui all&#039;allegato III.&lt;br /&gt;
&lt;br /&gt;
Determinate parti della legge sull&#039;IA e, in ultima analisi, l&#039;intero regolamento, saranno infine oggetto di valutazioni frequenti, garantendo che siano individuate eventuali necessità di revisione e modifica.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Come è disciplinata l&#039;identificazione biometrica nella legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;uso dell&#039;identificazione biometrica remota in tempo reale in spazi accessibili al pubblico (ossia il riconoscimento facciale mediante telecamere a circuito chiuso) a fini di attività di contrasto è vietato. Gli Stati membri possono introdurre nel loro diritto eccezioni che consentano l&#039;uso dell&#039;identificazione biometrica remota in tempo reale nei seguenti casi:&lt;br /&gt;
&lt;br /&gt;
attività di contrasto relative a 16 reati specifici molto gravi;&lt;br /&gt;
ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse;&lt;br /&gt;
prevenzione di minacce per la vita o l&#039;incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico.&lt;br /&gt;
Qualsiasi uso eccezionale sarebbe subordinato a un&#039;autorizzazione preventiva rilasciata da un&#039;autorità giudiziaria o amministrativa indipendente, la cui decisione è vincolante. In caso di urgenza, l&#039;approvazione può essere rilasciata entro 24 ore; se l&#039;autorizzazione è respinta, tutti i dati e gli output devono essere cancellati.&lt;br /&gt;
&lt;br /&gt;
L&#039;autorizzazione dovrebbe essere preceduta da una valutazione preventiva d&#039;impatto sui diritti fondamentali e dovrebbe essere notificata alle pertinenti autorità di vigilanza del mercato e autorità per la protezione dei dati. In situazioni di urgenza, è possibile iniziare a usare il sistema senza registrazione.&lt;br /&gt;
&lt;br /&gt;
L&#039;uso di sistemi di IA per l&#039;identificazione biometrica remota a posteriori (identificazione di persone in materiale raccolto in precedenza) delle persone oggetto di indagine richiede l&#039;autorizzazione preventiva da parte di un&#039;autorità giudiziaria o di un&#039;autorità amministrativa indipendente, nonché la notifica all&#039;autorità per la protezione dei dati e all&#039;autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché sono necessarie regole particolari per l&#039;identificazione biometrica remota?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può assumere varie forme. L&#039;autenticazione e la verifica biometriche, ad esempio per sbloccare uno smartphone o per la verifica/autenticazione ai valichi di frontiera dell&#039;identità di una persona rispetto ai suoi documenti di viaggio (corrispondenza &amp;quot;uno a uno&amp;quot;), rimangono non regolamentate, in quanto non rappresentano un rischio significativo per i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
L&#039;identificazione biometrica può essere utilizzata anche a distanza, ad esempio per identificare le persone in una folla, e ciò, al contrario, può avere un impatto significativo sulla tutela della vita privata nello spazio pubblico.&lt;br /&gt;
&lt;br /&gt;
L&#039;accuratezza dei sistemi per il riconoscimento facciale può essere significativamente influenzata da un&#039;ampia gamma di fattori, quali la qualità della fotocamera, la luce, la distanza, la banca dati, l&#039;algoritmo e l&#039;etnia, l&#039;età o il sesso del soggetto. Lo stesso vale per il riconoscimento vocale e dell&#039;andatura e per altri sistemi biometrici. Il tasso di falsi positivi dei sistemi altamente avanzati è in continua diminuzione.&lt;br /&gt;
&lt;br /&gt;
Tuttavia se un tasso di accuratezza del 99% può sembrare buono in generale, esso è notevolmente rischioso quando il risultato può condurre a sospettare di una persona innocente. Anche un tasso di errore dello 0,1% può avere un impatto significativo se applicato a un gran numero di persone, ad esempio nelle stazioni ferroviarie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le regole tutelano i diritti fondamentali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A livello dell&#039;UE e degli Stati membri esiste già una forte tutela dei diritti fondamentali e della non discriminazione, ma la complessità e l&#039;opacità di determinate applicazioni di IA (le cosiddette &amp;quot;scatole nere&amp;quot;) possono porre un problema.&lt;br /&gt;
&lt;br /&gt;
Un approccio antropocentrico all&#039;IA significa garantire che le applicazioni di IA rispettino la legislazione in materia di diritti fondamentali. Integrando i requisiti di responsabilità e trasparenza nello sviluppo di sistemi di IA ad alto rischio, e migliorando le capacità di applicazione della legislazione, possiamo garantire che tali sistemi siano progettati sin dall&#039;inizio tenendo conto del rispetto degli obblighi normativi. Qualora si verifichino delle violazioni, tali requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per indagare se l&#039;IA è stata usata in modo conforme al diritto dell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA prevede inoltre che alcuni deployer di sistemi di IA ad alto rischio effettuino una valutazione d&#039;impatto sui diritti fondamentali. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Cos&#039;è una valutazione d&#039;impatto sui diritti fondamentali? Chi deve effettuare tale valutazione? Quando deve essere effettuata?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
I fornitori di sistemi di IA ad alto rischio devono effettuare una valutazione dei rischi e progettare il sistema in modo da ridurre al minimo i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Tuttavia alcuni rischi per i diritti fondamentali possono essere pienamente individuati solo conoscendo il contesto di utilizzo del sistema di IA ad alto rischio. Quando i sistemi di IA ad alto rischio sono utilizzati in settori particolarmente sensibili in cui possono verificarsi asimmetrie di potere, tali rischi vanno tenuti ulteriormente in considerazione.&lt;br /&gt;
&lt;br /&gt;
Pertanto i deployer che sono organismi di diritto pubblico o gli operatori privati che forniscono servizi pubblici, nonché gli operatori che forniscono sistemi di IA ad alto rischio che effettuano valutazioni dell&#039;affidabilità creditizia o valutazioni dei rischi e determinazione dei prezzi per assicurazioni sulla vita e assicurazioni sanitarie, devono effettuare una valutazione d&#039;impatto sui diritti fondamentali e comunicarne i risultati all&#039;autorità nazionale.&lt;br /&gt;
&lt;br /&gt;
Nella pratica anche molti deployer dovranno effettuare una valutazione d&#039;impatto sulla protezione dei dati. In tali casi, per evitare sovrapposizioni sostanziali, la valutazione d&#039;impatto sui diritti fondamentali è effettuata congiuntamente alla valutazione d&#039;impatto sulla protezione dei dati.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo questo regolamento affronta le distorsioni nell&#039;IA legate al genere o alla razza?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
È molto importante sottolineare che i sistemi di IA non creano o riproducono distorsioni. Anzi, se adeguatamente progettati e utilizzati, i sistemi di IA possono al contrario contribuire a ridurre le distorsioni e le discriminazioni strutturali esistenti, portando così a decisioni più eque e non discriminatorie (ad esempio nella selezione del personale).&lt;br /&gt;
&lt;br /&gt;
I nuovi requisiti obbligatori per tutti i sistemi di IA ad alto rischio serviranno a questo. I sistemi di IA devono essere tecnicamente robusti per garantire che siano adatti allo scopo e non producano risultati distorti, quali falsi positivi o negativi, che colpiscono in modo sproporzionato i gruppi emarginati, compresi quelli basati sull&#039;origine razziale o etnica, sul sesso, sull&#039;età e su altre caratteristiche protette.&lt;br /&gt;
&lt;br /&gt;
I sistemi ad alto rischio dovranno inoltre essere addestrati e testati con set di dati sufficientemente rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello e garantire che, se presenti, queste possano essere risolte mediante opportune misure di rilevazione, correzione e attenuazione.&lt;br /&gt;
&lt;br /&gt;
Tali sistemi devono inoltre essere tracciabili e verificabili, garantendo la conservazione dell&#039;opportuna documentazione, compresi i dati utilizzati per addestrare l&#039;algoritmo, fondamentali per le indagini ex post.&lt;br /&gt;
&lt;br /&gt;
Il sistema di verifica della conformità prima e dopo l&#039;immissione sul mercato dovrà garantire che tali sistemi siano regolarmente monitorati e che i rischi potenziali siano prontamente affrontati. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quando sarà pienamente applicabile la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA si applicherà il 2 agosto 2026, due anni dopo l&#039;entrata in vigore, ad eccezione che per le seguenti disposizioni specifiche:&lt;br /&gt;
&lt;br /&gt;
i divieti, le definizioni e le disposizioni relativi all&#039;alfabetizzazione in materia di IA si applicheranno 6 mesi dopo l&#039;entrata in vigore, il 2 febbraio 2025;&lt;br /&gt;
le norme in materia di governance e gli obblighi per l&#039;IA per finalità generali diventano applicabili 12 mesi dopo l&#039;entrata in vigore, il 2 agosto 2025;&lt;br /&gt;
gli obblighi per i sistemi di IA ad alto rischio, che si classificano come ad alto rischio perché integrati in prodotti regolamentati, elencati nell&#039;allegato II (elenco della normativa di armonizzazione dell&#039;Unione), si applicano 36 mesi dopo l&#039;entrata in vigore, il 2 agosto 2027.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà applicata la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce un sistema di governance a due livelli, in cui le autorità nazionali sono responsabili della supervisione e dell&#039;applicazione delle norme per i sistemi di IA, mentre l&#039;UE è responsabile della regolamentazione dei modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Per garantire la coerenza e la cooperazione a livello dell&#039;UE, sarà istituito il consiglio europeo per l&#039;intelligenza artificiale (consiglio per l&#039;IA), composto da rappresentanti degli Stati membri, con sottogruppi specializzati per le autorità nazionali di regolamentazione e altre autorità competenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA, l&#039;organismo della Commissione per l&#039;attuazione della legge sull&#039;IA, fornirà orientamenti strategici al consiglio per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA istituisce inoltre due organi consultivi per consentire agli esperti di fornire il loro contributo: il gruppo di esperti scientifici e il forum consultivo. Tali organismi consentiranno ai portatori di interessi e alle comunità scientifiche interdisciplinari di fornire spunti preziosi, che informeranno il processo decisionale e garantiranno un approccio equilibrato allo sviluppo dell&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Perché è necessario un consiglio europeo per l&#039;intelligenza artificiale e di cosa si occuperà?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il consiglio europeo per l&#039;intelligenza artificiale comprende rappresentanti di alto livello degli Stati membri e il Garante europeo della protezione dei dati. In qualità di consulente principale, il consiglio per l&#039;IA fornisce orientamenti su tutte le questioni relative alle politiche in materia di IA, in particolare quelle che riguardano la regolamentazione dell&#039;IA, l&#039;innovazione e l&#039;eccellenza e la cooperazione internazionale in materia di IA.&lt;br /&gt;
&lt;br /&gt;
Il consiglio per l&#039;IA svolge un ruolo cruciale nel garantire un&#039;attuazione agevole, efficace e armonizzata della legge sull&#039;IA. Il consiglio per l&#039;IA fungerà da forum in cui le autorità di regolamentazione dell&#039;IA, ossia l&#039;ufficio per l&#039;IA, le autorità nazionali e il Garante europeo della protezione dei dati, possono coordinare l&#039;applicazione coerente della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quali sono le sanzioni in caso di violazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Gli Stati membri dovranno stabilire sanzioni effettive, proporzionate e dissuasive in caso di violazione delle norme relative ai sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
Il regolamento stabilisce le soglie da tenere in considerazione:&lt;br /&gt;
&lt;br /&gt;
fino a 35 milioni di € o al 7% del fatturato mondiale totale annuo dell&#039;esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l&#039;inosservanza di requisiti in materia di dati;&lt;br /&gt;
fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi altro requisito o obbligo del regolamento;&lt;br /&gt;
fino a 7,5 milioni di € o all&#039;1,5% del fatturato mondiale totale annuo dell&#039;esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta;&lt;br /&gt;
per ciascuna categoria di violazione, la soglia per le PMI sarebbe l&#039;importo più basso tra i due previsti, mentre per le altre imprese sarebbe l&#039;importo più elevato.&lt;br /&gt;
La Commissione può inoltre applicare le norme sui fornitori di modelli di IA per finalità generali mediante sanzioni pecuniarie, tenendo in considerazione la seguente soglia:&lt;br /&gt;
&lt;br /&gt;
fino a 15 milioni di € o al 3% del fatturato mondiale totale annuo dell&#039;esercizio precedente per l&#039;inosservanza di qualsiasi obbligo o misura richiesta dalla Commissione a norma del regolamento.&lt;br /&gt;
Le istituzioni, le agenzie o gli organismi dell&#039;UE sono chiamate a dare l&#039;esempio e saranno quindi soggette anch&#039;esse alla normativa e a eventuali sanzioni. Il Garante europeo della protezione dei dati avrà il potere di infliggere loro sanzioni pecuniarie in caso di non conformità. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo sarà elaborato il codice di buone pratiche in materia di IA per finalità generali?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;elaborazione del primo codice segue un processo inclusivo e trasparente. Sarà istituita una plenaria sul codice di buone pratiche per facilitare il processo iterativo di elaborazione e sarà costituita da tutti i fornitori interessati e ammissibili di modelli di IA per finalità generali, dai fornitori a valle che integrano un modello di IA per finalità generali nel loro sistema di IA, da altre organizzazioni del settore, da altre organizzazioni di portatori di interessi, quali la società civile o le organizzazioni dei titolari dei diritti, nonché da rappresentanti del mondo accademico e da altri esperti indipendenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA ha pubblicato un invito a manifestare interesse per partecipare all&#039;elaborazione del primo codice di buone pratiche. Parallelamente a tale invito a manifestare interesse, è stata avviata una consultazione multilaterale per raccogliere i pareri e i contributi di tutti i portatori di interessi sul primo codice di buone pratiche. Le risposte e le osservazioni costituiranno la base della prima iterazione per l&#039;elaborazione del codice di buone pratiche. Il codice si basa quindi fin dall&#039;inizio su una vasta gamma di prospettive e competenze.&lt;br /&gt;
&lt;br /&gt;
La plenaria sarà strutturata in quattro gruppi di lavoro per consentire discussioni mirate su temi specifici finalizzati a specificare gli obblighi per i fornitori di modelli di IA per finalità generali e di modelli di IA per finalità generali con rischio sistemico. I partecipanti alla plenaria sono liberi di scegliere uno o più gruppi di lavoro a cui desiderano partecipare. Le riunioni si svolgono esclusivamente online.&lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA nominerà i presidenti e, se del caso, i vicepresidenti di ciascuno dei quattro gruppi di lavoro della plenaria, selezionati tra gli esperti indipendenti interessati. I presidenti sintetizzeranno i contributi e le osservazioni dei partecipanti alla plenaria per elaborare iterativamente il primo codice di buone pratiche.&lt;br /&gt;
&lt;br /&gt;
In quanto principali destinatari del codice, i fornitori di modelli di IA per finalità generali saranno invitati a seminari dedicati per contribuire a informare ciascun ciclo iterativo di elaborazione, oltre che a partecipare alla plenaria.&lt;br /&gt;
&lt;br /&gt;
La versione definitiva del primo codice di buone pratiche sarà presentata dopo 9 mesi, in una sessione plenaria conclusiva prevista per aprile, e pubblicata. La plenaria conclusiva offrirà ai fornitori di modelli di IA per finalità generali l&#039;opportunità di esprimersi e dichiarare se intendono utilizzare il codice. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Se approvato, in che modo il codice di buone pratiche per i fornitori di modelli di IA per finalità generali funge da strumento centrale per la conformità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Al termine del processo di elaborazione del codice di buone pratiche, l&#039;ufficio per l&#039;IA e il consiglio per l&#039;IA ne valuteranno l&#039;adeguatezza e pubblicheranno la loro valutazione. In seguito a tale valutazione, la Commissione può decidere di approvare il codice di buone pratiche e conferirgli validità generale all&#039;interno dell&#039;Unione mediante atti di esecuzione. Se, nel momento in cui il regolamento diventa applicabile, il codice di buone pratiche non è ritenuto adeguato dall&#039;ufficio per l&#039;IA, la Commissione può stabilire norme comuni per l&#039;attuazione degli obblighi pertinenti.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali possono pertanto basarsi sul codice di buone pratiche per dimostrare il rispetto degli obblighi stabiliti dalla legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Ai sensi della legge sull&#039;IA, il codice di buone pratiche dovrebbe includere obiettivi, misure e, se del caso, indicatori chiave di prestazione (ICP).&lt;br /&gt;
&lt;br /&gt;
I fornitori che aderiscono al codice di buone pratiche dovrebbero riferire periodicamente all&#039;ufficio per l&#039;IA in merito all&#039;attuazione delle misure adottate e ai loro risultati, anche sulla base di indicatori chiave di prestazione, se del caso.&lt;br /&gt;
&lt;br /&gt;
Ciò facilita l&#039;applicazione della normativa da parte dell&#039;ufficio per l&#039;IA, che si avvale dei poteri conferiti alla Commissione dalla legge sull&#039;IA. Tali poteri includono la capacità di effettuare valutazioni dei modelli di IA per finalità generali, di richiedere informazioni e misure ai fornitori di modelli e di applicare sanzioni. &lt;br /&gt;
&lt;br /&gt;
L&#039;ufficio per l&#039;IA incoraggerà e agevolerà, se del caso, la revisione e l&#039;adeguamento del codice per tenere conto dei progressi tecnologici e dello stato dell&#039;arte.&lt;br /&gt;
&lt;br /&gt;
Quando una norma armonizzata è pubblicata e ritenuta idonea a disciplinare i pertinenti obblighi da parte dell&#039;ufficio per l&#039;IA, la conformità a una norma armonizzata europea dovrebbe conferire ai fornitori la presunzione di conformità.&lt;br /&gt;
&lt;br /&gt;
I fornitori di modelli di IA per finalità generali dovrebbero inoltre essere in grado di dimostrare la conformità utilizzando mezzi adeguati alternativi, se non sono disponibili codici di buone pratiche o norme armonizzate, oppure se tali fornitori scelgono di non fare affidamento su tali codici e norme.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La legge sull&#039;IA contiene disposizioni in materia di protezione ambientale e sostenibilità?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;obiettivo della proposta sull&#039;IA è affrontare i rischi per la sicurezza e i diritti fondamentali, compreso il diritto fondamentale a una protezione ambientale di alto livello. L&#039;ambiente è anche uno degli interessi giuridici esplicitamente menzionati e tutelati.&lt;br /&gt;
&lt;br /&gt;
La Commissione è invitata a chiedere alle organizzazioni europee di normazione di elaborare un prodotto di normazione sui processi di documentazione e segnalazione per migliorare le prestazioni dei sistemi di IA in termini di uso delle risorse, come la riduzione del consumo di energia e di altre risorse del sistema di IA ad alto rischio durante il suo ciclo di vita, e sullo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
Entro due anni dalla data di applicazione del regolamento, e successivamente ogni quattro anni, la Commissione è inoltre invitata a presentare una relazione sul riesame dei progressi compiuti nell&#039;elaborazione dei prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli per finalità generali e a valutare la necessità di ulteriori misure o azioni, anche vincolanti.&lt;br /&gt;
&lt;br /&gt;
In aggiunta a ciò, i fornitori di modelli di IA per finalità generali, che sono addestrati su grandi quantità di dati e quindi soggetti a un elevato consumo di energia, sono tenuti a comunicare il consumo di energia. Nel caso di modelli di IA per finalità generali con rischi sistemici, occorre inoltre valutare l&#039;efficienza energetica.&lt;br /&gt;
&lt;br /&gt;
Alla Commissione è conferito il potere di elaborare una metodologia di misurazione adeguata e comparabile per tali obblighi di comunicazione.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;In che modo le nuove regole possono sostenere l&#039;innovazione?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro normativo può contribuire a una maggiore adozione dell&#039;IA in due modi. Da un lato, l&#039;aumento della fiducia degli utenti farà crescere la domanda di IA utilizzata dalle imprese e dalle autorità pubbliche. Dall&#039;altro, la maggiore certezza del diritto e l&#039;armonizzazione delle regole consentiranno ai fornitori di IA di accedere a mercati più grandi, con prodotti che gli utenti e i consumatori apprezzano e acquistano. Le regole si applicheranno solo laddove strettamente necessario e in modo da ridurre al minimo l&#039;onere per gli operatori economici, con una struttura di governance leggera.&lt;br /&gt;
&lt;br /&gt;
La legge sull&#039;IA consente inoltre la creazione di spazi di sperimentazione normativa e di prova in condizioni reali, che forniscono un ambiente controllato per testare tecnologie innovative per un periodo di tempo limitato, promuovendo in tal modo l&#039;innovazione da parte delle imprese, delle PMI e delle start-up nel rispetto della legge sull&#039;IA. Queste, insieme ad altre misure quali le reti dei centri di eccellenza per l&#039;IA aggiuntive, il partenariato pubblico-privato sull&#039;intelligenza artificiale, i dati e la robotica e l&#039;accesso ai poli dell&#039;innovazione digitale e alle strutture di prova e sperimentazione, contribuiranno a creare le giuste condizioni quadro affinché le imprese sviluppino e utilizzino l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali dei sistemi di IA ad alto rischio possono essere effettuate per un massimo di 6 mesi (prorogabili di altri 6 mesi). Prima delle prove deve essere elaborato un piano che deve essere presentato all&#039;autorità di vigilanza del mercato, la quale deve approvare il piano e le condizioni di prova specifiche; in caso di mancata risposta entro 30 giorni, il piano si considera automaticamente approvato in modo tacito. Le prove possono essere oggetto di ispezioni senza preavviso da parte dell&#039;autorità.&lt;br /&gt;
&lt;br /&gt;
Le prove in condizioni reali possono essere effettuate solo se sono presenti garanzie specifiche, ad esempio gli utenti dei sistemi sottoposti a prova in condizioni reali devono fornire un consenso informato, le prove non devono avere alcun effetto negativo sugli utenti, gli esiti delle prove devono essere reversibili o devono poter essere ignorati, e i loro dati devono essere cancellati dopo la conclusione delle prove. Una protezione speciale deve essere concessa ai gruppi vulnerabili, ad esempio a causa della loro età o della disabilità fisica o mentale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quale ruolo svolge il patto per l&#039;IA nell&#039;attuazione della legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Avviato dal commissario Breton nel maggio 2023, il patto per l&#039;IA mira a rafforzare la collaborazione tra l&#039;ufficio per l&#039;IA e le organizzazioni (pilastro I) e a incoraggiare l&#039;impegno volontario del settore a iniziare ad attuare i requisiti della legge sull&#039;IA prima del termine legale (pilastro II).&lt;br /&gt;
&lt;br /&gt;
In particolare, nell&#039;ambito del pilastro I, i partecipanti contribuiranno alla creazione di una comunità collaborativa, condividendo le loro esperienze e conoscenze. In tale contesto l&#039;ufficio per l&#039;IA provvederà a organizzare seminari per fornire ai partecipanti una migliore comprensione della legge sull&#039;IA, delle loro responsabilità e di come prepararsi alla sua attuazione. A sua volta, l&#039;ufficio per l&#039;IA può raccogliere informazioni sulle migliori pratiche e sulle sfide cui devono far fronte i partecipanti.&lt;br /&gt;
&lt;br /&gt;
Nell&#039;ambito del pilastro II le organizzazioni sono incoraggiate a rendere noti proattivamente i processi e le pratiche che stanno attuando per la conformità anticipata alla legge sull&#039;IA, attraverso impegni volontari. Gli impegni sono intesi come &amp;quot;dichiarazioni di impegno&amp;quot; e conterranno azioni (pianificate o in corso) per soddisfare alcuni dei requisiti della legge sull&#039;IA.&lt;br /&gt;
&lt;br /&gt;
La maggior parte delle norme della legge sull&#039;IA (ad esempio, alcuni requisiti relativi ai sistemi di IA ad alto rischio) si applicherà alla fine di un periodo transitorio (ossia il periodo che intercorre tra l&#039;entrata in vigore e la data di applicabilità).&lt;br /&gt;
&lt;br /&gt;
In tale contesto e nel quadro del patto per l&#039;IA, l&#039;ufficio per l&#039;IA invita tutte le organizzazioni ad anticipare e attuare proattivamente alcune delle disposizioni fondamentali della legge sull&#039;IA, con l&#039;obiettivo di attenuare quanto prima i rischi per la salute, la sicurezza e i diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
Oltre 700 organizzazioni hanno già espresso il loro interesse ad aderire all&#039;iniziativa del patto per l&#039;IA, a seguito di un invito lanciato nel novembre 2023. Una prima sessione informativa si è tenuta online il 6 maggio, con 300 partecipanti. La firma ufficiale degli impegni volontari è prevista per l&#039;autunno 2024. Nella prima settimana di settembre si terrà un seminario relativo al patto per l&#039;IA.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Qual è la dimensione internazionale dell&#039;approccio dell&#039;UE?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le conseguenze e le sfide dell&#039;IA trascendono i confini, per questo motivo la cooperazione internazionale è fondamentale. L&#039;ufficio per l&#039;IA è responsabile dell&#039;impegno internazionale dell&#039;Unione europea nel settore dell&#039;IA, sulla base della legge sull&#039;IA e del piano coordinato sull&#039;IA. L&#039;UE mira a promuovere la gestione responsabile e la buona governance dell&#039;IA in collaborazione con i partner internazionali e in linea con il sistema multilaterale basato su regole e i valori che essa difende.&lt;br /&gt;
&lt;br /&gt;
L&#039;UE si impegna a livello bilaterale e multilaterale per promuovere un&#039;IA affidabile, antropocentrica ed etica. Di conseguenza, l&#039;UE partecipa a forum multilaterali in cui si discute dell&#039;IA – in particolare il G7, il G20, l&#039;OCSE, il Consiglio d&#039;Europa, il partenariato globale sull&#039;IA e le Nazioni Unite – e intrattiene stretti legami bilaterali, ad esempio con Canada, Stati Uniti, India, Giappone, Corea del Sud, Singapore e la regione dell&#039;America latina e dei Caraibi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Aggiornato l&#039;1.8.2024.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1346</id>
		<title>FAQ</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1346"/>
		<updated>2024-12-01T20:21:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Perché è necessario regolamentare l&#039;uso dell&#039;intelligenza artificiale?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge dell&#039;Unione europea sull&#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&#039;ambiente.&lt;br /&gt;
&lt;br /&gt;
L&#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&#039;innovazione dell&#039;UE e della sua competitività a livello mondiale. In determinati casi le caratteristiche specifiche di alcuni sistemi di IA possono tuttavia creare nuovi rischi per quanto riguarda la sicurezza, anche fisica, degli utenti e i diritti fondamentali. Alcuni potenti modelli di IA il cui utilizzo è molto diffuso potrebbero persino comportare rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
Ciò determina una mancanza di certezza del diritto e un&#039;adozione potenzialmente più lenta delle tecnologie di IA da parte delle autorità pubbliche, dovuta alla mancanza di fiducia. Risposte normative disuguali da parte delle autorità nazionali rischierebbero di frammentare il mercato interno.&lt;br /&gt;
&lt;br /&gt;
Per rispondere a queste sfide era necessaria un&#039;azione legislativa che garantisse il buon funzionamento del mercato interno per i sistemi di IA e tenesse adeguatamente conto sia dei benefici sia dei rischi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;A chi si applica la legge sull&#039;IA?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il quadro giuridico si applicherà ai soggetti pubblici e privati, all&#039;interno e all&#039;esterno dell&#039;UE, a condizione che il sistema di IA sia immesso sul mercato dell&#039;Unione o che il suo utilizzo abbia effetti su persone situate nell&#039;UE.&lt;br /&gt;
&lt;br /&gt;
Gli obblighi possono riguardare sia i fornitori (ad esempio, uno sviluppatore di uno strumento di screening dei CV) sia i deployer di sistemi di IA (ad esempio, una banca che acquista il suddetto strumento di screening). Il regolamento prevede alcune deroghe. Le attività di ricerca, sviluppo e prototipazione che hanno luogo prima dell&#039;immissione sul mercato di un sistema di IA non sono soggette a tali regolamenti. Sono inoltre esenti anche i sistemi di IA progettati esclusivamente per finalità militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1345</id>
		<title>FAQ</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=FAQ&amp;diff=1345"/>
		<updated>2024-11-26T11:39:02Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: Creata pagina con &amp;quot;&amp;#039;&amp;#039;&amp;#039;Perché è necessario regolamentare l&amp;#039;uso dell&amp;#039;intelligenza artificiale?&amp;#039;&amp;#039;&amp;#039;&amp;lt;br&amp;gt;  La legge dell&amp;#039;Unione europea sull&amp;#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&amp;#039;ambiente.  L&amp;#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&amp;#039;innov...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Perché è necessario regolamentare l&#039;uso dell&#039;intelligenza artificiale?&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La legge dell&#039;Unione europea sull&#039;IA è la prima legge completa in materia di IA al mondo e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. Il regolamento tutela inoltre la democrazia, lo Stato di diritto e l&#039;ambiente.&lt;br /&gt;
&lt;br /&gt;
L&#039;adozione dei sistemi di IA ha un forte potenziale in termini di benefici per la società, crescita economica e rafforzamento dell&#039;innovazione dell&#039;UE e della sua competitività a livello mondiale. In determinati casi le caratteristiche specifiche di alcuni sistemi di IA possono tuttavia creare nuovi rischi per quanto riguarda la sicurezza, anche fisica, degli utenti e i diritti fondamentali. Alcuni potenti modelli di IA il cui utilizzo è molto diffuso potrebbero persino comportare rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
Ciò determina una mancanza di certezza del diritto e un&#039;adozione potenzialmente più lenta delle tecnologie di IA da parte delle autorità pubbliche, dovuta alla mancanza di fiducia. Risposte normative disuguali da parte delle autorità nazionali rischierebbero di frammentare il mercato interno.&lt;br /&gt;
&lt;br /&gt;
Per rispondere a queste sfide era necessaria un&#039;azione legislativa che garantisse il buon funzionamento del mercato interno per i sistemi di IA e tenesse adeguatamente conto sia dei benefici sia dei rischi.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Pagina_principale&amp;diff=1344</id>
		<title>Pagina principale</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Pagina_principale&amp;diff=1344"/>
		<updated>2024-11-26T11:37:16Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{#seo:|title=WikiAiAct - il primo wiki italiano sull&#039;AI Act}}&lt;br /&gt;
{{DISPLAYTITLE:WikiAiAct - Il primo wiki italiano sull&#039;AI Act}}&lt;br /&gt;
[[Categoria:Pagine Principali]]&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;WikiAiAct - il primo wiki italiano sull&#039;Artificial Intelligence Act&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;padding:0.3em 0.5em 0.3em 0.5em; border:medium solid #CC0000;&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;p align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;span style=&amp;quot;color:darkblue; font-size:270%;&amp;quot;&amp;gt;&#039;&#039;&#039;Benvenuti su&#039;&#039;&#039;&amp;lt;/span&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
[[File:WikiAiAct_Logo.svg|450px|link=Pagina principale]]&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;Siamo felici di averti qui!&amp;lt;br /&amp;gt;L&#039;ambiente in cui ti trovi dovrebbe esserti familiare, infatti usiamo il software &#039;&#039;open source&#039;&#039; di MediaWiki.&amp;lt;br /&amp;gt;Questo è un progetto di &#039;&#039;&#039;insAIde&#039;&#039;&#039;, parte di [https://www.panetta.it PANETTA Consulting Group], che ha l&#039;obiettivo di creare la prima wiki italiana sulla nuova normativa europea sull&#039;Intelligenza Artificiale (AI Act) e sui temi connessi. &amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Scopri di più:&lt;br /&gt;
*[[FAQ|Domande Frequenti (FAQ) sull&#039;AI Act]]&lt;br /&gt;
*[[La newsletter di insAIde|Progetti: La newsletter]]&lt;br /&gt;
*[[Approfondimenti|Approfondimenti]]&lt;br /&gt;
*[[Scrivici]]&lt;br /&gt;
&lt;br /&gt;
Grazie per aver deciso di visitarci. Scrivici per ogni dubbio o richiesta o per darci il tuo contributo.&lt;br /&gt;
&amp;lt;p align=&amp;quot;center&amp;quot;&amp;gt;[[File:Powered by insAIde PCG.png|250px|link=https://www.panetta.it]]&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;padding:0.3em 0.5em 0.3em 0.5em; border:medium solid #243E90;&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;p align=&amp;quot;center&amp;quot;&amp;gt; [[File:Download PDF AIAct.svg|50px|link=https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689]] &amp;lt;span style=&amp;quot;color:darkblue; font-size:140%;&amp;quot;&amp;gt;&#039;&#039;&#039;[https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689 Scarica il testo dell&#039;AI Act (PDF, ITA)]&amp;lt;/span&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;p align=&amp;quot;center&amp;quot;&amp;gt;Il 12 luglio 2024 è stato pubblicato sulla Gazzetta ufficiale dell&#039;Unione europea il testo del nuovo &#039;&#039;Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828&#039;&#039; (Regolamento sull&#039;Intelligenza artificiale)&amp;lt;br /&amp;gt;Il testo qui disponibile corrisponde a quello pubblicato sulla GUUE.&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div id=&amp;quot;audiences&amp;quot; class=&amp;quot;mainpage_row&amp;quot;&amp;gt;&lt;br /&gt;
	&amp;lt;div class=&amp;quot;mainpage_box&amp;quot;&amp;gt;&lt;br /&gt;
		&amp;lt;h3&amp;gt;&amp;lt;span class=&amp;quot;header_icon&amp;quot; aria-hidden=&amp;quot;true&amp;quot; role=&amp;quot;presentation&amp;quot;&amp;gt;[[File:LAW.svg|20px|middle|link=]]&amp;lt;/span&amp;gt;&amp;lt;span&amp;gt;Contenuto normativo&amp;lt;/span&amp;gt;&amp;lt;/h3&amp;gt;&lt;br /&gt;
		&amp;lt;div id=&amp;quot;mainpage-admins&amp;quot; title=&amp;quot;&amp;quot; class=&amp;quot;items&amp;quot;&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;Capo I - Disposizioni generali&#039;&#039;&#039;&lt;br /&gt;
* [[Art.1| Art. 1 (Oggetto)]]&lt;br /&gt;
* [[Art.2| Art. 2 (Ambito di applicazione)]]&lt;br /&gt;
* [[Art.3| Art. 3 (Definizioni)]]&lt;br /&gt;
* [[Art.4| Art. 4 (Alfabetizzazione in materia di IA)]]&lt;br /&gt;
&#039;&#039;&#039;Capo II - Pratiche di Intelligenza Artificiale vietate&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.5| Art. 5 (Pratiche di IA vietate)]]&lt;br /&gt;
&#039;&#039;&#039;Capo III - Sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 1 - Classificazione dei sistemi di IA come &amp;quot;ad alto rischio&amp;quot;&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.6| Art. 6 (Regole di classificazione per i sistemi di IA ad alto rischio)]]&lt;br /&gt;
* [[Art.7| Art. 7 (Modifiche dell&#039;allegato III)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 2 - Requisiti per i sistemi di IA ad alto rischio&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.8| Art. 8 (Conformità ai requisiti)]]&lt;br /&gt;
* [[Art.9| Art. 9 (Sistema di gestione dei rischi)]]&lt;br /&gt;
* [[Art.10| Art. 10 (Dati e governance dei dati)]]&lt;br /&gt;
* [[Art.11| Art. 11 (Documentazione tecnica)]]&lt;br /&gt;
* [[Art.12| Art. 12 (Conservazione delle registrazioni)]]&lt;br /&gt;
* [[Art.13| Art. 13 (Trasparenza e fornitura di informazioni ai deployer)]]&lt;br /&gt;
* [[Art.14| Art. 14 (Sorveglianza umana)]]&lt;br /&gt;
* [[Art.15| Art. 15 (Accuratezza, robustezza e cibersicurezza)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 3 - Obblighi dei fornitori e dei deployer dei sistemi di IA ad alto rischio e di altre parti&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.16| Art. 16 (Obblighi dei fornitori dei sistemi di IA ad alto rischio)]]&lt;br /&gt;
* [[Art.17| Art. 17 (Sistema di gestione della qualità)]]&lt;br /&gt;
* [[Art.18| Art. 18 (Conservazione dei documenti)]]&lt;br /&gt;
* [[Art.19| Art. 19 (Log generati automaticamente)]]&lt;br /&gt;
* [[Art.20| Art. 20 (Misure correttive e dovere di informazione)]]&lt;br /&gt;
* [[Art.21| Art. 21 (Cooperazione con le autorità competenti)]]&lt;br /&gt;
* [[Art.22| Art. 22 (Rappresentanti autorizzati dei fornitori dei sistemi di IA ad alto rischio)]]&lt;br /&gt;
* [[Art.23| Art. 23 (Obblighi degli importatori)]]&lt;br /&gt;
* [[Art.24| Art. 24 (Obblighi dei distributori)]]&lt;br /&gt;
* [[Art.25| Art. 25 (Responsabilità lungo la catena del valore dell&#039;IA)]]&lt;br /&gt;
* [[Art.26| Art. 26 (Obblighi dei deployer dei sisteim di IA ad alto rischio)]]&lt;br /&gt;
* [[Art.27| Art. 27 (Valutazione d&#039;impatto sui diritti fondamentali per i sistemi di IA ad alto rischio)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 4 - Autorità di notifica e organismi notificati&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.28| Art. 28 (Autorità di notifica)]]&lt;br /&gt;
* [[Art.29| Art. 29 (Domanda di notifica presentata dagli organismi di valutazione della conformità)]]&lt;br /&gt;
* [[Art.30| Art. 30 (Procedura di notifica)]]&lt;br /&gt;
* [[Art.31| Art. 31 (Prescrizioni relative agli organismi notificati)]]&lt;br /&gt;
* [[Art.32| Art. 32 (Presunzione di conformità alle prescrizioni relative agli organismi notificati)]]&lt;br /&gt;
* [[Art.33| Art. 33 (Affiliate degli organismi notificati e subappaltatori)]]&lt;br /&gt;
* [[Art.34| Art. 34 (Obblighi operativi degli organismi notificati)]]&lt;br /&gt;
* [[Art.35| Art. 35 (Numeri di identificazione ed elenchi di organismi notificati)]]&lt;br /&gt;
* [[Art.36| Art. 36 (Modifiche delle notifiche)]]&lt;br /&gt;
* [[Art.37| Art. 37 (Contestazione della competenza degli organismi notificati)]]&lt;br /&gt;
* [[Art.38| Art. 38 (Coordinamento degli organismi notificati)]]&lt;br /&gt;
* [[Art.39| Art. 39 (Organismi di valutazione della conformità di paesi terzi)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 5 - Norme, valutazione della conformità, certificati, registrazione&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.40| Art. 40 (Norme armonizzate e prodotti della normazione)]]&lt;br /&gt;
* [[Art.41| Art. 41 (Specifiche comuni)]]&lt;br /&gt;
* [[Art.42| Art. 42 (Presunzione di conformità a determinati requisiti)]]&lt;br /&gt;
* [[Art.43| Art. 43 (Valutazione della conformità)]]&lt;br /&gt;
* [[Art.44| Art. 44 (Certificati)]]&lt;br /&gt;
* [[Art.45| Art. 45 (Obblighi di informazione degli organismi notificati)]]&lt;br /&gt;
* [[Art.46| Art. 46 (Deroga alla procedura di valutazione della conformità)]]&lt;br /&gt;
* [[Art.47| Art. 47 (Dichiarazione di conformità UE)]]&lt;br /&gt;
* [[Art.48| Art. 48 (Marcatura CE)]]&lt;br /&gt;
* [[Art.49| Art. 49 (Registrazione)]]&lt;br /&gt;
&#039;&#039;&#039;Capo IV - Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.50| Art. 50 (Obblighi di trasparenza per i fornitori e gli utenti di determinati sistemi di IA)]]&lt;br /&gt;
&#039;&#039;&#039;Capo V - Modelli di IA per finalità generali&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 1 - Regole di classificazione&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.51| Art. 51 (Classificazione dei modelli di IA per finalità generali come modelli di IA per finalità con rischio sistemico)]]&lt;br /&gt;
* [[Art.52| Art. 52 (Procedura)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 2 - Obblighi dei fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.53| Art. 53 (Obblighi dei fornitori di modelli di IA per finalità generali)]]&lt;br /&gt;
* [[Art.54| Art. 54 (Rappresentanti autorizzati dei fornitori di modelli di IA per finalità generali)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 3 - Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.55| Art. 55 (Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico)]]&lt;br /&gt;
* [[Art.56| Art. 56 (Codici di buone pratiche)]]&lt;br /&gt;
&#039;&#039;&#039;Capo VI - Misure a sostegno dell&#039;innovazione&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.57| Art. 57 (Spazi di sperimentazione normativa per l&#039;IA)]]&lt;br /&gt;
* [[Art.58| Art. 58 (Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA)]]&lt;br /&gt;
* [[Art.59| Art. 59 (Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l&#039;IA di determinati sistemi di IA nell&#039;interesse pubblico)]]&lt;br /&gt;
* [[Art.60| Art. 60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)]]&lt;br /&gt;
* [[Art.61| Art. 61 (Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)]]&lt;br /&gt;
* [[Art.62| Art. 62 (Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up)]]&lt;br /&gt;
* [[Art.63| Art. 63 (Deroghe per operatori specifici)]]&lt;br /&gt;
&#039;&#039;&#039;Capo VII - Governance&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 1 - Governance a livello dell&#039;Unione&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.64| Art. 64 (Ufficio per l&#039;IA)]]&lt;br /&gt;
* [[Art.65| Art. 65 (Istituzione e struttura del comitato europeo per l&#039;intelligenza artificiale)]]&lt;br /&gt;
* [[Art.66| Art. 66 (Compiti del comitato)]]&lt;br /&gt;
* [[Art.67| Art. 67 (Forum consultivo)]]&lt;br /&gt;
* [[Art.68| Art. 68 (Gruppo di esperti scientifici indipendenti)]]&lt;br /&gt;
* [[Art.69| Art. 69 (Accesso al gruppo di esperti da parte degli Stati membri)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 2 - Autorità nazionali competenti&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.70| Art. 70 (Desigazione delle autorità nazionali competenti e del punto di contatto unico)]]&lt;br /&gt;
&#039;&#039;&#039;Capo VIII - Banca dati dell&#039;UE per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
* [[Art.71| Art. 71 (Banca dati dell&#039;UE per i sistemi di IA ad alto rischio elencati nell&#039;allegato III)]]&lt;br /&gt;
&#039;&#039;&#039;Capo IX - Monitoraggio successivo all&#039;immissione sul mercato, condivisione delle informazioni, vigilanza del mercato&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 1 - Monitoraggio successivo all&#039;immissione sul mercato&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.72| Art. 72 (Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 2 - Condivisione di informazioni su incidenti gravi&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.73| Art. 73 (Comunicazione di incidenti gravi)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 3 - Applicazione&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.74| Art. 74 (Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell&#039;Unione)]]&lt;br /&gt;
* [[Art.75| Art. 75 (Assistenza reciproca, vigilanza del mercato e controllo dei sistemi di IA per finalità generali)]]&lt;br /&gt;
* [[Art.76| Art. 76 (Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato)]]&lt;br /&gt;
* [[Art.77| Art. 77 (Poteri delle autorità che tutelano i diritti fondamentali)]]&lt;br /&gt;
* [[Art.78| Art. 78 (Riservatezza)]]&lt;br /&gt;
* [[Art.79| Art. 79 (Procedura a livello nazionale per i sistemi di IA che presentano un rischio)]]&lt;br /&gt;
* [[Art.80| Art. 80 (Procedura per i sistemi di IA classificati dal fornitore come non ad alto rischio in applicazione dell&#039;allegato III)]]&lt;br /&gt;
* [[Art.81| Art. 81 (Procedura di salvaguardia dell&#039;Unione)]]&lt;br /&gt;
* [[Art.82| Art. 82 (Sistemi di IA conformi che presentano un rischio)]]&lt;br /&gt;
* [[Art.83| Art. 83 (Non conformità formale)]]&lt;br /&gt;
* [[Art.84| Art. 84 (Strutture di sostegno dell&#039;Unione per la prova dell&#039;IA)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 4 - Mezzi di ricorso&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.85| Art. 85 (Diritto di presentare un reclamo a un&#039;autorità di vigilanza del mercato)]]&lt;br /&gt;
* [[Art.86| Art. 86 (Diritto alla spiegazione dei singoli processi decisionali)]]&lt;br /&gt;
* [[Art.87| Art. 87 (Segnalazione delle violazioni e protezione delle persone segnalanti)]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;» Sezione 5 - Supervisione, indagini, esecuzione e monitoraggio in relazione ai fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
* [[Art.88| Art. 88 (Esecuzione degli obblighi dei fornitori di modelli di IA per finalità generali)]]&lt;br /&gt;
* [[Art.89| Art. 89 (Azioni di monitoraggio)]]&lt;br /&gt;
* [[Art.90| Art. 90 (Segnalazioni di rischi sistemici da parte del gruppo di esperti scientifici)]]&lt;br /&gt;
* [[Art.91| Art. 91 (Potere di richiedere documentazione e informazioni)]]&lt;br /&gt;
* [[Art.92| Art. 92 (Potere di effettuare valutazioni)]]&lt;br /&gt;
* [[Art.93| Art. 93 (Potere di richiedere misure)]]&lt;br /&gt;
* [[Art.94| Art. 94 (Diritti procedurali degli operatori economici del modello di IA per finalità generali)]]&lt;br /&gt;
&#039;&#039;&#039;Capo X - Codici di condotta e orientamenti&#039;&#039;&#039;&lt;br /&gt;
* [[Art.95| Art. 95 (Codici di condotta per l&#039;applicazione volontaria di requisiti specifici)]]&lt;br /&gt;
* [[Art.96| Art. 96 (Orientamenti della Commissione sull&#039;attuazione del regolamento)]]&lt;br /&gt;
&#039;&#039;&#039;Capo XI - Delega di potere e procedura di comitato&#039;&#039;&#039;&lt;br /&gt;
* [[Art.97| Art. 97 (Esercizio della delega)]]&lt;br /&gt;
* [[Art.98| Art. 98 (Procedura di comitato)]]&lt;br /&gt;
&#039;&#039;&#039;Capo XII - Sanzioni&#039;&#039;&#039;&lt;br /&gt;
* [[Art.99| Art. 99 (Sanzioni)]]&lt;br /&gt;
* [[Art.100| Art. 100 (Sanzioni amministrative pecuniarie inflitte a istituzioni, organi e organismi dell&#039;Unione]]&#039;&#039;&#039;&lt;br /&gt;
* [[Art.101| Art. 101 (Sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali)]]&#039;&#039;&#039;&lt;br /&gt;
&#039;&#039;&#039;Capo XIII - Disposizioni finali&#039;&#039;&#039;&lt;br /&gt;
* [[Art.102| Art. 102 (Modifica del regolamento (CE) n. 300/2008)]]&lt;br /&gt;
* [[Art.103| Art. 103 (Modifica del regolamento (UE) n. 167/2013)]]&lt;br /&gt;
* [[Art.104| Art. 104 (Modifica del regolamento (UE) n. 168/2013)]]&lt;br /&gt;
* [[Art.105| Art. 105 (Modifica della direttiva 2014/90/UE)]]&lt;br /&gt;
* [[Art.106| Art. 106 (Modifica della direttiva (UE) 2016/797)]]&lt;br /&gt;
* [[Art.107| Art. 107 (Modifica del regolamento (UE) 2018/858)]]&lt;br /&gt;
* [[Art.108| Art. 108 (Modifica del regolamento (UE) 2018/1139)]]&lt;br /&gt;
* [[Art.109| Art. 109 (Modifica del regolamento (UE) 2019/2144)]]&lt;br /&gt;
* [[Art.110| Art. 110 (Modifica della direttiva (UE) 2020/1828)]]&lt;br /&gt;
* [[Art.111| Art. 111 (Sistemi di IA già immessi sul mercato o messi in servizio)]]&lt;br /&gt;
* [[Art.112| Art. 112 (Valutazione e riesame)]]&lt;br /&gt;
* [[Art.113| Art. 113 (Entrata in vigore e applicazione)]]&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
		&amp;lt;/div&amp;gt;&lt;br /&gt;
	&amp;lt;/div&amp;gt;&lt;br /&gt;
	&amp;lt;div class=&amp;quot;mainpage_box&amp;quot;&amp;gt;&lt;br /&gt;
		&amp;lt;h3&amp;gt;&amp;lt;span class=&amp;quot;header_icon&amp;quot; aria-hidden=&amp;quot;true&amp;quot; role=&amp;quot;presentation&amp;quot;&amp;gt;[[File:ANNEX.svg|20px|middle|link=]]&amp;lt;/span&amp;gt;&amp;lt;span&amp;gt; Allegati&amp;lt;/span&amp;gt;&amp;lt;/h3&amp;gt;&lt;br /&gt;
		&amp;lt;div id=&amp;quot;mainpage-users&amp;quot; title=&amp;quot;&amp;quot; class=&amp;quot;items&amp;quot;&amp;gt;&lt;br /&gt;
* [[Allegato I| Allegato I (Elenco della normativa di armonizzazione dell&#039;Unione)]]&lt;br /&gt;
* [[Allegato II| Allegato II (Elenco dei reati di cui all&#039;articolo 5, paragrafo 1, primo comma, lettera h) punto iii))]]&lt;br /&gt;
* [[Allegato III| Allegato III (Sistemi di IA ad alto rischio di cui all&#039;articolo 6, paragrafo 2)]]&lt;br /&gt;
* [[Allegato IV| Allegato IV (Documentazione tecnica di cui all&#039;articolo 11, paragrafo 1)]]&lt;br /&gt;
* [[Allegato V| Allegato V (Dichiarazione di conformità UE)]]&lt;br /&gt;
* [[Allegato VI| Allegato VI (Procedura di valutazione della conformità basata sul controllo interno)]]&lt;br /&gt;
* [[Allegato VII| Allegato VII (Conformità basata su una valutazione del sistema di gestione della qualità e su una valutazione della documentazione tecnica)]]&lt;br /&gt;
* [[Allegato VIII| Allegato VIII (Informazioni da presentare all&#039;atto della registrazione di sistemi di IA ad alto rischio in conformità dell&#039;articolo 49)]]&lt;br /&gt;
* [[Allegato IX| Allegato IX (Informazioni da presentare all&#039;atto della registrazione dei sistemi di IA ad alto rischio elencati nell&#039;allegato III in relazione alle prove in condizioni reali in conformità dell&#039;articolo 60)]]&lt;br /&gt;
* [[Allegato X| Allegato X (Atti legislativi dell&#039;Unione sui sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia)]]&lt;br /&gt;
* [[Allegato XI| Allegato XI (Documentazione tecnica di cui all&#039;articolo 53, paragrafo 1, lettera a) – documentazione tecnica per i fornitori di modelli di IA per finalità generali)]]&lt;br /&gt;
* [[Allegato XII| Allegato XII (Informazioni sulla trasparenza di cui all&#039;articolo 53, paragrafo 1, lettera b) – documentazione tecnica per i fornitori di modelli di IA per finalità generali ai fornitori a valle che integrano il modello nel loro sistema di IA)]]&lt;br /&gt;
* [[Allegato XIII| Allegato XIII (Criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico di cui all&#039;articolo 51)]]&lt;br /&gt;
		&amp;lt;/div&amp;gt;&lt;br /&gt;
	&amp;lt;/div&amp;gt;&lt;br /&gt;
	&amp;lt;div class=&amp;quot;mainpage_box&amp;quot;&amp;gt;&lt;br /&gt;
		&amp;lt;h3&amp;gt;&amp;lt;span class=&amp;quot;header_icon&amp;quot; aria-hidden=&amp;quot;true&amp;quot; role=&amp;quot;presentation&amp;quot;&amp;gt;[[File:WHEREAS.svg|20px|middle|link=]]&amp;lt;/span&amp;gt;&amp;lt;span&amp;gt; Considerando&amp;lt;/span&amp;gt;&amp;lt;/h3&amp;gt;&lt;br /&gt;
		&amp;lt;div id=&amp;quot;mainpage-devs&amp;quot; title=&amp;quot;&amp;quot; class=&amp;quot;items&amp;quot;&amp;gt;&lt;br /&gt;
[[C.1]] | [[C.2]] | [[C.3]] | [[C.4]] | [[C.5]] | [[C.6]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.7]] | [[C.8]] | [[C.9]] | [[C.10]] | [[C.11]] | [[C.12]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.13]] | [[C.14]] | [[C.15]] | [[C.16]] | [[C.17]] | [[C.18]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.19]] | [[C.20]] | [[C.21]] | [[C.22]] | [[C.23]] | [[C.24]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.25]] | [[C.26]] | [[C.27]] | [[C.28]] | [[C.29]] | [[C.30]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.31]] | [[C.32]] | [[C.33]] | [[C.34]] | [[C.35]] | [[C.36]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.37]] | [[C.38]] | [[C.39]] | [[C.40]] | [[C.41]] | [[C.42]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.43]] | [[C.44]] | [[C.45]] | [[C.46]] | [[C.47]] | [[C.48]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.49]] | [[C.50]] | [[C.51]] | [[C.52]] | [[C.53]] | [[C.54]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.55]] | [[C.56]] | [[C.57]] | [[C.58]] | [[C.59]] | [[C.60]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.61]] | [[C.62]] | [[C.63]] | [[C.64]] | [[C.65]] | [[C.66]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.67]] | [[C.68]] | [[C.69]] | [[C.70]] | [[C.71]] | [[C.72]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.73]] | [[C.74]] | [[C.75]] | [[C.76]] | [[C.77]] | [[C.78]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.79]] | [[C.80]] | [[C.81]] | [[C.82]] | [[C.83]] | [[C.84]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.85]] | [[C.86]] | [[C.87]] | [[C.88]] | [[C.89]] | [[C.90]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.91]] | [[C.92]] | [[C.93]] | [[C.94]] | [[C.95]] | [[C.96]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.97]] | [[C.98]] | [[C.99]] | [[C.100]] | [[C.101]] | [[C.102]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.103]] | [[C.104]] | [[C.105]] | [[C.106]] | [[C.107]] | [[C.108]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.109]] | [[C.110]] | [[C.111]] | [[C.112]] | [[C.113]] | [[C.114]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.115]] | [[C.116]] | [[C.117]] | [[C.118]] | [[C.119]] | [[C.120]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.121]] | [[C.122]] | [[C.123]] | [[C.124]] | [[C.125]] | [[C.126]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.127]] | [[C.128]] | [[C.129]] | [[C.130]] | [[C.131]] | [[C.132]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.133]] | [[C.134]] | [[C.135]] | [[C.136]] | [[C.137]] | [[C.138]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.139]] | [[C.140]] | [[C.141]] | [[C.142]] | [[C.143]] | [[C.144]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.145]] | [[C.146]] | [[C.147]] | [[C.148]] | [[C.149]] | [[C.150]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.151]] | [[C.152]] | [[C.153]] | [[C.154]] | [[C.155]] | [[C.156]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.157]] | [[C.158]] | [[C.159]] | [[C.160]] | [[C.161]] | [[C.162]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.163]] | [[C.164]] | [[C.165]] | [[C.166]] | [[C.167]] | [[C.168]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.169]] | [[C.170]] | [[C.171]] | [[C.172]] | [[C.173]] | [[C.174]]&amp;lt;br/&amp;gt;&lt;br /&gt;
[[C.175]] | [[C.176]] | [[C.177]] | [[C.178]] | [[C.179]] | [[C.180]]&amp;lt;br/&amp;gt;&lt;br /&gt;
		&amp;lt;/div&amp;gt;&lt;br /&gt;
	&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
__NOTOC__&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Approfondimenti&amp;diff=1336</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Approfondimenti&amp;diff=1336"/>
		<updated>2024-09-16T15:17:44Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Ai act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.85&amp;diff=1294</id>
		<title>Art.85</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.85&amp;diff=1294"/>
		<updated>2024-07-08T16:22:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Diritto di presentare un reclamo a un&#039;autorità di vigilanza del mercato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.85 (Diritto di presentare un reclamo a un&#039;autorità di vigilanza del mercato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
Fatti salvi altri ricorsi amministrativi o giurisdizionali, qualsiasi persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una violazione delle disposizioni del presente regolamento può presentare un reclamo alla pertinente autorità di vigilanza del mercato.&amp;lt;br /&amp;gt;&lt;br /&gt;
Conformemente al regolamento (UE) 2019/1020, tali reclami sono presi in considerazione ai fini dello svolgimento delle attività di vigilanza del mercato e sono trattati in linea con le procedure specifiche stabilite a tal fine dalle autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.170|Considerando &#039;&#039;&#039;170&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.84&amp;diff=1293</id>
		<title>Art.84</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.84&amp;diff=1293"/>
		<updated>2024-07-08T16:22:26Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Strutture di sostegno dell&#039;Unione per la prova dell&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.84 (Strutture di sostegno dell&#039;Unione per la prova dell&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. La Commissione designa una o più strutture di sostegno dell&#039;Unione per la prova dell&#039;IA per lo svolgimento dei compiti di cui all&#039;articolo 21, paragrafo 6, del regolamento (UE) 2019/1020/nel settore dell&#039;IA.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Fatti salvi i compiti di cui al paragrafo 1, le strutture di sostegno dell&#039;Unione per la prova dell&#039;IA forniscono anche pareri tecnici o scientifici indipendenti su richiesta del comitato, della Commissione o delle autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.152|Considerando &#039;&#039;&#039;152&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.78&amp;diff=1287</id>
		<title>Art.78</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.78&amp;diff=1287"/>
		<updated>2024-07-08T16:17:52Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Riservatezza&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.78 (Riservatezza)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. In conformità del diritto dell&#039;Unione o nazionale, la Commissione, le autorità di vigilanza del mercato e gli organismi notificati, nonché le altre persone fisiche o giuridiche che partecipano all&#039;applicazione del presente regolamento, garantiscono la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare: &lt;br /&gt;
:a)	i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, compreso il codice sorgente, tranne nei casi di cui all&#039;articolo 5 della direttiva (UE) 2016/943 del Parlamento europeo e del Consiglio&amp;lt;ref&amp;gt;Direttiva (UE) 2016/943 del Parlamento europeo e del. Consiglio, dell&#039;8 giugno 2016, sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l&#039;acquisizione, l&#039;utilizzo e la divulgazione illeciti (GU L 157 del 15.6.2016, pag. 1).&amp;lt;/ref&amp;gt;; &lt;br /&gt;
:b)  l&#039;efficace attuazione del presente regolamento, in particolare ai fini delle ispezioni, delle indagini e degli audit;&lt;br /&gt;
:c)  gli interessi pubblici e di sicurezza nazionale; &lt;br /&gt;
:d)  lo svolgimento del procedimento penale o amministrativo; &lt;br /&gt;
:e)  le informazioni classificate a norma del diritto dell&#039;Unione o nazionale.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Le autorità che partecipano all&#039;applicazione del presente regolamento a norma del paragrafo 1 richiedono solo i dati strettamente necessari per la valutazione del rischio posto dai sistemi di IA e per l&#039;esercizio dei loro poteri conformemente al presente regolamento e al regolamento (UE) 2019/1020. Esse pongono in essere misure di cibersicurezza adeguate ed efficaci per proteggere la sicurezza e la riservatezza delle informazioni e dei dati ottenuti e cancellano i dati raccolti non appena non sono più necessari per lo scopo per il quale sono stati ottenuti, conformemente al diritto dell&#039;Unione o nazionale applicabile.&amp;lt;br /&amp;gt;&lt;br /&gt;
3.	Fatti salvi i paragrafi 1 e 2, nel momento in cui i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti 1, 6 o 7]], sono utilizzati dalle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti, o tra le autorità nazionali competenti e la Commissione, non sono divulgate senza previa consultazione dell&#039;autorità nazionale competente e del deployer che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere gli interessi pubblici e di sicurezza nazionale. Tale scambio di informazioni non riguarda i dati operativi sensibili in relazione alle attività delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo. &amp;lt;br /&amp;gt;&lt;br /&gt;
Qualora le autorità competenti in materia di contrasto, di immigrazione o di asilo siano fornitori di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti 1, 6 o 7]], la documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]] rimane nei locali di tali autorità. Tali autorità garantiscono che le autorità di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafi 8 e 9]], a seconda dei casi, possano, su richiesta, accedere immediatamente alla documentazione o ottenerne una copia. Solo il personale dell&#039;autorità di vigilanza del mercato in possesso di un nulla osta di sicurezza di livello adeguato è autorizzato ad accedere a tale documentazione o a una copia della stessa.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I paragrafi 1, 2 e 3 non pregiudicano i diritti o gli obblighi della Commissione, degli Stati membri e delle rispettive autorità pertinenti nonché quelli degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, anche nel contesto della cooperazione transfrontaliera, né pregiudicano gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri. &amp;lt;br /&amp;gt;&lt;br /&gt;
5. La Commissione e gli Stati membri possono scambiare, ove necessario e conformemente alle pertinenti disposizioni degli accordi internazionali e commerciali, informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.167|Considerando &#039;&#039;&#039;167&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.77&amp;diff=1285</id>
		<title>Art.77</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.77&amp;diff=1285"/>
		<updated>2024-07-08T16:17:21Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Poteri delle autorità che tutelano i diritti fondamentali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.77 (Poteri delle autorità che tutelano i diritti fondamentali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell&#039;Unione a tutela dei diritti fondamentali, compreso il diritto alla non discriminazione, in relazione all&#039;uso dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi, in una lingua e un formato accessibili, quando l&#039;accesso a tale documentazione è necessario per l&#039;efficace adempimento dei loro mandati entro i limiti della loro giurisdizione. L&#039;autorità pubblica o l&#039;organismo pubblico pertinente informa l&#039;autorità di vigilanza del mercato dello Stato membro interessato di qualsiasi richiesta in tal senso.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Entro ... &#039;&#039;&#039;&#039;&#039;[tre mesi dall&#039;entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 1 e ne pubblica l&#039;elenco. Gli Stati membri notificano l&#039;elenco alla Commissione e agli altri Stati membri e lo tengono aggiornato.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Qualora la documentazione di cui al paragrafo 1 non sia sufficiente per accertare un&#039;eventuale violazione degli obblighi previsti dal diritto dell&#039;Unione a tutela dei diritti fondamentali, l&#039;autorità pubblica o l&#039;organismo pubblico di cui al paragrafo 1 può presentare all&#039;autorità di vigilanza del mercato una richiesta motivata al fine di organizzare&lt;br /&gt;
una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L&#039;autorità di vigilanza del mercato organizza le prove coinvolgendo da vicino l&#039;autorità pubblica o l&#039;organismo pubblico richiedente entro un termine ragionevole dalla richiesta.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Qualsiasi informazione o documentazione ottenuta a norma del presente articolo dalle autorità o dagli organismi pubblici nazionali di cui al paragrafo 1 del presente articolo è trattata in conformità degli obblighi di riservatezza stabiliti all&#039;[[Art.78|articolo 78]].&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.157|Considerando &#039;&#039;&#039;157&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.74&amp;diff=1284</id>
		<title>Art.74</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.74&amp;diff=1284"/>
		<updated>2024-07-08T16:15:57Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell&#039;Unione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.74 (Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell&#039;Unione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Il regolamento (UE) 2019/1020 si applica ai sistemi di IA disciplinati dal presente regolamento. Ai fini dell&#039;efficace applicazione del presente regolamento:&lt;br /&gt;
: a) ogni riferimento a un operatore economico a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] si intende fatto anche a tutti gli operatori di cui all&#039;[[Art.2|articolo 2]], paragrafo 1, del presente regolamento;&lt;br /&gt;
: b) ogni riferimento a un prodotto a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] si intende fatto anche a tutti i sistemi di IA che rientrano nell&#039;ambito di applicazione del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Nell&#039;ambito dei loro obblighi in materia di segnalazione a norma dell&#039;articolo 34, paragrafo 4, del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020], le autorità di vigilanza del mercato comunicano annualmente alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l&#039;applicazione del diritto dell&#039;Unione in materia di concorrenza. Essi riferiscono inoltre annualmente alla Commissione in merito al ricorso a pratiche vietate verificatosi nel corso di tale anno e alle misure adottate.&lt;br /&gt;
&lt;br /&gt;
3. Per i sistemi di IA ad alto rischio collegati a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, l&#039;autorità di vigilanza del mercato ai fini del presente regolamento è l&#039;autorità responsabile delle attività di vigilanza del mercato designata a norma di tali atti giuridici. In deroga al primo comma e in determinate circostanze, gli Stati membri possono designare un’altra autorità pertinente che agisca in qualità di autorità di vigilanza del mercato, a condizione che garantiscano il coordinamento con le pertinenti autorità settoriali di vigilanza del mercato responsabili dell’esecuzione della normativa di armonizzazione dell’Unione elencata nell&#039;[[Allegato I|allegato I]].&lt;br /&gt;
&lt;br /&gt;
4. Le procedure di cui agli articoli da [[Art.79|79]] a [[Art.83|83]] del presente regolamento non si applicano ai sistemi di IA collegati a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tali atti giuridici prevedano già procedure che garantiscono un livello equivalente di protezione e aventi lo stesso obiettivo. In tali casi si applicano invece le pertinenti procedure settoriali.&lt;br /&gt;
&lt;br /&gt;
5. Fatti salvi i poteri delle autorità di vigilanza del mercato di cui all&#039;articolo 14 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020], al fine di garantire l&#039;efficace applicazione del presente regolamento, le autorità di vigilanza del mercato possono esercitare i poteri di cui all&#039;articolo 14, paragrafo 4, lettere d) e j), di tale regolamento a distanza, se del caso.&lt;br /&gt;
&lt;br /&gt;
6. Per i sistemi di IA ad alto rischio immessi sul mercato, messi in servizio o usati da istituti finanziari disciplinati dal diritto dell&#039;Unione in materia di servizi finanziari, l&#039;autorità di vigilanza del mercato ai fini del presente regolamento è l&#039;autorità nazionale pertinente responsabile della vigilanza finanziaria di tali enti ai sensi di tale diritto, nella misura in cui l&#039;immissione sul mercato, la messa in servizio o l&#039;uso del sistema di IA siano direttamente collegati alla fornitura di tali servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
7. In deroga al paragrafo 6, in determinate circostanze e a condizione che sia garantito il coordinamento, lo Stato membro può individuare un&#039;altra autorità competente come autorità di vigilanza del mercato ai fini del presente regolamento. Le autorità nazionali di vigilanza del mercato che controllano gli enti creditizi disciplinati nel quadro della direttiva 2013/36/UE, che partecipano al meccanismo di vigilanza unico istituito dal [https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A32013R1024 regolamento (UE) n. 1024/2013], dovrebbero comunicare senza indugio alla Banca centrale europea qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per i compiti in materia di vigilanza prudenziale della Banca centrale europea specificati in tale regolamento.&lt;br /&gt;
&lt;br /&gt;
8. Per i sistemi di IA ad alto rischio elencati nell&#039;allegato III del presente regolamento, punto 1, nella misura in cui tali sistemi sono utilizzati a fini di attività di contrasto, gestione delle frontiere, giustizia e democrazia e per i sistemi di IA ad alto rischio elencati nell&#039;allegato III del presente regolamento, punti 6, 7 e 8, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32016R0679 regolamento (UE) 2016/679] o della [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32016L0680 direttiva (UE) 2016/680] o qualsiasi altra autorità designata a norma delle stesse condizioni di cui agli articoli da 41 a 44 della direttiva (UE) 2016/680. Le attività di vigilanza del mercato non pregiudicano in alcun modo l&#039;indipendenza delle autorità giudiziarie né interferiscono in altro modo con le loro attività nell&#039;esercizio delle loro funzioni giurisdizionali.&lt;br /&gt;
&lt;br /&gt;
9. Nei casi in cui le istituzioni, gli organi e gli organismi dell&#039;Unione rientrano nell&#039;ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità di vigilanza del mercato, tranne nei confronti della Corte di giustizia dell&#039;Unione europea nell&#039;esercizio delle sue funzioni giurisdizionali.&lt;br /&gt;
&lt;br /&gt;
10. Gli Stati membri agevolano il coordinamento tra le autorità di vigilanza del mercato designate a norma del presente regolamento e altre autorità o organismi nazionali pertinenti che controllano l&#039;applicazione della normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I o di altre disposizioni del diritto dell&#039;Unione che potrebbero essere pertinenti per i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]].&lt;br /&gt;
&lt;br /&gt;
11. Le autorità di vigilanza del mercato e la Commissione possono proporre attività congiunte, comprese indagini congiunte, che dovrebbero essere condotte dalle autorità di vigilanza del mercato o dalle autorità di vigilanza del mercato di concerto con la Commissione, al fine di promuovere la conformità, individuare casi di non conformità, sensibilizzare e fornire orientamenti in relazione al presente regolamento riguardo a specifiche categorie di sistemi di IA ad alto rischio che si rileva presentino un rischio grave in due o più Stati membri conformemente all&#039;articolo 9 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020]. L&#039;ufficio per l&#039;IA fornisce sostegno di coordinamento per le indagini congiunte.&lt;br /&gt;
&lt;br /&gt;
12. Fatti salvi i poteri di cui al [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] e se del caso e nei limiti di quanto necessario per lo svolgimento dei loro compiti, i fornitori concedono alle autorità di vigilanza del mercato pieno accesso alla documentazione nonché ai set di dati di addestramento, convalida e prova utilizzati per lo sviluppo dei sistemi di IA ad alto rischio, anche, ove opportuno e fatte salve le garanzie di sicurezza, attraverso interfacce di programmazione delle applicazioni (API) o altri mezzi e strumenti tecnici pertinenti che consentano l&#039;accesso remoto.&lt;br /&gt;
&lt;br /&gt;
13. Alle autorità di vigilanza del mercato è concesso l&#039;accesso al codice sorgente del sistema di IA ad alto rischio su richiesta motivata e solo qualora siano soddisfatte entrambe le condizioni seguenti:&lt;br /&gt;
: a) l&#039;accesso al codice sorgente è necessario per valutare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo III, sezione 2; e&lt;br /&gt;
: b) le procedure di prova o di audit e le verifiche basate sui dati e sulla documentazione presentati dal fornitore sono state esaurite o si sono dimostrate insufficienti.&lt;br /&gt;
&lt;br /&gt;
14. Qualsiasi informazione o documentazione ottenuta dalle autorità di vigilanza del mercato è trattata in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.156|Considerando &#039;&#039;&#039;156&#039;&#039;&#039;]]&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.73&amp;diff=1283</id>
		<title>Art.73</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.73&amp;diff=1283"/>
		<updated>2024-07-08T16:15:38Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Comunicazione di incidenti gravi&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.73 (Comunicazione di incidenti gravi)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio immessi sul mercato dell&#039;Unione segnalano qualsiasi incidente grave alle autorità di vigilanza del mercato degli Stati membri in cui tali incidenti si sono verificati.&lt;br /&gt;
&lt;br /&gt;
2. La segnalazione di cui al paragrafo 1 è effettuata immediatamente dopo che il fornitore ha stabilito un nesso causale tra il sistema di IA e l&#039;incidente grave o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni dopo che il fornitore o, se del caso, il deployer, è venuto a conoscenza dell&#039;incidente grave. Il periodo per la segnalazione di cui al primo comma tiene conto della gravità dell&#039;incidente grave.&lt;br /&gt;
&lt;br /&gt;
3. In deroga al paragrafo 2 del presente articolo, in caso di un&#039;infrazione diffusa o di un incidente grave quale definito all&#039;[[Art.3|articolo 3]], punto 49, lettera b), la segnalazione di cui al paragrafo 1 del presente articolo è trasmessa immediatamente e non oltre due giorni dopo che il fornitore o, se del caso, il deployer è venuto a conoscenza di tale incidente.&lt;br /&gt;
&lt;br /&gt;
4. In deroga al paragrafo 2, in caso di decesso di una persona, la segnalazione è trasmessa immediatamente dopo che il fornitore o il deployer ha stabilito, o non appena sospetta, un nesso causale tra il sistema di IA ad alto rischio e l&#039;incidente grave, ma non oltre 10 giorni dalla data in cui il fornitore o, se del caso, il deployer è venuto a conoscenza dell&#039;incidente grave.&lt;br /&gt;
&lt;br /&gt;
5. Se necessario per garantire una comunicazione tempestiva, il fornitore o, se del caso, il deployer, può presentare una relazione iniziale incompleta, seguita da una relazione completa.&lt;br /&gt;
&lt;br /&gt;
6. A seguito della comunicazione di un incidente grave a norma del paragrafo 1, il fornitore svolge senza indugio le indagini necessarie in relazione all&#039;incidente grave e al sistema di IA interessato. Ciò comprende una valutazione del rischio dell&#039;incidente nonché misure correttive. Il fornitore coopera con le autorità competenti e, se del caso, con l&#039;organismo notificato interessato durante le indagini di cui al primo comma e non svolge alcuna indagine che comporti una modifica del sistema di IA interessato in un modo che possa incidere su un&#039;eventuale successiva valutazione delle cause dell&#039;incidente, prima di informare le autorità competenti di tale azione.&lt;br /&gt;
&lt;br /&gt;
7. Al ricevimento di una notifica relativa a un incidente grave di cui all&#039;[[Art.3|articolo 3]], punto 49, lettera c), l&#039;autorità di vigilanza del mercato interessata informa le autorità o gli organismi pubblici nazionali di cui all&#039;[[Art.77|articolo 77]], paragrafo 1. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1 del presente articolo. Tali orientamenti sono emanati entro ... [12 mesi dall’entrata in vigore del presente regolamento] e sono valutati periodicamente.&lt;br /&gt;
&lt;br /&gt;
8. L&#039;autorità di vigilanza del mercato adotta le misure appropriate di cui all&#039;articolo 19 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] entro sette giorni dalla data di ricevimento della notifica di cui al paragrafo 1 del presente articolo e segue le procedure di notifica previste da tale regolamento.&lt;br /&gt;
&lt;br /&gt;
9. Per i sistemi di IA ad alto rischio di cui all&#039;allegato III che sono immessi sul mercato o messi in servizio da fornitori soggetti a strumenti legislativi dell&#039;Unione che stabiliscono obblighi in materia di segnalazione equivalenti a quelli previsti dal presente regolamento, la notifica è limitata agli incidenti gravi di cui all&#039;articolo 3, punto 49, lettera c).&lt;br /&gt;
&lt;br /&gt;
10. Per i sistemi di IA ad alto rischio che sono componenti di sicurezza di dispositivi, o sono essi stessi dispositivi, disciplinati dai [https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A32017R0745 regolamenti (UE) 2017/745] e (UE) [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32017R0746 2017/746], la notifica è limitata agli incidenti gravi di cui all&#039;articolo 3, punto 49, lettera c), del presente regolamento, del presente regolamento ed è trasmessa all&#039;autorità nazionale competente scelta a tal fine dagli Stati membri in cui si è verificato l&#039;incidente.11. Le autorità nazionali competenti notificano immediatamente alla Commissione qualsiasi incidente grave, indipendentemente dal fatto che abbiano o meno preso provvedimenti al riguardo, conformemente all&#039;articolo 20 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.71&amp;diff=1282</id>
		<title>Art.71</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.71&amp;diff=1282"/>
		<updated>2024-07-08T16:15:05Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Banca dati dell&#039;UE per i sistemi di IA ad alto rischio elencati nell&#039;allegato III&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.70 (Banca dati dell&#039;UE per i sistemi di IA ad alto rischio elencati nell&#039;allegato III)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati dell&#039;UE contenente le informazioni di cui ai paragrafi 2 e 3 del presente articolo relative ai sistemi di IA ad alto rischio di cui all&#039;[[Art.6|articolo 6, paragrafo 2]], registrati conformemente agli [[Art.49|articoli 49]] e [[Art.60|60]] e ai sistemi di IA che non sono considerati ad alto rischio a norma dell’[[Art.6|articolo 6, paragrafo 3]], e che sono registrati in conformità dell’[[Art.6|articolo 6, paragrafo 4]] e dell’[[Art.69|articolo 69]]. Nel definire le specifiche funzionali di tale banca dati, la Commissione consulta gli esperti competenti e, nell&#039;aggiornare le specifiche funzionali di tale banca dati, consulta il comitato.&lt;br /&gt;
&lt;br /&gt;
2. I dati elencati nell&#039;[[allegato VIII]], sezioni A e B, sono inseriti nella banca dati dell&#039;UE dal fornitore o, se del caso, dal rappresentante autorizzato.&lt;br /&gt;
&lt;br /&gt;
3. I dati elencati nell&#039;[[allegato VIII]], sezione C, sono inseriti nella banca dati dell&#039;UE dal deployer che è un&#039;autorità, un&#039;agenzia o un organismo pubblico, conformemente all&#039;[[Art.49|articolo 49, paragrafi 3 e 4]], o che agisce per conto di essi.&lt;br /&gt;
&lt;br /&gt;
4. Ad eccezione della sezione di cui all&#039;[[Art.49|articolo 49, paragrafo 4]], e all&#039;[[Art.60|articolo 60, paragrafo 4, lettera c)]], le informazioni contenute nella banca dati dell&#039;UE registrate a norma dell&#039;[[Art.49|articolo 49]] sono accessibili e disponibili al pubblico in modo facilmente fruibile. Le informazioni dovrebbero essere di facile consultazione e leggibili meccanicamente. Le informazioni registrate a norma dell&#039;[[Art.60|articolo 60]] sono accessibili solo alle autorità di vigilanza del mercato e alla Commissione, a meno che il fornitore o il potenziale fornitore non abbia dato il suo consenso anche a rendere tali informazioni accessibili al pubblico.&lt;br /&gt;
&lt;br /&gt;
5. La banca dati dell&#039;UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità del presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l&#039;autorità legale di rappresentare il fornitore o il deployer, se del caso.&lt;br /&gt;
&lt;br /&gt;
6. La Commissione è il titolare del trattamento della banca dati dell&#039;UE. Essa mette a disposizione dei fornitori, dei potenziali fornitori e dei deployer un adeguato sostegno tecnico e amministrativo. La banca dati dell&#039;UE è conforme ai requisiti di accessibilità applicabili.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.131|Considerando &#039;&#039;&#039;131&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.70&amp;diff=1281</id>
		<title>Art.70</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.70&amp;diff=1281"/>
		<updated>2024-07-08T16:14:48Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Designazione delle autorità nazionali competenti e dei punti di contatto unici&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.70 (Designazione delle autorità nazionali competenti e dei punti di contatto unici)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ciascuno Stato membro istituisce o designa come autorità nazionali competenti ai fini del presente regolamento almeno un&#039;autorità di notifica e almeno un&#039;autorità di vigilanza del mercato. Tali autorità nazionali competenti esercitano i loro poteri in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l&#039;applicazione e l&#039;attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni. A condizione che siano rispettati detti principi, tali compiti e attività possono essere svolti da una o più autorità designate, conformemente alle esigenze organizzative dello Stato membro. &lt;br /&gt;
&lt;br /&gt;
2. Gli Stati membri comunicano alla Commissione l&#039;identità delle autorità di notifica e delle autorità di vigilanza del mercato e i compiti di tali autorità, nonché ogni successiva modifica degli stessi. Gli Stati membri mettono a disposizione del pubblico le informazioni sulle modalità con cui le autorità competenti e i punti di contatto unici possono essere contattati, tramite mezzi di comunicazione elettronica, entro ... [12 mesi dalla data di entrata in vigore del presente regolamento]. Gli Stati membri designano un&#039;autorità di vigilanza del mercato che funga da punto di contatto unico per il presente regolamento e notificano alla Commissione l&#039;identità del punto di contatto unico. La Commissione elabora un elenco dei punti di contatto unici disponibili al pubblico.&lt;br /&gt;
&lt;br /&gt;
3. Gli Stati membri garantiscono che le loro autorità nazionali competenti dispongano di risorse tecniche, finanziarie e umane adeguate, nonché delle infrastrutture necessarie per svolgere efficacemente i loro compiti a norma del presente regolamento. In particolare, le autorità nazionali competenti dispongono di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di IA, della protezione dei dati personali, della cibersicurezza, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti. Gli Stati membri valutano e, se necessario, aggiornano annualmente i requisiti in termini di competenze e risorse di cui al presente paragrafo.&lt;br /&gt;
&lt;br /&gt;
4. Le autorità nazionali competenti adottano misure adeguate per garantire un livello adeguato di cibersicurezza.&lt;br /&gt;
&lt;br /&gt;
5. Nello svolgimento dei propri compiti, le autorità nazionali competenti agiscono in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]]. &lt;br /&gt;
&lt;br /&gt;
6. Entro ... [un anno dalla data di entrata in vigore del presente regolamento], e successivamente una volta ogni due anni, gli Stati membri riferiscono alla Commissione in merito allo stato delle risorse finanziarie e umane delle autorità nazionali competenti, con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni al comitato affinché le discuta e formuli eventuali raccomandazioni.&lt;br /&gt;
&lt;br /&gt;
7. La Commissione agevola lo scambio di esperienze tra autorità nazionali competenti.&lt;br /&gt;
&lt;br /&gt;
8. Le autorità nazionali competenti possono fornire orientamenti e consulenza sull&#039;attuazione del presente regolamento, in particolare alle PMI, comprese le start-up, tenendo conto degli orientamenti e della consulenza del comitato e della Commissione, a seconda dei casi. Ogniqualvolta le autorità nazionali competenti intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altre disposizioni di diritto dell&#039;Unione, sono consultate le autorità nazionali competenti a norma di tali disposizioni di diritto dell&#039;Unione, come opportuno.&lt;br /&gt;
&lt;br /&gt;
9. Qualora le istituzioni, gli organi e gli organismi dell&#039;Unione rientrino nell&#039;ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.153|Considerando &#039;&#039;&#039;153&#039;&#039;&#039;]] • [[C.154|Considerando &#039;&#039;&#039;154&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.69&amp;diff=1280</id>
		<title>Art.69</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.69&amp;diff=1280"/>
		<updated>2024-07-08T16:14:28Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Accesso al gruppo di esperti da parte degli Stati membri&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.69 (Accesso al gruppo di esperti da parte degli Stati membri)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Gli Stati membri possono ricorrere agli esperti scientifici del gruppo affinché sostengano le loro attività di esecuzione a norma del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Gli Stati membri possono essere tenuti a pagare tariffe per la consulenza e il sostegno forniti dagli esperti. La struttura e il livello delle tariffe, nonché l&#039;entità e la struttura delle spese ripetibili sono indicati nell&#039;atto di esecuzione di cui all&#039;[[Art.68|articolo 68, paragrafo 1]], tenendo conto degli obiettivi di adeguata attuazione del presente regolamento, efficacia in termini di costi e necessità di garantire un accesso effettivo agli esperti per tutti gli Stati membri.&lt;br /&gt;
&lt;br /&gt;
3. La Commissione facilita l&#039;accesso tempestivo agli esperti da parte degli Stati membri, ove necessario, e garantisce che la combinazione di attività di sostegno svolte dalle strutture di sostegno dell&#039;Unione per la prova dell&#039;IA a norma dell&#039;[[Art.84|articolo 84]] e dagli esperti a norma del presente articolo sia organizzata in modo efficiente e fornisca il miglior valore aggiunto possibile.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.151|Considerando &#039;&#039;&#039;151&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.68&amp;diff=1279</id>
		<title>Art.68</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.68&amp;diff=1279"/>
		<updated>2024-07-08T16:14:08Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Gruppo di esperti scientifici indipendenti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.68 (Gruppo di esperti scientifici indipendenti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione adotta, mediante un atto di esecuzione, disposizioni sull&#039;istituzione di un gruppo di esperti scientifici indipendenti (&amp;quot;gruppo di esperti scientifici&amp;quot;) inteso a sostenere le attività di esecuzione a norma del presente regolamento. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui [[Art.98|all&#039;articolo 98, paragrafo 2]].&lt;br /&gt;
&lt;br /&gt;
2. Il gruppo di esperti scientifici è composto da esperti selezionati dalla Commissione sulla base di competenze scientifiche o tecniche aggiornate nel settore dell&#039;IA necessarie per lo svolgimento dei compiti di cui al paragrafo 3 ed è in grado di dimostrare di soddisfare tutte le condizioni seguenti:&lt;br /&gt;
:a) possesso di particolari conoscenze e capacità nonché competenze scientifiche o tecniche nel settore dell&#039;IA;&lt;br /&gt;
:b) indipendenza da qualsiasi fornitore di sistemi di IA o di modelli di IA per finalità generali;&lt;br /&gt;
:c) capacità di svolgere attività in modo diligente, accurato e obiettivo. La Commissione, in consultazione con il comitato, determina il numero di esperti del gruppo in funzione delle esigenze richieste e garantisce un&#039;equa rappresentanza di genere e geografica.&lt;br /&gt;
3. Il gruppo di esperti scientifici fornisce consulenza e sostegno all&#039;ufficio per l&#039;IA, in particolare per quanto riguarda i compiti seguenti:&lt;br /&gt;
:a) sostenere l&#039;attuazione e l&#039;esecuzione del presente regolamento per quanto riguarda i modelli e i sistemi di IA per finalità generali, in particolare:&lt;br /&gt;
::i) segnalare all&#039;ufficio per l&#039;IA i possibili rischi sistemici a livello dell&#039;Unione dei modelli di IA per finalità generali, conformemente all&#039;[[Art.90|articolo 90]];&lt;br /&gt;
::ii) contribuire allo sviluppo di strumenti e metodologie per valutare le capacità dei modelli e sistemi di IA per finalità generali, anche attraverso parametri di riferimento;&lt;br /&gt;
::iii) fornire consulenza sulla classificazione dei modelli di IA per finalità generali con rischio sistemico;&lt;br /&gt;
::iv) fornire consulenza sulla classificazione di vari modelli e sistemi di IA per finalità generali;&lt;br /&gt;
::v) contribuire allo sviluppo di strumenti e modelli;&lt;br /&gt;
:b) sostenere il lavoro delle autorità di vigilanza del mercato, su richiesta di queste ultime;&lt;br /&gt;
:c) sostenere le attività transfrontaliere di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafo 11]], fatti salvi i poteri delle autorità di vigilanza del mercato;&lt;br /&gt;
:d) sostenere l&#039;ufficio per l&#039;IA nello svolgimento delle sue funzioni nell&#039;ambito della procedura di salvaguardia dell’Unione di cui all&#039;[[Art.81|articolo 81]].&lt;br /&gt;
4. Gli esperti scientifici del gruppo svolgono i loro compiti con imparzialità e obiettività e garantiscono la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività. Non sollecitano né accettano istruzioni da nessuno nell&#039;esercizio dei loro compiti di cui al paragrafo 3. Ogni esperto compila una dichiarazione di interessi, che rende accessibile al pubblico. L&#039;ufficio per l&#039;IA istituisce sistemi e procedure per gestire attivamente e prevenire potenziali conflitti di interesse.&lt;br /&gt;
5. L&#039;atto di esecuzione di cui al paragrafo 1 comprende disposizioni sulle condizioni, le procedure e le modalità dettagliate in base alle quali il gruppo di esperti scientifici e i suoi membri effettuano segnalazioni e chiedono l&#039;assistenza dell&#039;ufficio per l&#039;IA per lo svolgimento dei compiti del gruppo di esperti scientifici.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.151|Considerando &#039;&#039;&#039;151&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.67&amp;diff=1278</id>
		<title>Art.67</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.67&amp;diff=1278"/>
		<updated>2024-07-08T16:13:52Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Forum consultivo&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.67 (Forum consultivo)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. È istituito un forum consultivo per fornire consulenza e competenze tecniche al comitato e alla Commissione, nonché per contribuire ai loro compiti a norma del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. La composizione del forum consultivo rappresenta una selezione equilibrata di portatori di interessi, tra cui l&#039;industria, le start-up, le PMI, la società civile e il mondo accademico. La composizione del forum consultivo è equilibrata per quanto riguarda gli interessi commerciali e non commerciali e, all&#039;interno della categoria degli interessi commerciali, per quanto riguarda le PMI e le altre imprese.&lt;br /&gt;
&lt;br /&gt;
3. La Commissione nomina i membri del forum consultivo, conformemente ai criteri stabiliti al paragrafo 2, tra i portatori di interessi con competenze riconosciute nel settore dell&#039;IA. &lt;br /&gt;
&lt;br /&gt;
4. Il mandato dei membri del forum consultivo ha una durata di due anni, prorogabile fino a un massimo di quattro anni. &lt;br /&gt;
&lt;br /&gt;
5. L&#039;Agenzia per i diritti fondamentali, l&#039;ENISA, il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l&#039;Istituto europeo per le norme di telecomunicazione (ETSI) sono membri permanenti del forum consultivo.&lt;br /&gt;
&lt;br /&gt;
6. Il comitato consultivo redige il proprio regolamento interno. Esso elegge due copresidenti tra i suoi membri, conformemente ai criteri stabiliti al paragrafo 2. Il mandato dei copresidenti ha una durata di due anni, rinnovabile una volta. &lt;br /&gt;
&lt;br /&gt;
7. Il forum consultivo tiene riunioni almeno due volte all&#039;anno. Il forum consultivo può invitare esperti e altri portatori di interessi alle sue riunioni. &lt;br /&gt;
&lt;br /&gt;
8. Il forum consultivo può elaborare pareri, raccomandazioni e contributi scritti su richiesta del comitato o della Commissione.&lt;br /&gt;
&lt;br /&gt;
9. Il forum consultivo può istituire sottogruppi permanenti o temporanei, se necessario, per esaminare questioni specifiche connesse agli obiettivi del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
10. Il forum consultivo prepara una relazione annuale sulle sue attività. Tale relazione è resa pubblica.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.150|Considerando &#039;&#039;&#039;150&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.66&amp;diff=1277</id>
		<title>Art.66</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.66&amp;diff=1277"/>
		<updated>2024-07-08T16:13:33Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Compiti del comitato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.66 (Compiti del comitato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
!Il comitato fornisce consulenza e assistenza alla Commissione e agli Stati membri al fine di agevolare l&#039;applicazione coerente ed efficace del presente regolamento. A tal fine il comitato può in particolare:&lt;br /&gt;
:a) contribuire al coordinamento tra le autorità nazionali competenti responsabili dell&#039;applicazione del presente regolamento e, in cooperazione con le autorità di vigilanza del mercato interessate e previo accordo di queste ultime, sostenere le attività congiunte delle autorità di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafo 11]];&lt;br /&gt;
&lt;br /&gt;
:b) raccogliere e condividere tra gli Stati membri conoscenze e migliori pratiche tecniche e normative;&lt;br /&gt;
&lt;br /&gt;
:c) fornire consulenza sull&#039;attuazione del presente regolamento, in particolare per quanto riguarda l&#039;applicazione delle norme sui modelli di IA per finalità generali;&lt;br /&gt;
&lt;br /&gt;
:d) contribuire all&#039;armonizzazione delle pratiche amministrative negli Stati membri, anche in relazione alla deroga alle procedure di valutazione della conformità di cui all&#039;[[Art.46|articolo 46]], al funzionamento degli spazi di sperimentazione normativa per l&#039;IA e alle prove in condizioni reali di cui agli articoli [[Art.57|57]], [[Art.59|59]] e [[Art.60|60]];&lt;br /&gt;
&lt;br /&gt;
:e) su richiesta della Commissione o di propria iniziativa, formulare raccomandazioni e pareri scritti su qualsiasi questione pertinente relativa all&#039;attuazione del presente regolamento e alla sua applicazione coerente ed efficace, tra l&#039;altro:&lt;br /&gt;
:i) sull&#039;elaborazione e l&#039;applicazione di codici di condotta e codici di buone pratiche a norma del presente regolamento, nonché degli orientamenti della Commissione;&lt;br /&gt;
:ii) sulla valutazione e il riesame del presente regolamento a norma dell&#039;[[Art.112|articolo 112]], anche per quanto riguarda la comunicazione di incidenti gravi di cui all&#039;[[Art.73|articolo 73]], e il funzionamento della banca dati dell’UE di cui all&#039;[[Art.71|articolo 71]], la preparazione degli atti delegati o di esecuzione e gli eventuali allineamenti del presente regolamento alla normativa di armonizzazione elencata nell&#039;[[Allegato I|allegato I]];&lt;br /&gt;
:iii) sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al capo III, sezione 2;&lt;br /&gt;
:iv) sull&#039;uso delle norme armonizzate o delle specifiche comuni di cui agli articoli [[Art.40|40]] e [[Art.41|41]];&lt;br /&gt;
:v) sulle tendenze, quali la competitività globale europea nell&#039;IA, l&#039;adozione dell&#039;IA nell&#039;Unione e lo sviluppo di competenze digitali;&lt;br /&gt;
:vi) sulle tendenze relative all&#039;evoluzione della tipologia delle catene del valore dell&#039;IA, in particolare per quanto riguarda le conseguenti implicazioni in termini di responsabilità;&lt;br /&gt;
:vii) sull&#039;eventuale necessità di modificare l&#039;[[Allegato III|allegato III]] conformemente all&#039;[[Art.7|articolo 7]] e sull&#039;eventuale necessità di una possibile revisione dell&#039;[[Art.5|articolo 5]] a norma dell&#039;[[Art.112|articolo 112]], tenendo conto delle pertinenti prove disponibili e degli ultimi sviluppi tecnologici;&lt;br /&gt;
&lt;br /&gt;
:f)sostenere la Commissione nella promozione dell&#039;alfabetizzazione in materia di IA, della sensibilizzazione del pubblico e della comprensione dei benefici, dei rischi, delle garanzie e dei diritti e degli obblighi in relazione all&#039;uso dei sistemi di IA;&lt;br /&gt;
&lt;br /&gt;
:g) facilitare lo sviluppo di criteri comuni e una comprensione condivisa tra gli operatori del mercato e le autorità competenti dei concetti pertinenti di cui al presente regolamento, anche contribuendo allo sviluppo di parametri di riferimento;&lt;br /&gt;
&lt;br /&gt;
:h)cooperare, se del caso, con altre istituzioni e altri organi e organismi dell&#039;Unione nonché con i pertinenti gruppi di esperti e reti dell&#039;Unione, in particolare nei settori della sicurezza dei prodotti, della cibersicurezza, della concorrenza, dei servizi digitali e dei media, dei servizi finanziari, della protezione dei consumatori, dei dati e dei diritti fondamentali;&lt;br /&gt;
&lt;br /&gt;
:i)contribuire all&#039;efficace cooperazione con le autorità competenti dei paesi terzi e con le organizzazioni internazionali;&lt;br /&gt;
&lt;br /&gt;
:j)assistere le autorità nazionali competenti e la Commissione nello sviluppo delle competenze organizzative e tecniche necessarie per l&#039;attuazione del presente regolamento, anche contribuendo alla valutazione delle esigenze di formazione del personale degli Stati membri coinvolto nell&#039;attuazione del presente regolamento;&lt;br /&gt;
&lt;br /&gt;
:k)assistere l&#039;ufficio per l&#039;IA nel sostenere le autorità nazionali competenti nell&#039;istituzione e nello sviluppo di spazi di sperimentazione normativa per l&#039;IA e facilitare la cooperazione e la condivisione di informazioni tra gli spazi di sperimentazione normativa per l’IA;&lt;br /&gt;
&lt;br /&gt;
:l)contribuire all&#039;elaborazione di documenti di orientamento e fornire consulenza al riguardo;&lt;br /&gt;
&lt;br /&gt;
:m)fornire consulenza alla Commissione sulle questioni internazionali in materia di IA;&lt;br /&gt;
&lt;br /&gt;
:n)fornire pareri alla Commissione sulle segnalazioni qualificate relative ai modelli di IA per finalità generali;&lt;br /&gt;
&lt;br /&gt;
:o) ricevere pareri dagli Stati membri sulle segnalazioni qualificate relative ai modelli di IA per finalità generali e sulle esperienze e pratiche nazionali in materia di monitoraggio e applicazione dei sistemi di IA, in particolare dei sistemi che integrano i modelli di IA per finalità generali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.149|Considerando &#039;&#039;&#039;149&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.65&amp;diff=1276</id>
		<title>Art.65</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.65&amp;diff=1276"/>
		<updated>2024-07-08T16:13:13Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Istituzione e struttura del comitato europeo per l&#039;intelligenza artificiale&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.65 (Istituzione e struttura del comitato europeo per l&#039;intelligenza artificiale)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. È istituito un comitato europeo per l&#039;intelligenza artificiale (&amp;quot;comitato&amp;quot;).&lt;br /&gt;
&lt;br /&gt;
2. Il comitato è composto di un rappresentante per Stato membro. Il Garante europeo della protezione dei dati partecipa come osservatore. Anche l&#039;ufficio per l&#039;IA partecipa alle riunioni del comitato senza partecipare alle votazioni. Altre autorità, organismi o esperti nazionali e dell&#039;Unione possono essere invitati alle riunioni dal comitato caso per caso, qualora le questioni discusse siano di loro pertinenza.&lt;br /&gt;
&lt;br /&gt;
3. Ciascun rappresentante è designato dal rispettivo Stato membro per un periodo di tre anni, rinnovabile una volta.&lt;br /&gt;
&lt;br /&gt;
4. Gli Stati membri provvedono affinché i loro rappresentanti nel comitato:&lt;br /&gt;
:a) dispongano delle competenze e dei poteri pertinenti nel proprio Stato membro in modo da contribuire attivamente allo svolgimento dei compiti del comitato di cui all&#039;[[Art.66|articolo 66]];&lt;br /&gt;
:b) siano designati come punto di contatto unico nei confronti del comitato e, se del caso tenendo conto delle esigenze degli Stati membri, come punto di contatto unico per i portatori di interessi;&lt;br /&gt;
:c) abbiano il potere di agevolare la coerenza e il coordinamento tra le autorità nazionali competenti nel rispettivo Stato membro per quanto riguarda l&#039;attuazione del presente regolamento, anche attraverso la raccolta di dati e informazioni pertinenti ai fini dello svolgimento dei loro compiti in seno al comitato.&lt;br /&gt;
&lt;br /&gt;
5. I rappresentanti designati degli Stati membri adottano il regolamento interno del comitato a maggioranza di due terzi. Il regolamento interno stabilisce, in particolare, le procedure per il processo di selezione, la durata del mandato e le specifiche riguardanti i compiti del presidente, le modalità dettagliate relative al voto e l&#039;organizzazione delle attività del comitato e dei suoi sottogruppi.&lt;br /&gt;
&lt;br /&gt;
6. Il comitato istituisce due sottogruppi permanenti al fine di fornire una piattaforma di cooperazione e scambio tra le autorità di vigilanza del mercato e notificare le autorità su questioni relative rispettivamente alla vigilanza del mercato e agli organismi notificati.&lt;br /&gt;
Il sottogruppo permanente per la vigilanza del mercato dovrebbe fungere da gruppo di cooperazione amministrativa (ADCO) per il presente regolamento ai sensi dell&#039;articolo 30 del regolamento (UE) 2019/1020. &amp;lt;br/&amp;gt;&lt;br /&gt;
Il comitato può istituire altri sottogruppi permanenti o temporanei, se del caso, ai fini dell&#039;esame di questioni specifiche. Se del caso, i rappresentanti del forum consultivo di cui all&#039;[[Art.67|articolo 67]] possono essere invitati a tali sottogruppi o a riunioni specifiche di tali sottogruppi in qualità di osservatori.&lt;br /&gt;
&lt;br /&gt;
7. Il comitato è organizzato e gestito in modo che sia salvaguardata l&#039;obiettività e l&#039;imparzialità delle sue attività.&lt;br /&gt;
&lt;br /&gt;
8. Il comitato è presieduto da uno dei rappresentanti degli Stati membri. L&#039;ufficio per l&#039;IA provvede alle funzioni di segretariato per il comitato, convoca le riunioni su richiesta della presidenza e prepara l&#039;ordine del giorno in conformità dei compiti del comitato a norma del presente regolamento e del relativo regolamento interno.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.149|Considerando &#039;&#039;&#039;149&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.63&amp;diff=1274</id>
		<title>Art.63</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.63&amp;diff=1274"/>
		<updated>2024-07-08T16:12:14Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Deroghe per operatori specifici&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.63 (Deroghe per operatori specifici)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le microimprese ai sensi della raccomandazione 2003/361/CE possono conformarsi a determinati elementi del sistema di gestione della qualità di cui all&#039;[[Art.17|articolo 17]] del presente regolamento in modo semplificato, purché non abbiano imprese associate o collegate ai sensi di tale raccomandazione. A tal fine, la Commissione elabora orientamenti sugli elementi del sistema di gestione della qualità che possono essere rispettati in modo semplificato tenendo conto delle esigenze delle microimprese, senza incidere sul livello di protezione o sulla necessità di conformità ai requisiti per quanto riguarda i sistemi di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2.Il paragrafo 1 del presente articolo non è interpretato nel senso che esenta tali operatori dal rispetto di altri requisiti e obblighi di cui al presente regolamento, compresi quelli stabiliti agli articoli [[Art.9|9]], [[Art.10|10]], [[Art.11|11]], [[Art.12|12]], [[Art.13|13]], [[Art.14|14]], [[Art.15|15]], [[Art.72|72]] e [[Art.73|73]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.146|Considerando &#039;&#039;&#039;146&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.62&amp;diff=1273</id>
		<title>Art.62</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.62&amp;diff=1273"/>
		<updated>2024-07-08T16:11:53Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.62 (Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1.Gli Stati membri intraprendono le azioni seguenti:&lt;br /&gt;
:a)fornire alle PMI, comprese le start-up, con sede legale o una filiale nell&#039;Unione, un accesso prioritario agli spazi di sperimentazione normativa per l&#039;IA nella misura in cui soddisfano le condizioni di ammissibilità e i criteri di selezione; l&#039;accesso prioritario non impedisce ad altre PMI, comprese le start-up, diverse da quelle di cui al presente paragrafo di accedere allo spazio di sperimentazione normativa per l&#039;IA, purché soddisfino anche le condizioni di ammissibilità e i criteri di selezione;&lt;br /&gt;
:b)organizzare specifiche attività di sensibilizzazione e formazione sull&#039;applicazione del presente regolamento adattate alle esigenze delle PMI, comprese le start-up, dei deployers e, se del caso, delle autorità pubbliche locali;&lt;br /&gt;
:c) utilizzare i canali dedicati esistenti e, ove opportuno, istituirne di nuovi per la comunicazione con le PMI, comprese le start-up, i deployers, altri innovatori e, se del caso, le autorità pubbliche locali, al fine di fornire consulenza e rispondere alle domande sull&#039;attuazione del presente regolamento, anche per quanto riguarda la partecipazione agli spazi di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:d) agevolare la partecipazione delle PMI e di altri portatori di interessi pertinenti al processo di sviluppo della normazione.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Nel fissare le tariffe per la valutazione della conformità a norma dell&#039;[[Art.43|articolo 43]] si tiene conto degli interessi e delle esigenze specifici delle PMI fornitrici, comprese le start-up, riducendo tali tariffe proporzionalmente alle loro dimensioni, alle dimensioni del loro mercato e ad altri indicatori pertinenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. L&#039;ufficio per l&#039;IA intraprende le azioni seguenti:&lt;br /&gt;
:a) fornire modelli standardizzati per i settori contemplati dal presente regolamento, come specificato dal comitato nella sua richiesta;&lt;br /&gt;
:b) sviluppare e mantenere una piattaforma unica di informazione che fornisce informazioni di facile uso in relazione al presente regolamento per tutti gli operatori in tutta l&#039;Unione;&lt;br /&gt;
:c) organizzare adeguate campagne di comunicazione per sensibilizzare in merito agli obblighi derivanti dal presente regolamento;&lt;br /&gt;
:d) valutare e promuovere la convergenza delle migliori pratiche nelle procedure di appalto pubblico in relazione ai sistemi di IA.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.143|Considerando &#039;&#039;&#039;143&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=1272</id>
		<title>Art.61</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=1272"/>
		<updated>2024-07-08T16:11:34Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.61 (Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ai fini delle prove in condizioni reali a norma dell&#039;[[Art.60|articolo 60]], il consenso informato dato liberamente dai soggetti delle prove è ottenuto prima della loro partecipazione a tali prove e dopo che sono stati debitamente informati con indicazioni concise, chiare, pertinenti e comprensibili riguardanti:&lt;br /&gt;
:a) la natura e gli obiettivi delle prove in condizioni reali e i possibili disagi che possono essere connessi alla loro partecipazione;&lt;br /&gt;
:b) le condizioni alle quali devono essere effettuate le prove in condizioni reali, compresa la durata prevista della partecipazione del soggetto o dei soggetti;&lt;br /&gt;
:c) i loro diritti e le garanzie riconosciute al soggetto in relazione alla loro partecipazione, in particolare il loro diritto di rifiutarsi di partecipare e il diritto di ritirarsi dalle prove in condizioni reali in qualsiasi momento, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione;&lt;br /&gt;
:d) le modalità per richiedere che le previsioni, raccomandazioni o decisioni del sistema di IA siano ignorate o ribaltate;&lt;br /&gt;
:e) il numero di identificazione unico a livello dell&#039;Unione delle prove in condizioni reali conformemente all&#039;[[Art.60|articolo 60, paragrafo 4, lettera c)]], e i dati di contatto del fornitore o del suo rappresentante legale da cui è possibile ottenere ulteriori informazioni.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il consenso informato è datato e documentato e una copia è consegnata ai soggetti delle prove o al loro rappresentante legale.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.141|Considerando &#039;&#039;&#039;141&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=1270</id>
		<title>Art.60</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=1270"/>
		<updated>2024-07-08T16:10:36Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA possono essere effettuate da fornitori o potenziali fornitori di sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], conformemente al presente articolo e al piano di prova in condizioni reali di cui al presente articolo, fatti salvi i divieti di cui all&#039;[[Art.5|articolo 5]]. La Commissione, per mezzo di atti di esecuzione, specifica nel dettaglio gli elementi del piano di prova in condizioni reali. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]]. Il presente paragrafo lascia impregiudicato il diritto dell&#039;Unione o nazionale concernente le prove in condizioni reali di sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori o potenziali fornitori possono effettuare prove dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] in condizioni reali in qualsiasi momento prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA, da soli o in partenariato con uno o più deployer o potenziali deployer.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le prove di sistemi di IA ad alto rischio in condizioni reali a norma del presente articolo non pregiudicano alcun esame etico che sia richiesto dal diritto dell&#039;Unione o nazionale. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: &lt;br /&gt;
:a) il fornitore o potenziale fornitore ha elaborato un piano di prova in condizioni reali e lo ha presentato all&#039;autorità di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali;&lt;br /&gt;
:b) l&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali ha approvato le prove in condizioni reali e il piano di prova in condizioni reali; se l&#039;autorità di vigilanza del mercato non ha fornito una risposta entro 30 giorni, le prove in condizioni reali e il piano di prova in condizioni reali sono da intendersi approvati; se il diritto nazionale non prevede un&#039;approvazione tacita, le prove in condizioni reali restano soggette ad autorizzazione;&lt;br /&gt;
:c) il fornitore o potenziale fornitore, ad eccezione dei fornitori o dei potenziali fornitori dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori delle attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere, e dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 2, ha registrato la prova in condizioni reali conformemente all&#039;[[Art.71|articolo 71, paragrafo 4]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni di cui all&#039;[[Allegato IX|allegato IX]]; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori dell’attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo di frontiera, ha registrato la prova in condizioni reali in una sezione sicura non pubblica della banca dati UE ai sensi dell&#039;[[Art.49|articolo 49, paragrafo 4, lettera d)]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni ivi specificate; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 2]], ha registrato la prova in condizioni reali conformemente all&#039;[[Art.49|articolo 49, paragrafo 5]];&lt;br /&gt;
:d) il fornitore o potenziale fornitore che effettua le prove in condizioni reali è stabilito nell&#039;Unione o ha nominato un rappresentante legale che è stabilito nell&#039;Unione;&lt;br /&gt;
:e) i dati raccolti e trattati ai fini delle prove in condizioni reali sono trasferiti a paesi terzi solo a condizione che siano poste in essere tutele adeguate e applicabili ai sensi del diritto dell&#039;Unione;&lt;br /&gt;
:f) le prove in condizioni reali non durano più di quanto necessario per conseguire i rispettivi obiettivi e, in ogni caso, non più di sei mesi, che possono essere prorogati per un ulteriore periodo di sei mesi, previa notifica da parte del fornitore o del potenziale fornitore all’autorità di vigilanza del mercato, corredata della motivazione relativa alla necessità di tale proroga;&lt;br /&gt;
:g) i soggetti delle prove in condizioni reali che sono persone appartenenti a gruppi vulnerabili a causa della loro età o disabilità sono adeguatamente protetti;&lt;br /&gt;
:h) qualora un fornitore o potenziale fornitore organizzi le prove in condizioni reali in cooperazione con uno o più deployer o potenziali deployer, questi ultimi sono stati informati di tutti gli aspetti delle prove pertinenti per la loro decisione di partecipare e hanno ricevuto le istruzioni pertinenti per l&#039;uso del sistema di IA di cui all&#039;[[Art.13|articolo 13]]; il fornitore o potenziale fornitore e il deployer o potenziale deployer concludono un accordo che ne specifica i ruoli e le responsabilità al fine di garantire la conformità alle disposizioni relative alle prove in condizioni reali ai sensi del presente regolamento e di altre disposizioni applicabili di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:i) i soggetti delle prove in condizioni reali hanno dato il proprio consenso informato a norma dell&#039;[[Art.61|articolo 61]] o, nel caso delle attività di contrasto, qualora la richiesta di consenso informato impedisca di sottoporre a prova il sistema di IA, le prove stesse e i risultati delle prove in condizioni reali non hanno alcun effetto negativo sui soggetti e i loro dati personali sono cancellati dopo lo svolgimento della prova;&lt;br /&gt;
:j) le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell&#039;autorità necessarie per svolgere i loro compiti;&lt;br /&gt;
:k) le previsioni, le raccomandazioni o le decisioni del sistema di IA possono essere efficacemente ribaltate e ignorate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Qualsiasi soggetto delle prove in condizioni reali, o il suo rappresentante legale designato, a seconda dei casi, può, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e può chiedere la cancellazione immediata e permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. A norma dell&#039;[[Art.75|articolo 75]], gli Stati membri conferiscono alle loro autorità di vigilanza del mercato il potere di imporre ai fornitori e ai potenziali fornitori di fornire informazioni, di effettuare ispezioni a distanza o in loco senza preavviso e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di IA ad alto rischio. Le autorità di vigilanza del mercato si avvalgono di tali poteri per garantire lo sviluppo in sicurezza delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Qualsiasi incidente grave individuato nel corso delle prove in condizioni reali è segnalato all&#039;autorità nazionale di vigilanza del mercato conformemente all&#039;[[Art.73|articolo 73]]. Il fornitore o potenziale fornitore adotta misure di attenuazione immediate o, in mancanza di ciò, sospende le prove in condizioni reali fino a quando tale attenuazione non abbia luogo oppure vi pone fine. Il fornitore o potenziale fornitore stabilisce una procedura per il tempestivo ritiro del sistema di IA in seguito a tale cessazione delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. I fornitori o potenziali fornitori notificano all&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o la cessazione delle prove in condizioni reali nonché i risultati finali.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. Il fornitore o potenziale fornitore è responsabile ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni causati nel corso delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.141|Considerando &#039;&#039;&#039;141&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.59&amp;diff=1269</id>
		<title>Art.59</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.59&amp;diff=1269"/>
		<updated>2024-07-08T16:10:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l&#039;IA di determinati sistemi di IA nell&#039;interesse pubblico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.59 (OUlteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativaper l&#039;IA di determinati sistemi di IA nell&#039;interesse pubblico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Nello spazio di sperimentazione normativa per l’IA, i dati personali legalmente raccolti per altre finalità possono essere trattati unicamente ai fini dello sviluppo, dell&#039;addestramento e delle prove di determinati sistemi di IA nello spazio di sperimentazione quando sono soddisfatte tutte le condizioni seguenti:&lt;br /&gt;
:a) i sistemi di IA sono sviluppati per salvaguardare un interesse pubblico rilevante da parte di un&#039;autorità pubblica o di un&#039;altra persona fisica o giuridica e in uno o più dei settori seguenti:&lt;br /&gt;
::i) la sicurezza pubblica e la sanità pubblica, compresi l&#039;individuazione, la diagnosi, la prevenzione, il controllo e il trattamento delle malattie e il miglioramento dei sistemi sanitari;&lt;br /&gt;
::ii) un elevato livello di protezione e di miglioramento della qualità dell&#039;ambiente, la tutela della biodiversità, la protezione contro l&#039;inquinamento, le misure per la transizione verde, la mitigazione dei cambiamenti climatici e l&#039;adattamento ad essi;&lt;br /&gt;
::iii) la sostenibilità energetica;&lt;br /&gt;
::iv) la sicurezza e la resilienza dei sistemi di trasporto e della mobilità, delle infrastrutture critiche e delle reti;&lt;br /&gt;
::v) l&#039;efficienza e la qualità della pubblica amministrazione e dei servizi pubblici;&lt;br /&gt;
:b) i dati trattati sono necessari per il rispetto di uno o più dei requisiti di cui al capo III, sezione 2, qualora tali requisiti non possano essere efficacemente soddisfatti mediante il trattamento di dati anonimizzati, sintetici o di altri dati non personali;&lt;br /&gt;
:c) esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti e le libertà degli interessati di cui all&#039;articolo 35 del regolamento (UE) 2016/679 e all&#039;articolo 39 del regolamento (UE) 2018/1725 durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;&lt;br /&gt;
:d) i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo del potenziale fornitore e solo le persone autorizzate hanno accesso a tali dati;&lt;br /&gt;
:e) i fornitori possono condividere ulteriormente i dati originariamente raccolti solo in conformità del diritto dell&#039;Unione in materia di protezione dei dati; i dati personali creati nello spazio di sperimentazione non possono essere condivisi al di fuori dello spazio di sperimentazione;&lt;br /&gt;
:f) il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati né incide sull&#039;applicazione dei loro diritti sanciti dal diritto dell&#039;Unione in materia di protezione dei dati personali; &lt;br /&gt;
:g) i dati personali trattati nell&#039;ambito dello spazio di sperimentazione sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;&lt;br /&gt;
:h) i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione, salvo diversa disposizione del diritto dell&#039;Unione o nazionale;&lt;br /&gt;
:i) una descrizione completa e dettagliata del processo e della logica alla base dell&#039;addestramento, delle prove e della convalida del sistema di IA è conservata insieme ai risultati delle prove nell&#039;ambito della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]];&lt;br /&gt;
:j) una breve sintesi del progetto di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi e dei risultati attesi è pubblicata sul sito web delle autorità competenti; tale obbligo non riguarda i dati operativi sensibili in relazione alle attività delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo.&lt;br /&gt;
2. A fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse, sotto il controllo e la responsabilità delle autorità di contrasto, il trattamento dei dati personali negli spazi di sperimentazione normativa per l&#039;IA si basa su una specifica disposizione di diritto nazionale o dell&#039;Unione ed è soggetto alle stesse condizioni cumulative di cui al paragrafo 1.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Il paragrafo 1 lascia impregiudicate le disposizioni del diritto dell&#039;Unione o nazionale che escludono il trattamento dei dati personali per fini diversi da quelli espressamente menzionati in tali disposizioni, nonché il diritto dell&#039;Unione o nazionale che stabilisce la base per il trattamento dei dati personali necessario ai fini dello sviluppo, delle prove e dell&#039;addestramento di sistemi di IA innovativi o qualsiasi altra base giuridica, conformemente al diritto dell&#039;Unione in materia di protezione dei dati personali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.140|Considerando &#039;&#039;&#039;140&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=1268</id>
		<title>Art.58</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=1268"/>
		<updated>2024-07-08T16:10:03Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.58 (Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Onde evitare la frammentazione nell&#039;intera Unione, la Commissione adotta atti di esecuzione che precisano le modalità dettagliate per l&#039;istituzione, lo sviluppo, l&#039;attuazione, il funzionamento e la supervisione degli spazi di sperimentazione normativa per l&#039;IA. Tali atti di esecuzione comprendono principi comuni sulle questioni seguenti:&lt;br /&gt;
:a) criteri di ammissibilità e selezione per la partecipazione allo spazio di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:b) procedure per la domanda, la partecipazione, il monitoraggio, l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA e la sua cessazione, compresi il piano dello spazio di sperimentazione e la relazione di uscita;&lt;br /&gt;
:c) i termini e le condizioni applicabili ai partecipanti.&lt;br /&gt;
Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Gli atti di esecuzione di cui al paragrafo 1 garantiscono:&lt;br /&gt;
:a) che gli spazi di sperimentazione normativa per l&#039;IA siano aperti a qualsiasi fornitore o potenziale fornitore richiedente di un sistema di IA che soddisfi criteri di ammissibilità e selezione trasparenti ed equi, e che le autorità nazionali competenti informino i richiedenti della loro decisione entro tre mesi dalla domanda;&lt;br /&gt;
:b) che gli spazi di sperimentazione normativa consentano un accesso ampio e paritario e tengano il passo con la domanda di partecipazione; i fornitori e i potenziali fornitori possono anche presentare domande in partenariato con gli deployers e con altri terzi interessati;&lt;br /&gt;
:c) che le modalità dettagliate e le condizioni relative agli spazi di sperimentazione normativa per l&#039;IA sostengano la flessibilità, nella massima misura possibile, affinché le autorità nazionali competenti istituiscano e gestiscano i loro spazi di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:d) che l&#039;accesso agli spazi di sperimentazione normativa per l&#039;IA sia gratuito per le PMI, comprese le start-up, fatti salvi i costi straordinari che le autorità nazionali competenti possono recuperare in maniera equa e proporzionata;&lt;br /&gt;
:e) che i fornitori e i potenziali fornitori siano agevolati, attraverso i risultati dell&#039;apprendimento degli spazi di sperimentazione normativa per l&#039;IA, a conformarsi agli obblighi di valutazione della conformità di cui al presente regolamento e all&#039;applicazione volontaria dei codici di condotta di cui all&#039;[[Art.95|articolo 95]];&lt;br /&gt;
:f) che gli spazi di sperimentazione normativa per l&#039;IA facilitino il coinvolgimento di altri attori pertinenti nell&#039;ambito dell&#039;ecosistema dell&#039;IA, quali organismi notificati e organizzazioni di normazione, PMI, comprese start-up, imprese, innovatori, impianti di prova e sperimentazione, laboratori di ricerca e sperimentazione e poli europei dell&#039;innovazione digitale, centri di eccellenza e singoli ricercatori, al fine di consentire e facilitare la cooperazione con i settori pubblico e privato;&lt;br /&gt;
:g) che le procedure, i processi e i requisiti amministrativi per l&#039;applicazione, la selezione, la partecipazione e l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA siano semplici, facilmente intelligibili, comunicati chiaramente per agevolare la partecipazione delle PMI, comprese le start-up, con capacità giuridiche e amministrative limitate e siano razionalizzati in tutta l&#039;Unione, al fine di evitare la frammentazione e che la partecipazione a uno spazio di sperimentazione normativa per l&#039;IA istituito da uno Stato membro o dal Garante europeo della protezione dei dati sia reciprocamente e uniformemente riconosciuta e produca gli stessi effetti giuridici nell&#039;intera Unione;&lt;br /&gt;
:h) che la partecipazione allo spazio di sperimentazione normativa per l&#039;IA sia limitata a un periodo adeguato alla complessità e alla portata del progetto, che può essere prorogato dall&#039;autorità nazionale competente;&lt;br /&gt;
:i) che gli spazi di sperimentazione normativa per l&#039;IA agevolino lo sviluppo di strumenti e infrastrutture per la sperimentazione, l&#039;analisi comparativa, la valutazione e la spiegazione delle dimensioni dei sistemi di IA pertinenti per l&#039;apprendimento normativo, quali l&#039;accuratezza, la robustezza e la cibersicurezza, nonché le misure per attenuare i rischi per i diritti fondamentali e la società in generale.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I potenziali fornitori degli spazi di sperimentazione normativa per l&#039;IA, soprattutto le PMI e le start-up, sono indirizzati, se del caso, a servizi di pre-diffusione, quali gli orientamenti sull&#039;attuazione del presente regolamento, ad altri servizi a valore aggiunto, quali l&#039;assistenza per i documenti di normazione e la certificazione, gli impianti di prova e sperimentazione, i poli europei dell&#039;innovazione digitale e i centri di eccellenza.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Quando valutano la possibilità di autorizzare prove in condizioni reali sottoposte a controllo nel quadro di uno spazio di sperimentazione normativa per l&#039;IA da istituire a norma del presente articolo, le autorità nazionali competenti concordano in modo specifico con i partecipanti i termini e le condizioni di tali prove e, in particolare, le tutele adeguate al fine di proteggere i diritti fondamentali, la salute e la sicurezza. Se del caso, cooperano con altre autorità nazionali competenti al fine di garantire pratiche coerenti in tutta l&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.139|Considerando &#039;&#039;&#039;139&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1266</id>
		<title>Art.72</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1266"/>
		<updated>2024-07-08T16:09:37Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.72 (Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori istituiscono e documentano un sistema di monitoraggio successivo all&#039;immissione sul mercato che sia proporzionato alla natura delle tecnologie di IA e ai rischi del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2. Il sistema di monitoraggio successivo all&#039;immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti che possono essere forniti dai deployer o che possono essere raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al capo III, sezione 2. Se del caso, il monitoraggio successivo all&#039;immissione sul mercato include un&#039;analisi dell&#039;interazione con altri sistemi di IA. Tale obbligo non riguarda i dati operativi sensibili dei deployer che sono autorità di contrasto.&lt;br /&gt;
&lt;br /&gt;
3. Il sistema di monitoraggio successivo all&#039;immissione sul mercato si basa su un piano di monitoraggio successivo all&#039;immissione sul mercato. Il piano di monitoraggio successivo all&#039;immissione sul mercato fa parte della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]]. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all&#039;immissione sul mercato e un elenco di elementi da includere nel piano entro … [18 mesi dall’ entrata in vigore del presente regolamento]. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
4. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tale normativa preveda già un sistema e un piano di monitoraggio successivo all&#039;immissione sul mercato, al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari elementi di cui ai paragrafi 1, 2 e 3 utilizzando il modello di cui al paragrafo 3 nei sistemi e nei piani già esistenti in virtù di tale normativa, a condizione che consegua un livello di protezione equivalente.&lt;br /&gt;
&lt;br /&gt;
Il primo comma del presente paragrafo si applica anche ai sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 5, immessi sul mercato o messi in servizio da istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1259</id>
		<title>Art.72</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1259"/>
		<updated>2024-07-08T16:06:09Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.72 (Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori istituiscono e documentano un sistema di monitoraggio successivo all&#039;immissione sul mercato che sia proporzionato alla natura delle tecnologie di IA e ai rischi del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2. Il sistema di monitoraggio successivo all&#039;immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti che possono essere forniti dai deployer o che possono essere raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al capo III, sezione 2. Se del caso, il monitoraggio successivo all&#039;immissione sul mercato include un&#039;analisi dell&#039;interazione con altri sistemi di IA. Tale obbligo non riguarda i dati operativi sensibili dei deployer che sono autorità di contrasto.&lt;br /&gt;
&lt;br /&gt;
3. Il sistema di monitoraggio successivo all&#039;immissione sul mercato si basa su un piano di monitoraggio successivo all&#039;immissione sul mercato. Il piano di monitoraggio successivo all&#039;immissione sul mercato fa parte della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]]. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all&#039;immissione sul mercato e un elenco di elementi da includere nel piano entro … [18 mesi dall’ entrata in vigore del presente regolamento]. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
4. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tale normativa preveda già un sistema e un piano di monitoraggio successivo all&#039;immissione sul mercato, al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari elementi di cui ai paragrafi 1, 2 e 3 utilizzando il modello di cui al paragrafo 3 nei sistemi e nei piani già esistenti in virtù di tale normativa, a condizione che consegua un livello di protezione equivalente.&lt;br /&gt;
&lt;br /&gt;
Il primo comma del presente paragrafo si applica anche ai sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 5, immessi sul mercato o messi in servizio da istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari&amp;lt;br /&amp;gt;&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
{|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]}&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.82&amp;diff=1255</id>
		<title>Art.82</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.82&amp;diff=1255"/>
		<updated>2024-07-08T16:04:28Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistemi di IA conformi che presentano un rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.82 (Sistemi di IA conformi che presentano un rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Se, dopo aver effettuato una valutazione a norma dell&#039;[[Art.79|articolo 79]] e aver consultato la pertinente autorità pubblica nazionale di cui all&#039;[[Art.77|articolo 77, paragrafo 1]], l&#039;autorità di vigilanza del mercato di uno Stato membro ritiene che un sistema di IA ad alto rischio, pur conforme al presente regolamento, rappresenti comunque un rischio per la salute o la sicurezza delle persone, per i diritti fondamentali o per altri aspetti della tutela dell&#039;interesse pubblico, essa chiede all&#039;operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA in questione, all&#039;atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio senza indebito ritardo entro un termine che essa può prescrivere.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il fornitore o un altro operatore pertinente garantisce l&#039;adozione di misure correttive nei confronti di tutti i sistemi di IA interessati che ha messo a disposizione sul mercato dell&#039;Unione entro il termine prescritto dall&#039;autorità di vigilanza del mercato dello Stato membro di cui al paragrafo 1.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Gli Stati membri informano immediatamente la Commissione e gli altri Stati membri della conclusione cui sono giunti conformemente al paragrafo 1. Tali informazioni comprendono tutti i dettagli disponibili, in particolare i dati necessari all&#039;identificazione del sistema di IA interessato, l&#039;origine e la catena di approvvigionamento del sistema di IA, la natura del rischio connesso, nonché la natura e la durata delle misure nazionali adottate.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. La Commissione avvia senza indebito ritardo consultazioni con gli Stati membri interessati e gli operatori pertinenti e valuta le misure nazionali adottate. In base ai risultati di tale valutazione, la Commissione decide se la misura sia giustificata e propone, ove necessario, altre misure appropriate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. La Commissione comunica immediatamente la propria decisione agli Stati membri interessati e agli operatori pertinenti e ne informa anche gli altri Stati membri.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.85&amp;diff=1252</id>
		<title>Art.85</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.85&amp;diff=1252"/>
		<updated>2024-07-08T16:03:21Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Diritto di presentare un reclamo a un&#039;autorità di vigilanza del mercato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.85 (Diritto di presentare un reclamo a un&#039;autorità di vigilanza del mercato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
Fatti salvi altri ricorsi amministrativi o giurisdizionali, qualsiasi persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una violazione delle disposizioni del presente regolamento può presentare un reclamo alla pertinente autorità di vigilanza del mercato.&amp;lt;br /&amp;gt;&lt;br /&gt;
Conformemente al regolamento (UE) 2019/1020, tali reclami sono presi in considerazione ai fini dello svolgimento delle attività di vigilanza del mercato e sono trattati in linea con le procedure specifiche stabilite a tal fine dalle autorità di vigilanza del mercato.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.170|Considerando &#039;&#039;&#039;170&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.84&amp;diff=1250</id>
		<title>Art.84</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.84&amp;diff=1250"/>
		<updated>2024-07-08T16:02:29Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Strutture di sostegno dell&#039;Unione per la prova dell&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.84 (Strutture di sostegno dell&#039;Unione per la prova dell&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. La Commissione designa una o più strutture di sostegno dell&#039;Unione per la prova dell&#039;IA per lo svolgimento dei compiti di cui all&#039;articolo 21, paragrafo 6, del regolamento (UE) 2019/1020/nel settore dell&#039;IA.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Fatti salvi i compiti di cui al paragrafo 1, le strutture di sostegno dell&#039;Unione per la prova dell&#039;IA forniscono anche pareri tecnici o scientifici indipendenti su richiesta del comitato, della Commissione o delle autorità di vigilanza del mercato.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.152|Considerando &#039;&#039;&#039;152&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.79&amp;diff=1246</id>
		<title>Art.79</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.79&amp;diff=1246"/>
		<updated>2024-07-08T16:00:51Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Procedura a livello nazionale per i sistemi di IA che presentano un rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.79 (Procedura a livello nazionale per i sistemi di IA che presentano un rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Un sistema di IA che presenta un rischio è inteso come un &amp;quot;prodotto che presenta un rischio&amp;quot; quale definito all&#039;articolo 3, punto 19, del regolamento (UE) 2019/1020 nella misura in cui presenta rischi per la salute o la sicurezza o per i diritti fondamentali delle persone.&amp;lt;br /&amp;gt;    &lt;br /&gt;
2. Qualora l&#039;autorità di vigilanza del mercato di uno Stato membro abbia un motivo sufficiente per ritenere che un sistema di IA presenti un rischio di cui al paragrafo 1 del presente articolo, essa effettua una valutazione del sistema di IA interessato per quanto riguarda la sua conformità a tutti i requisiti e gli obblighi di cui al presente regolamento. Particolare attenzione è prestata ai sistemi di IA che presentano un rischio per i gruppi vulnerabili. Qualora siano individuati rischi per i diritti fondamentali, l&#039;autorità di vigilanza del mercato informa anche le autorità o gli organismi pubblici nazionali competenti di cui all&#039;[[Art.77|articolo 77, paragrafo 1]], e coopera pienamente con essi. I pertinenti operatori cooperano, per quanto necessario, con l&#039;autorità di vigilanza del mercato e con le altre autorità o gli altri organismi pubblici nazionali di cui all&#039;[[Art.77|articolo 77, paragrafo 1]].&lt;br /&gt;
Se, nel corso di tale valutazione, l&#039;autorità di vigilanza del mercato o, se del caso, l&#039;autorità di vigilanza del mercato in cooperazione con l&#039;autorità pubblica nazionale di cui all&#039;[[Art.77|articolo 77, paragrafo 1]], rilevano che il sistema di IA non è conforme ai requisiti e agli obblighi di cui al presente regolamento, esse chiedono senza indebito ritardo al pertinente operatore di adottare tutte le misure correttive adeguate al fine di rendere il sistema di IA conforme, ritirarlo dal mercato o richiamarlo entro il termine che l&#039;autorità di vigilanza del mercato può prescrivere o, in ogni caso, entro 15 giorni lavorativi a seconda di quale termine sia il più breve, oppure entro il termine previsto dalla pertinente normativa di armonizzazione dell&#039;Unione.&lt;br /&gt;
L&#039;autorità di vigilanza del mercato informa di conseguenza l&#039;organismo notificato pertinente. L&#039;articolo 18 del regolamento (UE) 2019/1020 si applica alle misure di cui al secondo comma del presente paragrafo.&amp;lt;br /&amp;gt;    &lt;br /&gt;
3. Qualora ritenga che la non conformità non sia limitata al territorio nazionale, l&#039;autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri senza indebito ritardo dei risultati della valutazione e delle azioni che hanno chiesto all&#039;operatore economico di intraprendere.&amp;lt;br /&amp;gt; &lt;br /&gt;
4. L&#039;operatore garantisce che siano adottate tutte le opportune misure correttive nei confronti di tutti i sistemi di IA interessati che ha messo a disposizione sul mercato dell&#039;Unione.&amp;lt;br /&amp;gt; &lt;br /&gt;
5. Qualora l&#039;operatore di un sistema di IA non adotti misure correttive adeguate nel periodo di cui al paragrafo 2, l&#039;autorità di vigilanza del mercato adotta tutte le misure provvisorie del caso per vietare o limitare la messa a disposizione o la messa in servizio del sistema di IA sul mercato nazionale, per ritirare il prodotto o il sistema di IA autonomo dal mercato o per richiamarlo. Tale autorità notifica senza indebito ritardo tali misure alla Commissione e agli altri Stati membri.&amp;lt;br /&amp;gt; &lt;br /&gt;
6. La notifica di cui al paragrafo 5 include tutti i particolari disponibili, soprattutto le informazioni necessarie all&#039;identificazione del sistema di IA non conforme, la sua origine e la catena di approvvigionamento, la natura della presunta non conformità e dei rischi connessi, la natura e la durata delle misure nazionali adottate, nonché gli argomenti espressi dal pertinente operatore. Le autorità di vigilanza del mercato indicano in particolare se la non conformità sia dovuta a una o più delle cause seguenti:&lt;br /&gt;
:a) non conformità al divieto delle pratiche di IA di cui all&#039;[[Art.5|articolo 5]];&lt;br /&gt;
:b) mancato rispetto da parte di un sistema di IA ad alto rischio dei requisiti di cui al capo III, sezione 2;&lt;br /&gt;
:c) carenze nelle norme armonizzate o nelle specifiche comuni, di cui agli articoli [[Art.40|40]] e [[Art.41|41]], che conferiscono la presunzione di conformità;&lt;br /&gt;
:d) non conformità all&#039;[[Art.50|articolo 50]].&amp;lt;br /&amp;gt; &lt;br /&gt;
7. Le autorità di vigilanza del mercato diverse dall&#039;autorità di vigilanza del mercato dello Stato membro che ha avviato la procedura comunicano senza indebito ritardo alla Commissione e agli altri Stati membri tutte le misure adottate, tutte le altre informazioni a loro disposizione sulla non conformità del sistema di IA interessato e, in caso di disaccordo con la misura nazionale notificata, le loro obiezioni. &amp;lt;br /&amp;gt; &lt;br /&gt;
8. Se, entro tre mesi dal ricevimento della notifica di cui al paragrafo 5 del presente articolo, un&#039;autorità di vigilanza del mercato di uno Stato membro o la Commissione non sollevano obiezioni contro la misura provvisoria adottata da un&#039;autorità di vigilanza del mercato di un altro Stato membro, tale misura è ritenuta giustificata. Ciò non pregiudica i diritti procedurali dell&#039;operatore interessato in conformità dell&#039;articolo 18 del regolamento (UE) 2019/1020. Il periodo di tre mesi di cui al presente paragrafo è ridotto a 30 giorni in caso di non conformità al divieto delle pratiche di IA di cui all&#039;articolo 5 del presente regolamento.&amp;lt;br /&amp;gt; &lt;br /&gt;
9. Le autorità di vigilanza del mercato garantiscono che siano adottate senza indebito ritardo adeguate misure restrittive in relazione al prodotto o al sistema di IA interessato, come il ritiro del prodotto o del sistema di IA dal loro mercato.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.78&amp;diff=1244</id>
		<title>Art.78</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.78&amp;diff=1244"/>
		<updated>2024-07-08T16:00:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Riservatezza&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.78 (Riservatezza)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. In conformità del diritto dell&#039;Unione o nazionale, la Commissione, le autorità di vigilanza del mercato e gli organismi notificati, nonché le altre persone fisiche o giuridiche che partecipano all&#039;applicazione del presente regolamento, garantiscono la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare: &lt;br /&gt;
:a)	i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, compreso il codice sorgente, tranne nei casi di cui all&#039;articolo 5 della direttiva (UE) 2016/943 del Parlamento europeo e del Consiglio&amp;lt;ref&amp;gt;Direttiva (UE) 2016/943 del Parlamento europeo e del. Consiglio, dell&#039;8 giugno 2016, sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l&#039;acquisizione, l&#039;utilizzo e la divulgazione illeciti (GU L 157 del 15.6.2016, pag. 1).&amp;lt;/ref&amp;gt;; &lt;br /&gt;
:b)  l&#039;efficace attuazione del presente regolamento, in particolare ai fini delle ispezioni, delle indagini e degli audit;&lt;br /&gt;
:c)  gli interessi pubblici e di sicurezza nazionale; &lt;br /&gt;
:d)  lo svolgimento del procedimento penale o amministrativo; &lt;br /&gt;
:e)  le informazioni classificate a norma del diritto dell&#039;Unione o nazionale.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Le autorità che partecipano all&#039;applicazione del presente regolamento a norma del paragrafo 1 richiedono solo i dati strettamente necessari per la valutazione del rischio posto dai sistemi di IA e per l&#039;esercizio dei loro poteri conformemente al presente regolamento e al regolamento (UE) 2019/1020. Esse pongono in essere misure di cibersicurezza adeguate ed efficaci per proteggere la sicurezza e la riservatezza delle informazioni e dei dati ottenuti e cancellano i dati raccolti non appena non sono più necessari per lo scopo per il quale sono stati ottenuti, conformemente al diritto dell&#039;Unione o nazionale applicabile.&amp;lt;br /&amp;gt;&lt;br /&gt;
3.	Fatti salvi i paragrafi 1 e 2, nel momento in cui i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti 1, 6 o 7]], sono utilizzati dalle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti, o tra le autorità nazionali competenti e la Commissione, non sono divulgate senza previa consultazione dell&#039;autorità nazionale competente e del deployer che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere gli interessi pubblici e di sicurezza nazionale. Tale scambio di informazioni non riguarda i dati operativi sensibili in relazione alle attività delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo. &amp;lt;br /&amp;gt;&lt;br /&gt;
Qualora le autorità competenti in materia di contrasto, di immigrazione o di asilo siano fornitori di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti 1, 6 o 7]], la documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]] rimane nei locali di tali autorità. Tali autorità garantiscono che le autorità di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafi 8 e 9]], a seconda dei casi, possano, su richiesta, accedere immediatamente alla documentazione o ottenerne una copia. Solo il personale dell&#039;autorità di vigilanza del mercato in possesso di un nulla osta di sicurezza di livello adeguato è autorizzato ad accedere a tale documentazione o a una copia della stessa.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I paragrafi 1, 2 e 3 non pregiudicano i diritti o gli obblighi della Commissione, degli Stati membri e delle rispettive autorità pertinenti nonché quelli degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, anche nel contesto della cooperazione transfrontaliera, né pregiudicano gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri. &amp;lt;br /&amp;gt;&lt;br /&gt;
5. La Commissione e gli Stati membri possono scambiare, ove necessario e conformemente alle pertinenti disposizioni degli accordi internazionali e commerciali, informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.167|Considerando &#039;&#039;&#039;167&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.77&amp;diff=1243</id>
		<title>Art.77</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.77&amp;diff=1243"/>
		<updated>2024-07-08T15:59:34Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Poteri delle autorità che tutelano i diritti fondamentali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.77 (Poteri delle autorità che tutelano i diritti fondamentali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell&#039;Unione a tutela dei diritti fondamentali, compreso il diritto alla non discriminazione, in relazione all&#039;uso dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi, in una lingua e un formato accessibili, quando l&#039;accesso a tale documentazione è necessario per l&#039;efficace adempimento dei loro mandati entro i limiti della loro giurisdizione. L&#039;autorità pubblica o l&#039;organismo pubblico pertinente informa l&#039;autorità di vigilanza del mercato dello Stato membro interessato di qualsiasi richiesta in tal senso.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Entro ... &#039;&#039;&#039;&#039;&#039;[tre mesi dall&#039;entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 1 e ne pubblica l&#039;elenco. Gli Stati membri notificano l&#039;elenco alla Commissione e agli altri Stati membri e lo tengono aggiornato.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Qualora la documentazione di cui al paragrafo 1 non sia sufficiente per accertare un&#039;eventuale violazione degli obblighi previsti dal diritto dell&#039;Unione a tutela dei diritti fondamentali, l&#039;autorità pubblica o l&#039;organismo pubblico di cui al paragrafo 1 può presentare all&#039;autorità di vigilanza del mercato una richiesta motivata al fine di organizzare&lt;br /&gt;
una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L&#039;autorità di vigilanza del mercato organizza le prove coinvolgendo da vicino l&#039;autorità pubblica o l&#039;organismo pubblico richiedente entro un termine ragionevole dalla richiesta.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Qualsiasi informazione o documentazione ottenuta a norma del presente articolo dalle autorità o dagli organismi pubblici nazionali di cui al paragrafo 1 del presente articolo è trattata in conformità degli obblighi di riservatezza stabiliti all&#039;[[Art.78|articolo 78]].&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.157|Considerando &#039;&#039;&#039;157&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.75&amp;diff=1242</id>
		<title>Art.75</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.75&amp;diff=1242"/>
		<updated>2024-07-08T15:58:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Assistenza reciproca, vigilanza del mercato e controllo dei sistemi di IA per finalità generali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.75 (Assistenza reciproca, vigilanza del mercato e controllo dei sistemi di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Qualora un sistema di IA si basi su un modello di IA per finalità generali e il modello e il sistema siano sviluppati dallo stesso fornitore, l&#039;ufficio per l&#039;IA ha il potere di monitorare e supervisionare la conformità di tale sistema di IA agli obblighi di cui al presente regolamento. Per svolgere i suoi compiti di monitoraggio e supervisione, l&#039;ufficio per l&#039;IA dispone di tutti i poteri di un&#039;autorità di vigilanza del mercato prevista dalla presente sezione e dal [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020].&lt;br /&gt;
&lt;br /&gt;
2. Qualora abbiano motivi sufficienti per ritenere che i sistemi di IA per finalità generali che possono essere utilizzati direttamente dai deployer per almeno una finalità classificata come ad alto rischio a norma del presente regolamento non siano conformi ai requisiti di cui al presente regolamento, le pertinenti autorità di vigilanza del mercato cooperano con l&#039;ufficio per l&#039;IA per effettuare valutazioni della conformità e informano di conseguenza il comitato e le altre autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
3. Qualora non sia in grado di concludere la propria indagine sul sistema di IA ad alto rischio perché non può accedere a determinate informazioni relative al modello di IA per finalità generali nonostante abbia compiuto tutti gli sforzi opportuni per ottenere tali informazioni, un&#039;autorità di vigilanza del mercato può presentare una richiesta motivata all&#039;ufficio per l&#039;IA, che garantisce l&#039;accesso a tali informazioni. In tal caso, l&#039;ufficio per l&#039;IA fornisce all&#039;autorità richiedente senza indugio, e in ogni caso entro 30 giorni, tutte le informazioni che esso ritiene pertinenti al fine di stabilire se un sistema di IA ad alto rischio non è conforme. Le autorità di vigilanza del mercato salvaguardano la riservatezza delle informazioni ottenute conformemente all&#039;[[Art.78|articolo 78]] del presente regolamento. La procedura di cui al capo VI del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] si applica mutatis mutandis. &amp;lt;br /&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:WHEREAS.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.161|Considerando &#039;&#039;&#039;161&#039;&#039;&#039;]] &lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.74&amp;diff=1241</id>
		<title>Art.74</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.74&amp;diff=1241"/>
		<updated>2024-07-08T15:57:50Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell&#039;Unione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.74 (Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell&#039;Unione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Il regolamento (UE) 2019/1020 si applica ai sistemi di IA disciplinati dal presente regolamento. Ai fini dell&#039;efficace applicazione del presente regolamento:&lt;br /&gt;
: a) ogni riferimento a un operatore economico a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] si intende fatto anche a tutti gli operatori di cui all&#039;[[Art.2|articolo 2]], paragrafo 1, del presente regolamento;&lt;br /&gt;
: b) ogni riferimento a un prodotto a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] si intende fatto anche a tutti i sistemi di IA che rientrano nell&#039;ambito di applicazione del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Nell&#039;ambito dei loro obblighi in materia di segnalazione a norma dell&#039;articolo 34, paragrafo 4, del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020], le autorità di vigilanza del mercato comunicano annualmente alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l&#039;applicazione del diritto dell&#039;Unione in materia di concorrenza. Essi riferiscono inoltre annualmente alla Commissione in merito al ricorso a pratiche vietate verificatosi nel corso di tale anno e alle misure adottate.&lt;br /&gt;
&lt;br /&gt;
3. Per i sistemi di IA ad alto rischio collegati a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, l&#039;autorità di vigilanza del mercato ai fini del presente regolamento è l&#039;autorità responsabile delle attività di vigilanza del mercato designata a norma di tali atti giuridici. In deroga al primo comma e in determinate circostanze, gli Stati membri possono designare un’altra autorità pertinente che agisca in qualità di autorità di vigilanza del mercato, a condizione che garantiscano il coordinamento con le pertinenti autorità settoriali di vigilanza del mercato responsabili dell’esecuzione della normativa di armonizzazione dell’Unione elencata nell&#039;[[Allegato I|allegato I]].&lt;br /&gt;
&lt;br /&gt;
4. Le procedure di cui agli articoli da [[Art.79|79]] a [[Art.83|83]] del presente regolamento non si applicano ai sistemi di IA collegati a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tali atti giuridici prevedano già procedure che garantiscono un livello equivalente di protezione e aventi lo stesso obiettivo. In tali casi si applicano invece le pertinenti procedure settoriali.&lt;br /&gt;
&lt;br /&gt;
5. Fatti salvi i poteri delle autorità di vigilanza del mercato di cui all&#039;articolo 14 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020], al fine di garantire l&#039;efficace applicazione del presente regolamento, le autorità di vigilanza del mercato possono esercitare i poteri di cui all&#039;articolo 14, paragrafo 4, lettere d) e j), di tale regolamento a distanza, se del caso.&lt;br /&gt;
&lt;br /&gt;
6. Per i sistemi di IA ad alto rischio immessi sul mercato, messi in servizio o usati da istituti finanziari disciplinati dal diritto dell&#039;Unione in materia di servizi finanziari, l&#039;autorità di vigilanza del mercato ai fini del presente regolamento è l&#039;autorità nazionale pertinente responsabile della vigilanza finanziaria di tali enti ai sensi di tale diritto, nella misura in cui l&#039;immissione sul mercato, la messa in servizio o l&#039;uso del sistema di IA siano direttamente collegati alla fornitura di tali servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
7. In deroga al paragrafo 6, in determinate circostanze e a condizione che sia garantito il coordinamento, lo Stato membro può individuare un&#039;altra autorità competente come autorità di vigilanza del mercato ai fini del presente regolamento. Le autorità nazionali di vigilanza del mercato che controllano gli enti creditizi disciplinati nel quadro della direttiva 2013/36/UE, che partecipano al meccanismo di vigilanza unico istituito dal [https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A32013R1024 regolamento (UE) n. 1024/2013], dovrebbero comunicare senza indugio alla Banca centrale europea qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per i compiti in materia di vigilanza prudenziale della Banca centrale europea specificati in tale regolamento.&lt;br /&gt;
&lt;br /&gt;
8. Per i sistemi di IA ad alto rischio elencati nell&#039;allegato III del presente regolamento, punto 1, nella misura in cui tali sistemi sono utilizzati a fini di attività di contrasto, gestione delle frontiere, giustizia e democrazia e per i sistemi di IA ad alto rischio elencati nell&#039;allegato III del presente regolamento, punti 6, 7 e 8, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32016R0679 regolamento (UE) 2016/679] o della [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32016L0680 direttiva (UE) 2016/680] o qualsiasi altra autorità designata a norma delle stesse condizioni di cui agli articoli da 41 a 44 della direttiva (UE) 2016/680. Le attività di vigilanza del mercato non pregiudicano in alcun modo l&#039;indipendenza delle autorità giudiziarie né interferiscono in altro modo con le loro attività nell&#039;esercizio delle loro funzioni giurisdizionali.&lt;br /&gt;
&lt;br /&gt;
9. Nei casi in cui le istituzioni, gli organi e gli organismi dell&#039;Unione rientrano nell&#039;ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità di vigilanza del mercato, tranne nei confronti della Corte di giustizia dell&#039;Unione europea nell&#039;esercizio delle sue funzioni giurisdizionali.&lt;br /&gt;
&lt;br /&gt;
10. Gli Stati membri agevolano il coordinamento tra le autorità di vigilanza del mercato designate a norma del presente regolamento e altre autorità o organismi nazionali pertinenti che controllano l&#039;applicazione della normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I o di altre disposizioni del diritto dell&#039;Unione che potrebbero essere pertinenti per i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]].&lt;br /&gt;
&lt;br /&gt;
11. Le autorità di vigilanza del mercato e la Commissione possono proporre attività congiunte, comprese indagini congiunte, che dovrebbero essere condotte dalle autorità di vigilanza del mercato o dalle autorità di vigilanza del mercato di concerto con la Commissione, al fine di promuovere la conformità, individuare casi di non conformità, sensibilizzare e fornire orientamenti in relazione al presente regolamento riguardo a specifiche categorie di sistemi di IA ad alto rischio che si rileva presentino un rischio grave in due o più Stati membri conformemente all&#039;articolo 9 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020]. L&#039;ufficio per l&#039;IA fornisce sostegno di coordinamento per le indagini congiunte.&lt;br /&gt;
&lt;br /&gt;
12. Fatti salvi i poteri di cui al [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] e se del caso e nei limiti di quanto necessario per lo svolgimento dei loro compiti, i fornitori concedono alle autorità di vigilanza del mercato pieno accesso alla documentazione nonché ai set di dati di addestramento, convalida e prova utilizzati per lo sviluppo dei sistemi di IA ad alto rischio, anche, ove opportuno e fatte salve le garanzie di sicurezza, attraverso interfacce di programmazione delle applicazioni (API) o altri mezzi e strumenti tecnici pertinenti che consentano l&#039;accesso remoto.&lt;br /&gt;
&lt;br /&gt;
13. Alle autorità di vigilanza del mercato è concesso l&#039;accesso al codice sorgente del sistema di IA ad alto rischio su richiesta motivata e solo qualora siano soddisfatte entrambe le condizioni seguenti:&lt;br /&gt;
: a) l&#039;accesso al codice sorgente è necessario per valutare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo III, sezione 2; e&lt;br /&gt;
: b) le procedure di prova o di audit e le verifiche basate sui dati e sulla documentazione presentati dal fornitore sono state esaurite o si sono dimostrate insufficienti.&lt;br /&gt;
&lt;br /&gt;
14. Qualsiasi informazione o documentazione ottenuta dalle autorità di vigilanza del mercato è trattata in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.156|Considerando &#039;&#039;&#039;156&#039;&#039;&#039;]]&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.73&amp;diff=1240</id>
		<title>Art.73</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.73&amp;diff=1240"/>
		<updated>2024-07-08T15:57:11Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Comunicazione di incidenti gravi&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.73 (Comunicazione di incidenti gravi)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio immessi sul mercato dell&#039;Unione segnalano qualsiasi incidente grave alle autorità di vigilanza del mercato degli Stati membri in cui tali incidenti si sono verificati.&lt;br /&gt;
&lt;br /&gt;
2. La segnalazione di cui al paragrafo 1 è effettuata immediatamente dopo che il fornitore ha stabilito un nesso causale tra il sistema di IA e l&#039;incidente grave o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni dopo che il fornitore o, se del caso, il deployer, è venuto a conoscenza dell&#039;incidente grave. Il periodo per la segnalazione di cui al primo comma tiene conto della gravità dell&#039;incidente grave.&lt;br /&gt;
&lt;br /&gt;
3. In deroga al paragrafo 2 del presente articolo, in caso di un&#039;infrazione diffusa o di un incidente grave quale definito all&#039;[[Art.3|articolo 3]], punto 49, lettera b), la segnalazione di cui al paragrafo 1 del presente articolo è trasmessa immediatamente e non oltre due giorni dopo che il fornitore o, se del caso, il deployer è venuto a conoscenza di tale incidente.&lt;br /&gt;
&lt;br /&gt;
4. In deroga al paragrafo 2, in caso di decesso di una persona, la segnalazione è trasmessa immediatamente dopo che il fornitore o il deployer ha stabilito, o non appena sospetta, un nesso causale tra il sistema di IA ad alto rischio e l&#039;incidente grave, ma non oltre 10 giorni dalla data in cui il fornitore o, se del caso, il deployer è venuto a conoscenza dell&#039;incidente grave.&lt;br /&gt;
&lt;br /&gt;
5. Se necessario per garantire una comunicazione tempestiva, il fornitore o, se del caso, il deployer, può presentare una relazione iniziale incompleta, seguita da una relazione completa.&lt;br /&gt;
&lt;br /&gt;
6. A seguito della comunicazione di un incidente grave a norma del paragrafo 1, il fornitore svolge senza indugio le indagini necessarie in relazione all&#039;incidente grave e al sistema di IA interessato. Ciò comprende una valutazione del rischio dell&#039;incidente nonché misure correttive. Il fornitore coopera con le autorità competenti e, se del caso, con l&#039;organismo notificato interessato durante le indagini di cui al primo comma e non svolge alcuna indagine che comporti una modifica del sistema di IA interessato in un modo che possa incidere su un&#039;eventuale successiva valutazione delle cause dell&#039;incidente, prima di informare le autorità competenti di tale azione.&lt;br /&gt;
&lt;br /&gt;
7. Al ricevimento di una notifica relativa a un incidente grave di cui all&#039;[[Art.3|articolo 3]], punto 49, lettera c), l&#039;autorità di vigilanza del mercato interessata informa le autorità o gli organismi pubblici nazionali di cui all&#039;[[Art.77|articolo 77]], paragrafo 1. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1 del presente articolo. Tali orientamenti sono emanati entro ... [12 mesi dall’entrata in vigore del presente regolamento] e sono valutati periodicamente.&lt;br /&gt;
&lt;br /&gt;
8. L&#039;autorità di vigilanza del mercato adotta le misure appropriate di cui all&#039;articolo 19 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020] entro sette giorni dalla data di ricevimento della notifica di cui al paragrafo 1 del presente articolo e segue le procedure di notifica previste da tale regolamento.&lt;br /&gt;
&lt;br /&gt;
9. Per i sistemi di IA ad alto rischio di cui all&#039;allegato III che sono immessi sul mercato o messi in servizio da fornitori soggetti a strumenti legislativi dell&#039;Unione che stabiliscono obblighi in materia di segnalazione equivalenti a quelli previsti dal presente regolamento, la notifica è limitata agli incidenti gravi di cui all&#039;articolo 3, punto 49, lettera c).&lt;br /&gt;
&lt;br /&gt;
10. Per i sistemi di IA ad alto rischio che sono componenti di sicurezza di dispositivi, o sono essi stessi dispositivi, disciplinati dai [https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A32017R0745 regolamenti (UE) 2017/745] e (UE) [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32017R0746 2017/746], la notifica è limitata agli incidenti gravi di cui all&#039;articolo 3, punto 49, lettera c), del presente regolamento, del presente regolamento ed è trasmessa all&#039;autorità nazionale competente scelta a tal fine dagli Stati membri in cui si è verificato l&#039;incidente.11. Le autorità nazionali competenti notificano immediatamente alla Commissione qualsiasi incidente grave, indipendentemente dal fatto che abbiano o meno preso provvedimenti al riguardo, conformemente all&#039;articolo 20 del [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019R1020 regolamento (UE) 2019/1020].&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1239</id>
		<title>Art.72</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1239"/>
		<updated>2024-07-08T15:56:35Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.72 (Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori istituiscono e documentano un sistema di monitoraggio successivo all&#039;immissione sul mercato che sia proporzionato alla natura delle tecnologie di IA e ai rischi del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2. Il sistema di monitoraggio successivo all&#039;immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti che possono essere forniti dai deployer o che possono essere raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al capo III, sezione 2. Se del caso, il monitoraggio successivo all&#039;immissione sul mercato include un&#039;analisi dell&#039;interazione con altri sistemi di IA. Tale obbligo non riguarda i dati operativi sensibili dei deployer che sono autorità di contrasto.&lt;br /&gt;
&lt;br /&gt;
3. Il sistema di monitoraggio successivo all&#039;immissione sul mercato si basa su un piano di monitoraggio successivo all&#039;immissione sul mercato. Il piano di monitoraggio successivo all&#039;immissione sul mercato fa parte della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]]. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all&#039;immissione sul mercato e un elenco di elementi da includere nel piano entro … [18 mesi dall’ entrata in vigore del presente regolamento]. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
4. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tale normativa preveda già un sistema e un piano di monitoraggio successivo all&#039;immissione sul mercato, al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari elementi di cui ai paragrafi 1, 2 e 3 utilizzando il modello di cui al paragrafo 3 nei sistemi e nei piani già esistenti in virtù di tale normativa, a condizione che consegua un livello di protezione equivalente.&lt;br /&gt;
&lt;br /&gt;
Il primo comma del presente paragrafo si applica anche ai sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 5, immessi sul mercato o messi in servizio da istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari&amp;lt;br /&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
{|&lt;br /&gt;
|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1238</id>
		<title>Art.72</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.72&amp;diff=1238"/>
		<updated>2024-07-08T15:55:51Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.72 (Monitoraggio successivo all&#039;immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all&#039;immissione sul mercato per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. I fornitori istituiscono e documentano un sistema di monitoraggio successivo all&#039;immissione sul mercato che sia proporzionato alla natura delle tecnologie di IA e ai rischi del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2. Il sistema di monitoraggio successivo all&#039;immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti che possono essere forniti dai deployer o che possono essere raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al capo III, sezione 2. Se del caso, il monitoraggio successivo all&#039;immissione sul mercato include un&#039;analisi dell&#039;interazione con altri sistemi di IA. Tale obbligo non riguarda i dati operativi sensibili dei deployer che sono autorità di contrasto.&lt;br /&gt;
&lt;br /&gt;
3. Il sistema di monitoraggio successivo all&#039;immissione sul mercato si basa su un piano di monitoraggio successivo all&#039;immissione sul mercato. Il piano di monitoraggio successivo all&#039;immissione sul mercato fa parte della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]]. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all&#039;immissione sul mercato e un elenco di elementi da includere nel piano entro … [18 mesi dall’ entrata in vigore del presente regolamento]. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
4. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], sezione A, qualora tale normativa preveda già un sistema e un piano di monitoraggio successivo all&#039;immissione sul mercato, al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari elementi di cui ai paragrafi 1, 2 e 3 utilizzando il modello di cui al paragrafo 3 nei sistemi e nei piani già esistenti in virtù di tale normativa, a condizione che consegua un livello di protezione equivalente.&lt;br /&gt;
&lt;br /&gt;
Il primo comma del presente paragrafo si applica anche ai sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 5, immessi sul mercato o messi in servizio da istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari&amp;lt;br /&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.155|Considerando &#039;&#039;&#039;155&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.71&amp;diff=1236</id>
		<title>Art.71</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.71&amp;diff=1236"/>
		<updated>2024-07-08T15:54:39Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Banca dati dell&#039;UE per i sistemi di IA ad alto rischio elencati nell&#039;allegato III&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.70 (Banca dati dell&#039;UE per i sistemi di IA ad alto rischio elencati nell&#039;allegato III)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati dell&#039;UE contenente le informazioni di cui ai paragrafi 2 e 3 del presente articolo relative ai sistemi di IA ad alto rischio di cui all&#039;[[Art.6|articolo 6, paragrafo 2]], registrati conformemente agli [[Art.49|articoli 49]] e [[Art.60|60]] e ai sistemi di IA che non sono considerati ad alto rischio a norma dell’[[Art.6|articolo 6, paragrafo 3]], e che sono registrati in conformità dell’[[Art.6|articolo 6, paragrafo 4]] e dell’[[Art.69|articolo 69]]. Nel definire le specifiche funzionali di tale banca dati, la Commissione consulta gli esperti competenti e, nell&#039;aggiornare le specifiche funzionali di tale banca dati, consulta il comitato.&lt;br /&gt;
&lt;br /&gt;
2. I dati elencati nell&#039;[[allegato VIII]], sezioni A e B, sono inseriti nella banca dati dell&#039;UE dal fornitore o, se del caso, dal rappresentante autorizzato.&lt;br /&gt;
&lt;br /&gt;
3. I dati elencati nell&#039;[[allegato VIII]], sezione C, sono inseriti nella banca dati dell&#039;UE dal deployer che è un&#039;autorità, un&#039;agenzia o un organismo pubblico, conformemente all&#039;[[Art.49|articolo 49, paragrafi 3 e 4]], o che agisce per conto di essi.&lt;br /&gt;
&lt;br /&gt;
4. Ad eccezione della sezione di cui all&#039;[[Art.49|articolo 49, paragrafo 4]], e all&#039;[[Art.60|articolo 60, paragrafo 4, lettera c)]], le informazioni contenute nella banca dati dell&#039;UE registrate a norma dell&#039;[[Art.49|articolo 49]] sono accessibili e disponibili al pubblico in modo facilmente fruibile. Le informazioni dovrebbero essere di facile consultazione e leggibili meccanicamente. Le informazioni registrate a norma dell&#039;[[Art.60|articolo 60]] sono accessibili solo alle autorità di vigilanza del mercato e alla Commissione, a meno che il fornitore o il potenziale fornitore non abbia dato il suo consenso anche a rendere tali informazioni accessibili al pubblico.&lt;br /&gt;
&lt;br /&gt;
5. La banca dati dell&#039;UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità del presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l&#039;autorità legale di rappresentare il fornitore o il deployer, se del caso.&lt;br /&gt;
&lt;br /&gt;
6. La Commissione è il titolare del trattamento della banca dati dell&#039;UE. Essa mette a disposizione dei fornitori, dei potenziali fornitori e dei deployer un adeguato sostegno tecnico e amministrativo. La banca dati dell&#039;UE è conforme ai requisiti di accessibilità applicabili.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.131|Considerando &#039;&#039;&#039;131&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.70&amp;diff=1231</id>
		<title>Art.70</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.70&amp;diff=1231"/>
		<updated>2024-07-08T15:53:48Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Designazione delle autorità nazionali competenti e dei punti di contatto unici&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.70 (Designazione delle autorità nazionali competenti e dei punti di contatto unici)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ciascuno Stato membro istituisce o designa come autorità nazionali competenti ai fini del presente regolamento almeno un&#039;autorità di notifica e almeno un&#039;autorità di vigilanza del mercato. Tali autorità nazionali competenti esercitano i loro poteri in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l&#039;applicazione e l&#039;attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni. A condizione che siano rispettati detti principi, tali compiti e attività possono essere svolti da una o più autorità designate, conformemente alle esigenze organizzative dello Stato membro. &lt;br /&gt;
&lt;br /&gt;
2. Gli Stati membri comunicano alla Commissione l&#039;identità delle autorità di notifica e delle autorità di vigilanza del mercato e i compiti di tali autorità, nonché ogni successiva modifica degli stessi. Gli Stati membri mettono a disposizione del pubblico le informazioni sulle modalità con cui le autorità competenti e i punti di contatto unici possono essere contattati, tramite mezzi di comunicazione elettronica, entro ... [12 mesi dalla data di entrata in vigore del presente regolamento]. Gli Stati membri designano un&#039;autorità di vigilanza del mercato che funga da punto di contatto unico per il presente regolamento e notificano alla Commissione l&#039;identità del punto di contatto unico. La Commissione elabora un elenco dei punti di contatto unici disponibili al pubblico.&lt;br /&gt;
&lt;br /&gt;
3. Gli Stati membri garantiscono che le loro autorità nazionali competenti dispongano di risorse tecniche, finanziarie e umane adeguate, nonché delle infrastrutture necessarie per svolgere efficacemente i loro compiti a norma del presente regolamento. In particolare, le autorità nazionali competenti dispongono di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di IA, della protezione dei dati personali, della cibersicurezza, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti. Gli Stati membri valutano e, se necessario, aggiornano annualmente i requisiti in termini di competenze e risorse di cui al presente paragrafo.&lt;br /&gt;
&lt;br /&gt;
4. Le autorità nazionali competenti adottano misure adeguate per garantire un livello adeguato di cibersicurezza.&lt;br /&gt;
&lt;br /&gt;
5. Nello svolgimento dei propri compiti, le autorità nazionali competenti agiscono in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]]. &lt;br /&gt;
&lt;br /&gt;
6. Entro ... [un anno dalla data di entrata in vigore del presente regolamento], e successivamente una volta ogni due anni, gli Stati membri riferiscono alla Commissione in merito allo stato delle risorse finanziarie e umane delle autorità nazionali competenti, con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni al comitato affinché le discuta e formuli eventuali raccomandazioni.&lt;br /&gt;
&lt;br /&gt;
7. La Commissione agevola lo scambio di esperienze tra autorità nazionali competenti.&lt;br /&gt;
&lt;br /&gt;
8. Le autorità nazionali competenti possono fornire orientamenti e consulenza sull&#039;attuazione del presente regolamento, in particolare alle PMI, comprese le start-up, tenendo conto degli orientamenti e della consulenza del comitato e della Commissione, a seconda dei casi. Ogniqualvolta le autorità nazionali competenti intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altre disposizioni di diritto dell&#039;Unione, sono consultate le autorità nazionali competenti a norma di tali disposizioni di diritto dell&#039;Unione, come opportuno.&lt;br /&gt;
&lt;br /&gt;
9. Qualora le istituzioni, gli organi e gli organismi dell&#039;Unione rientrino nell&#039;ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.153|Considerando &#039;&#039;&#039;153&#039;&#039;&#039;]] • [[C.154|Considerando &#039;&#039;&#039;154&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.69&amp;diff=1193</id>
		<title>Art.69</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.69&amp;diff=1193"/>
		<updated>2024-07-08T15:44:45Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Accesso al gruppo di esperti da parte degli Stati membri&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.69 (Accesso al gruppo di esperti da parte degli Stati membri)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Gli Stati membri possono ricorrere agli esperti scientifici del gruppo affinché sostengano le loro attività di esecuzione a norma del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Gli Stati membri possono essere tenuti a pagare tariffe per la consulenza e il sostegno forniti dagli esperti. La struttura e il livello delle tariffe, nonché l&#039;entità e la struttura delle spese ripetibili sono indicati nell&#039;atto di esecuzione di cui all&#039;[[Art.68|articolo 68, paragrafo 1]], tenendo conto degli obiettivi di adeguata attuazione del presente regolamento, efficacia in termini di costi e necessità di garantire un accesso effettivo agli esperti per tutti gli Stati membri.&lt;br /&gt;
&lt;br /&gt;
3. La Commissione facilita l&#039;accesso tempestivo agli esperti da parte degli Stati membri, ove necessario, e garantisce che la combinazione di attività di sostegno svolte dalle strutture di sostegno dell&#039;Unione per la prova dell&#039;IA a norma dell&#039;[[Art.84|articolo 84]] e dagli esperti a norma del presente articolo sia organizzata in modo efficiente e fornisca il miglior valore aggiunto possibile.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.151|Considerando &#039;&#039;&#039;151&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.68&amp;diff=1190</id>
		<title>Art.68</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.68&amp;diff=1190"/>
		<updated>2024-07-08T15:44:06Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Gruppo di esperti scientifici indipendenti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.68 (Gruppo di esperti scientifici indipendenti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione adotta, mediante un atto di esecuzione, disposizioni sull&#039;istituzione di un gruppo di esperti scientifici indipendenti (&amp;quot;gruppo di esperti scientifici&amp;quot;) inteso a sostenere le attività di esecuzione a norma del presente regolamento. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui [[Art.98|all&#039;articolo 98, paragrafo 2]].&lt;br /&gt;
&lt;br /&gt;
2. Il gruppo di esperti scientifici è composto da esperti selezionati dalla Commissione sulla base di competenze scientifiche o tecniche aggiornate nel settore dell&#039;IA necessarie per lo svolgimento dei compiti di cui al paragrafo 3 ed è in grado di dimostrare di soddisfare tutte le condizioni seguenti:&lt;br /&gt;
:a) possesso di particolari conoscenze e capacità nonché competenze scientifiche o tecniche nel settore dell&#039;IA;&lt;br /&gt;
:b) indipendenza da qualsiasi fornitore di sistemi di IA o di modelli di IA per finalità generali;&lt;br /&gt;
:c) capacità di svolgere attività in modo diligente, accurato e obiettivo. La Commissione, in consultazione con il comitato, determina il numero di esperti del gruppo in funzione delle esigenze richieste e garantisce un&#039;equa rappresentanza di genere e geografica.&lt;br /&gt;
3. Il gruppo di esperti scientifici fornisce consulenza e sostegno all&#039;ufficio per l&#039;IA, in particolare per quanto riguarda i compiti seguenti:&lt;br /&gt;
:a) sostenere l&#039;attuazione e l&#039;esecuzione del presente regolamento per quanto riguarda i modelli e i sistemi di IA per finalità generali, in particolare:&lt;br /&gt;
::i) segnalare all&#039;ufficio per l&#039;IA i possibili rischi sistemici a livello dell&#039;Unione dei modelli di IA per finalità generali, conformemente all&#039;[[Art.90|articolo 90]];&lt;br /&gt;
::ii) contribuire allo sviluppo di strumenti e metodologie per valutare le capacità dei modelli e sistemi di IA per finalità generali, anche attraverso parametri di riferimento;&lt;br /&gt;
::iii) fornire consulenza sulla classificazione dei modelli di IA per finalità generali con rischio sistemico;&lt;br /&gt;
::iv) fornire consulenza sulla classificazione di vari modelli e sistemi di IA per finalità generali;&lt;br /&gt;
::v) contribuire allo sviluppo di strumenti e modelli;&lt;br /&gt;
:b) sostenere il lavoro delle autorità di vigilanza del mercato, su richiesta di queste ultime;&lt;br /&gt;
:c) sostenere le attività transfrontaliere di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafo 11]], fatti salvi i poteri delle autorità di vigilanza del mercato;&lt;br /&gt;
:d) sostenere l&#039;ufficio per l&#039;IA nello svolgimento delle sue funzioni nell&#039;ambito della procedura di salvaguardia dell’Unione di cui all&#039;[[Art.81|articolo 81]].&lt;br /&gt;
4. Gli esperti scientifici del gruppo svolgono i loro compiti con imparzialità e obiettività e garantiscono la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività. Non sollecitano né accettano istruzioni da nessuno nell&#039;esercizio dei loro compiti di cui al paragrafo 3. Ogni esperto compila una dichiarazione di interessi, che rende accessibile al pubblico. L&#039;ufficio per l&#039;IA istituisce sistemi e procedure per gestire attivamente e prevenire potenziali conflitti di interesse.&lt;br /&gt;
5. L&#039;atto di esecuzione di cui al paragrafo 1 comprende disposizioni sulle condizioni, le procedure e le modalità dettagliate in base alle quali il gruppo di esperti scientifici e i suoi membri effettuano segnalazioni e chiedono l&#039;assistenza dell&#039;ufficio per l&#039;IA per lo svolgimento dei compiti del gruppo di esperti scientifici.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.151|Considerando &#039;&#039;&#039;151&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.67&amp;diff=1187</id>
		<title>Art.67</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.67&amp;diff=1187"/>
		<updated>2024-07-08T15:43:23Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Forum consultivo&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.67 (Forum consultivo)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. È istituito un forum consultivo per fornire consulenza e competenze tecniche al comitato e alla Commissione, nonché per contribuire ai loro compiti a norma del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. La composizione del forum consultivo rappresenta una selezione equilibrata di portatori di interessi, tra cui l&#039;industria, le start-up, le PMI, la società civile e il mondo accademico. La composizione del forum consultivo è equilibrata per quanto riguarda gli interessi commerciali e non commerciali e, all&#039;interno della categoria degli interessi commerciali, per quanto riguarda le PMI e le altre imprese.&lt;br /&gt;
&lt;br /&gt;
3. La Commissione nomina i membri del forum consultivo, conformemente ai criteri stabiliti al paragrafo 2, tra i portatori di interessi con competenze riconosciute nel settore dell&#039;IA. &lt;br /&gt;
&lt;br /&gt;
4. Il mandato dei membri del forum consultivo ha una durata di due anni, prorogabile fino a un massimo di quattro anni. &lt;br /&gt;
&lt;br /&gt;
5. L&#039;Agenzia per i diritti fondamentali, l&#039;ENISA, il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l&#039;Istituto europeo per le norme di telecomunicazione (ETSI) sono membri permanenti del forum consultivo.&lt;br /&gt;
&lt;br /&gt;
6. Il comitato consultivo redige il proprio regolamento interno. Esso elegge due copresidenti tra i suoi membri, conformemente ai criteri stabiliti al paragrafo 2. Il mandato dei copresidenti ha una durata di due anni, rinnovabile una volta. &lt;br /&gt;
&lt;br /&gt;
7. Il forum consultivo tiene riunioni almeno due volte all&#039;anno. Il forum consultivo può invitare esperti e altri portatori di interessi alle sue riunioni. &lt;br /&gt;
&lt;br /&gt;
8. Il forum consultivo può elaborare pareri, raccomandazioni e contributi scritti su richiesta del comitato o della Commissione.&lt;br /&gt;
&lt;br /&gt;
9. Il forum consultivo può istituire sottogruppi permanenti o temporanei, se necessario, per esaminare questioni specifiche connesse agli obiettivi del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
10. Il forum consultivo prepara una relazione annuale sulle sue attività. Tale relazione è resa pubblica.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.150|Considerando &#039;&#039;&#039;150&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.66&amp;diff=1184</id>
		<title>Art.66</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.66&amp;diff=1184"/>
		<updated>2024-07-08T15:42:38Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Compiti del comitato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.66 (Compiti del comitato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
!Il comitato fornisce consulenza e assistenza alla Commissione e agli Stati membri al fine di agevolare l&#039;applicazione coerente ed efficace del presente regolamento. A tal fine il comitato può in particolare:&lt;br /&gt;
:a) contribuire al coordinamento tra le autorità nazionali competenti responsabili dell&#039;applicazione del presente regolamento e, in cooperazione con le autorità di vigilanza del mercato interessate e previo accordo di queste ultime, sostenere le attività congiunte delle autorità di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafo 11]];&lt;br /&gt;
&lt;br /&gt;
:b) raccogliere e condividere tra gli Stati membri conoscenze e migliori pratiche tecniche e normative;&lt;br /&gt;
&lt;br /&gt;
:c) fornire consulenza sull&#039;attuazione del presente regolamento, in particolare per quanto riguarda l&#039;applicazione delle norme sui modelli di IA per finalità generali;&lt;br /&gt;
&lt;br /&gt;
:d) contribuire all&#039;armonizzazione delle pratiche amministrative negli Stati membri, anche in relazione alla deroga alle procedure di valutazione della conformità di cui all&#039;[[Art.46|articolo 46]], al funzionamento degli spazi di sperimentazione normativa per l&#039;IA e alle prove in condizioni reali di cui agli articoli [[Art.57|57]], [[Art.59|59]] e [[Art.60|60]];&lt;br /&gt;
&lt;br /&gt;
:e) su richiesta della Commissione o di propria iniziativa, formulare raccomandazioni e pareri scritti su qualsiasi questione pertinente relativa all&#039;attuazione del presente regolamento e alla sua applicazione coerente ed efficace, tra l&#039;altro:&lt;br /&gt;
:i) sull&#039;elaborazione e l&#039;applicazione di codici di condotta e codici di buone pratiche a norma del presente regolamento, nonché degli orientamenti della Commissione;&lt;br /&gt;
:ii) sulla valutazione e il riesame del presente regolamento a norma dell&#039;[[Art.112|articolo 112]], anche per quanto riguarda la comunicazione di incidenti gravi di cui all&#039;[[Art.73|articolo 73]], e il funzionamento della banca dati dell’UE di cui all&#039;[[Art.71|articolo 71]], la preparazione degli atti delegati o di esecuzione e gli eventuali allineamenti del presente regolamento alla normativa di armonizzazione elencata nell&#039;[[Allegato I|allegato I]];&lt;br /&gt;
:iii) sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al capo III, sezione 2;&lt;br /&gt;
:iv) sull&#039;uso delle norme armonizzate o delle specifiche comuni di cui agli articoli [[Art.40|40]] e [[Art.41|41]];&lt;br /&gt;
:v) sulle tendenze, quali la competitività globale europea nell&#039;IA, l&#039;adozione dell&#039;IA nell&#039;Unione e lo sviluppo di competenze digitali;&lt;br /&gt;
:vi) sulle tendenze relative all&#039;evoluzione della tipologia delle catene del valore dell&#039;IA, in particolare per quanto riguarda le conseguenti implicazioni in termini di responsabilità;&lt;br /&gt;
:vii) sull&#039;eventuale necessità di modificare l&#039;[[Allegato III|allegato III]] conformemente all&#039;[[Art.7|articolo 7]] e sull&#039;eventuale necessità di una possibile revisione dell&#039;[[Art.5|articolo 5]] a norma dell&#039;[[Art.112|articolo 112]], tenendo conto delle pertinenti prove disponibili e degli ultimi sviluppi tecnologici;&lt;br /&gt;
&lt;br /&gt;
:f)sostenere la Commissione nella promozione dell&#039;alfabetizzazione in materia di IA, della sensibilizzazione del pubblico e della comprensione dei benefici, dei rischi, delle garanzie e dei diritti e degli obblighi in relazione all&#039;uso dei sistemi di IA;&lt;br /&gt;
&lt;br /&gt;
:g) facilitare lo sviluppo di criteri comuni e una comprensione condivisa tra gli operatori del mercato e le autorità competenti dei concetti pertinenti di cui al presente regolamento, anche contribuendo allo sviluppo di parametri di riferimento;&lt;br /&gt;
&lt;br /&gt;
:h)cooperare, se del caso, con altre istituzioni e altri organi e organismi dell&#039;Unione nonché con i pertinenti gruppi di esperti e reti dell&#039;Unione, in particolare nei settori della sicurezza dei prodotti, della cibersicurezza, della concorrenza, dei servizi digitali e dei media, dei servizi finanziari, della protezione dei consumatori, dei dati e dei diritti fondamentali;&lt;br /&gt;
&lt;br /&gt;
:i)contribuire all&#039;efficace cooperazione con le autorità competenti dei paesi terzi e con le organizzazioni internazionali;&lt;br /&gt;
&lt;br /&gt;
:j)assistere le autorità nazionali competenti e la Commissione nello sviluppo delle competenze organizzative e tecniche necessarie per l&#039;attuazione del presente regolamento, anche contribuendo alla valutazione delle esigenze di formazione del personale degli Stati membri coinvolto nell&#039;attuazione del presente regolamento;&lt;br /&gt;
&lt;br /&gt;
:k)assistere l&#039;ufficio per l&#039;IA nel sostenere le autorità nazionali competenti nell&#039;istituzione e nello sviluppo di spazi di sperimentazione normativa per l&#039;IA e facilitare la cooperazione e la condivisione di informazioni tra gli spazi di sperimentazione normativa per l’IA;&lt;br /&gt;
&lt;br /&gt;
:l)contribuire all&#039;elaborazione di documenti di orientamento e fornire consulenza al riguardo;&lt;br /&gt;
&lt;br /&gt;
:m)fornire consulenza alla Commissione sulle questioni internazionali in materia di IA;&lt;br /&gt;
&lt;br /&gt;
:n)fornire pareri alla Commissione sulle segnalazioni qualificate relative ai modelli di IA per finalità generali;&lt;br /&gt;
&lt;br /&gt;
:o) ricevere pareri dagli Stati membri sulle segnalazioni qualificate relative ai modelli di IA per finalità generali e sulle esperienze e pratiche nazionali in materia di monitoraggio e applicazione dei sistemi di IA, in particolare dei sistemi che integrano i modelli di IA per finalità generali.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.149|Considerando &#039;&#039;&#039;149&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.65&amp;diff=1180</id>
		<title>Art.65</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.65&amp;diff=1180"/>
		<updated>2024-07-08T15:42:05Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Istituzione e struttura del comitato europeo per l&#039;intelligenza artificiale&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.65 (Istituzione e struttura del comitato europeo per l&#039;intelligenza artificiale)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. È istituito un comitato europeo per l&#039;intelligenza artificiale (&amp;quot;comitato&amp;quot;).&lt;br /&gt;
&lt;br /&gt;
2. Il comitato è composto di un rappresentante per Stato membro. Il Garante europeo della protezione dei dati partecipa come osservatore. Anche l&#039;ufficio per l&#039;IA partecipa alle riunioni del comitato senza partecipare alle votazioni. Altre autorità, organismi o esperti nazionali e dell&#039;Unione possono essere invitati alle riunioni dal comitato caso per caso, qualora le questioni discusse siano di loro pertinenza.&lt;br /&gt;
&lt;br /&gt;
3. Ciascun rappresentante è designato dal rispettivo Stato membro per un periodo di tre anni, rinnovabile una volta.&lt;br /&gt;
&lt;br /&gt;
4. Gli Stati membri provvedono affinché i loro rappresentanti nel comitato:&lt;br /&gt;
:a) dispongano delle competenze e dei poteri pertinenti nel proprio Stato membro in modo da contribuire attivamente allo svolgimento dei compiti del comitato di cui all&#039;[[Art.66|articolo 66]];&lt;br /&gt;
:b) siano designati come punto di contatto unico nei confronti del comitato e, se del caso tenendo conto delle esigenze degli Stati membri, come punto di contatto unico per i portatori di interessi;&lt;br /&gt;
:c) abbiano il potere di agevolare la coerenza e il coordinamento tra le autorità nazionali competenti nel rispettivo Stato membro per quanto riguarda l&#039;attuazione del presente regolamento, anche attraverso la raccolta di dati e informazioni pertinenti ai fini dello svolgimento dei loro compiti in seno al comitato.&lt;br /&gt;
&lt;br /&gt;
5. I rappresentanti designati degli Stati membri adottano il regolamento interno del comitato a maggioranza di due terzi. Il regolamento interno stabilisce, in particolare, le procedure per il processo di selezione, la durata del mandato e le specifiche riguardanti i compiti del presidente, le modalità dettagliate relative al voto e l&#039;organizzazione delle attività del comitato e dei suoi sottogruppi.&lt;br /&gt;
&lt;br /&gt;
6. Il comitato istituisce due sottogruppi permanenti al fine di fornire una piattaforma di cooperazione e scambio tra le autorità di vigilanza del mercato e notificare le autorità su questioni relative rispettivamente alla vigilanza del mercato e agli organismi notificati.&lt;br /&gt;
Il sottogruppo permanente per la vigilanza del mercato dovrebbe fungere da gruppo di cooperazione amministrativa (ADCO) per il presente regolamento ai sensi dell&#039;articolo 30 del regolamento (UE) 2019/1020. &amp;lt;br/&amp;gt;&lt;br /&gt;
Il comitato può istituire altri sottogruppi permanenti o temporanei, se del caso, ai fini dell&#039;esame di questioni specifiche. Se del caso, i rappresentanti del forum consultivo di cui all&#039;[[Art.67|articolo 67]] possono essere invitati a tali sottogruppi o a riunioni specifiche di tali sottogruppi in qualità di osservatori.&lt;br /&gt;
&lt;br /&gt;
7. Il comitato è organizzato e gestito in modo che sia salvaguardata l&#039;obiettività e l&#039;imparzialità delle sue attività.&lt;br /&gt;
&lt;br /&gt;
8. Il comitato è presieduto da uno dei rappresentanti degli Stati membri. L&#039;ufficio per l&#039;IA provvede alle funzioni di segretariato per il comitato, convoca le riunioni su richiesta della presidenza e prepara l&#039;ordine del giorno in conformità dei compiti del comitato a norma del presente regolamento e del relativo regolamento interno.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.149|Considerando &#039;&#039;&#039;149&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.63&amp;diff=1178</id>
		<title>Art.63</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.63&amp;diff=1178"/>
		<updated>2024-07-08T15:40:50Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Deroghe per operatori specifici&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.63 (Deroghe per operatori specifici)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le microimprese ai sensi della raccomandazione 2003/361/CE possono conformarsi a determinati elementi del sistema di gestione della qualità di cui all&#039;[[Art.17|articolo 17]] del presente regolamento in modo semplificato, purché non abbiano imprese associate o collegate ai sensi di tale raccomandazione. A tal fine, la Commissione elabora orientamenti sugli elementi del sistema di gestione della qualità che possono essere rispettati in modo semplificato tenendo conto delle esigenze delle microimprese, senza incidere sul livello di protezione o sulla necessità di conformità ai requisiti per quanto riguarda i sistemi di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
2.Il paragrafo 1 del presente articolo non è interpretato nel senso che esenta tali operatori dal rispetto di altri requisiti e obblighi di cui al presente regolamento, compresi quelli stabiliti agli articoli [[Art.9|9]], [[Art.10|10]], [[Art.11|11]], [[Art.12|12]], [[Art.13|13]], [[Art.14|14]], [[Art.15|15]], [[Art.72|72]] e [[Art.73|73]].&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.146|Considerando &#039;&#039;&#039;146&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.62&amp;diff=1175</id>
		<title>Art.62</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.62&amp;diff=1175"/>
		<updated>2024-07-08T15:40:10Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.62 (Misure per i fornitori e i deployer, in particolare le PMI, comprese le start-up)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1.Gli Stati membri intraprendono le azioni seguenti:&lt;br /&gt;
:a)fornire alle PMI, comprese le start-up, con sede legale o una filiale nell&#039;Unione, un accesso prioritario agli spazi di sperimentazione normativa per l&#039;IA nella misura in cui soddisfano le condizioni di ammissibilità e i criteri di selezione; l&#039;accesso prioritario non impedisce ad altre PMI, comprese le start-up, diverse da quelle di cui al presente paragrafo di accedere allo spazio di sperimentazione normativa per l&#039;IA, purché soddisfino anche le condizioni di ammissibilità e i criteri di selezione;&lt;br /&gt;
:b)organizzare specifiche attività di sensibilizzazione e formazione sull&#039;applicazione del presente regolamento adattate alle esigenze delle PMI, comprese le start-up, dei deployers e, se del caso, delle autorità pubbliche locali;&lt;br /&gt;
:c) utilizzare i canali dedicati esistenti e, ove opportuno, istituirne di nuovi per la comunicazione con le PMI, comprese le start-up, i deployers, altri innovatori e, se del caso, le autorità pubbliche locali, al fine di fornire consulenza e rispondere alle domande sull&#039;attuazione del presente regolamento, anche per quanto riguarda la partecipazione agli spazi di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:d) agevolare la partecipazione delle PMI e di altri portatori di interessi pertinenti al processo di sviluppo della normazione.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Nel fissare le tariffe per la valutazione della conformità a norma dell&#039;[[Art.43|articolo 43]] si tiene conto degli interessi e delle esigenze specifici delle PMI fornitrici, comprese le start-up, riducendo tali tariffe proporzionalmente alle loro dimensioni, alle dimensioni del loro mercato e ad altri indicatori pertinenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. L&#039;ufficio per l&#039;IA intraprende le azioni seguenti:&lt;br /&gt;
:a) fornire modelli standardizzati per i settori contemplati dal presente regolamento, come specificato dal comitato nella sua richiesta;&lt;br /&gt;
:b) sviluppare e mantenere una piattaforma unica di informazione che fornisce informazioni di facile uso in relazione al presente regolamento per tutti gli operatori in tutta l&#039;Unione;&lt;br /&gt;
:c) organizzare adeguate campagne di comunicazione per sensibilizzare in merito agli obblighi derivanti dal presente regolamento;&lt;br /&gt;
:d) valutare e promuovere la convergenza delle migliori pratiche nelle procedure di appalto pubblico in relazione ai sistemi di IA.&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.143|Considerando &#039;&#039;&#039;143&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=1171</id>
		<title>Art.61</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=1171"/>
		<updated>2024-07-08T15:39:32Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.61 (Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ai fini delle prove in condizioni reali a norma dell&#039;[[Art.60|articolo 60]], il consenso informato dato liberamente dai soggetti delle prove è ottenuto prima della loro partecipazione a tali prove e dopo che sono stati debitamente informati con indicazioni concise, chiare, pertinenti e comprensibili riguardanti:&lt;br /&gt;
:a) la natura e gli obiettivi delle prove in condizioni reali e i possibili disagi che possono essere connessi alla loro partecipazione;&lt;br /&gt;
:b) le condizioni alle quali devono essere effettuate le prove in condizioni reali, compresa la durata prevista della partecipazione del soggetto o dei soggetti;&lt;br /&gt;
:c) i loro diritti e le garanzie riconosciute al soggetto in relazione alla loro partecipazione, in particolare il loro diritto di rifiutarsi di partecipare e il diritto di ritirarsi dalle prove in condizioni reali in qualsiasi momento, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione;&lt;br /&gt;
:d) le modalità per richiedere che le previsioni, raccomandazioni o decisioni del sistema di IA siano ignorate o ribaltate;&lt;br /&gt;
:e) il numero di identificazione unico a livello dell&#039;Unione delle prove in condizioni reali conformemente all&#039;[[Art.60|articolo 60, paragrafo 4, lettera c)]], e i dati di contatto del fornitore o del suo rappresentante legale da cui è possibile ottenere ulteriori informazioni.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il consenso informato è datato e documentato e una copia è consegnata ai soggetti delle prove o al loro rappresentante legale.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.141|Considerando &#039;&#039;&#039;141&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=1168</id>
		<title>Art.60</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=1168"/>
		<updated>2024-07-08T15:38:53Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA possono essere effettuate da fornitori o potenziali fornitori di sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], conformemente al presente articolo e al piano di prova in condizioni reali di cui al presente articolo, fatti salvi i divieti di cui all&#039;[[Art.5|articolo 5]]. La Commissione, per mezzo di atti di esecuzione, specifica nel dettaglio gli elementi del piano di prova in condizioni reali. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]]. Il presente paragrafo lascia impregiudicato il diritto dell&#039;Unione o nazionale concernente le prove in condizioni reali di sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori o potenziali fornitori possono effettuare prove dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] in condizioni reali in qualsiasi momento prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA, da soli o in partenariato con uno o più deployer o potenziali deployer.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le prove di sistemi di IA ad alto rischio in condizioni reali a norma del presente articolo non pregiudicano alcun esame etico che sia richiesto dal diritto dell&#039;Unione o nazionale. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: &lt;br /&gt;
:a) il fornitore o potenziale fornitore ha elaborato un piano di prova in condizioni reali e lo ha presentato all&#039;autorità di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali;&lt;br /&gt;
:b) l&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali ha approvato le prove in condizioni reali e il piano di prova in condizioni reali; se l&#039;autorità di vigilanza del mercato non ha fornito una risposta entro 30 giorni, le prove in condizioni reali e il piano di prova in condizioni reali sono da intendersi approvati; se il diritto nazionale non prevede un&#039;approvazione tacita, le prove in condizioni reali restano soggette ad autorizzazione;&lt;br /&gt;
:c) il fornitore o potenziale fornitore, ad eccezione dei fornitori o dei potenziali fornitori dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori delle attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere, e dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 2, ha registrato la prova in condizioni reali conformemente all&#039;[[Art.71|articolo 71, paragrafo 4]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni di cui all&#039;[[Allegato IX|allegato IX]]; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori dell’attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo di frontiera, ha registrato la prova in condizioni reali in una sezione sicura non pubblica della banca dati UE ai sensi dell&#039;[[Art.49|articolo 49, paragrafo 4, lettera d)]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni ivi specificate; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 2]], ha registrato la prova in condizioni reali conformemente all&#039;[[Art.49|articolo 49, paragrafo 5]];&lt;br /&gt;
:d) il fornitore o potenziale fornitore che effettua le prove in condizioni reali è stabilito nell&#039;Unione o ha nominato un rappresentante legale che è stabilito nell&#039;Unione;&lt;br /&gt;
:e) i dati raccolti e trattati ai fini delle prove in condizioni reali sono trasferiti a paesi terzi solo a condizione che siano poste in essere tutele adeguate e applicabili ai sensi del diritto dell&#039;Unione;&lt;br /&gt;
:f) le prove in condizioni reali non durano più di quanto necessario per conseguire i rispettivi obiettivi e, in ogni caso, non più di sei mesi, che possono essere prorogati per un ulteriore periodo di sei mesi, previa notifica da parte del fornitore o del potenziale fornitore all’autorità di vigilanza del mercato, corredata della motivazione relativa alla necessità di tale proroga;&lt;br /&gt;
:g) i soggetti delle prove in condizioni reali che sono persone appartenenti a gruppi vulnerabili a causa della loro età o disabilità sono adeguatamente protetti;&lt;br /&gt;
:h) qualora un fornitore o potenziale fornitore organizzi le prove in condizioni reali in cooperazione con uno o più deployer o potenziali deployer, questi ultimi sono stati informati di tutti gli aspetti delle prove pertinenti per la loro decisione di partecipare e hanno ricevuto le istruzioni pertinenti per l&#039;uso del sistema di IA di cui all&#039;[[Art.13|articolo 13]]; il fornitore o potenziale fornitore e il deployer o potenziale deployer concludono un accordo che ne specifica i ruoli e le responsabilità al fine di garantire la conformità alle disposizioni relative alle prove in condizioni reali ai sensi del presente regolamento e di altre disposizioni applicabili di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:i) i soggetti delle prove in condizioni reali hanno dato il proprio consenso informato a norma dell&#039;[[Art.61|articolo 61]] o, nel caso delle attività di contrasto, qualora la richiesta di consenso informato impedisca di sottoporre a prova il sistema di IA, le prove stesse e i risultati delle prove in condizioni reali non hanno alcun effetto negativo sui soggetti e i loro dati personali sono cancellati dopo lo svolgimento della prova;&lt;br /&gt;
:j) le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell&#039;autorità necessarie per svolgere i loro compiti;&lt;br /&gt;
:k) le previsioni, le raccomandazioni o le decisioni del sistema di IA possono essere efficacemente ribaltate e ignorate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Qualsiasi soggetto delle prove in condizioni reali, o il suo rappresentante legale designato, a seconda dei casi, può, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e può chiedere la cancellazione immediata e permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. A norma dell&#039;[[Art.75|articolo 75]], gli Stati membri conferiscono alle loro autorità di vigilanza del mercato il potere di imporre ai fornitori e ai potenziali fornitori di fornire informazioni, di effettuare ispezioni a distanza o in loco senza preavviso e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di IA ad alto rischio. Le autorità di vigilanza del mercato si avvalgono di tali poteri per garantire lo sviluppo in sicurezza delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Qualsiasi incidente grave individuato nel corso delle prove in condizioni reali è segnalato all&#039;autorità nazionale di vigilanza del mercato conformemente all&#039;[[Art.73|articolo 73]]. Il fornitore o potenziale fornitore adotta misure di attenuazione immediate o, in mancanza di ciò, sospende le prove in condizioni reali fino a quando tale attenuazione non abbia luogo oppure vi pone fine. Il fornitore o potenziale fornitore stabilisce una procedura per il tempestivo ritiro del sistema di IA in seguito a tale cessazione delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. I fornitori o potenziali fornitori notificano all&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o la cessazione delle prove in condizioni reali nonché i risultati finali.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. Il fornitore o potenziale fornitore è responsabile ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni causati nel corso delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.141|Considerando &#039;&#039;&#039;141&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCA</name></author>
	</entry>
</feed>