<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wikiaiact.mywikis.eu/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiCP</id>
	<title>WikiAiAct - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wikiaiact.mywikis.eu/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiCP"/>
	<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/wiki/Speciale:Contributi/InsaidewikiCP"/>
	<updated>2026-05-06T14:48:25Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.39.10</generator>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.29&amp;diff=1229</id>
		<title>Art.29</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.29&amp;diff=1229"/>
		<updated>2024-07-08T15:53:41Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Domanda di notifica presentata dagli organismi di valutazione della conformità&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.29 (Domanda di notifica presentata dagli organismi di valutazione della conformità)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Gli organismi di valutazione della conformità presentano una domanda di notifica all&#039;autorità di notifica dello Stato membro in cui sono stabiliti.&lt;br /&gt;
&lt;br /&gt;
2. La domanda di notifica è accompagnata da una descrizione delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e dei tipi di sistemi di IA per i quali tale organismo di valutazione della conformità dichiara di essere competente, nonché da un certificato di accreditamento, se disponibile, rilasciato da un organismo nazionale di accreditamento che attesti che l&#039;organismo di valutazione della conformità è conforme ai requisiti di cui all&#039;[[Art.31|articolo 31]]. Sono aggiunti documenti validi relativi alle designazioni esistenti dell&#039;organismo notificato richiedente ai sensi di qualsiasi altra normativa di armonizzazione dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
3. Qualora non possa fornire un certificato di accreditamento, l&#039;organismo di valutazione della conformità interessato fornisce all&#039;autorità di notifica tutte le prove documentali necessarie per la verifica, il riconoscimento e il monitoraggio periodico della sua conformità ai requisiti di cui all&#039;[[Art.31|articolo 31]].&lt;br /&gt;
&lt;br /&gt;
4. Per gli organismi notificati designati ai sensi di qualsiasi altra normativa di armonizzazione dell&#039;Unione, tutti i documenti e i certificati connessi a tali designazioni possono essere utilizzati a sostegno della loro procedura di designazione a norma del presente regolamento, a seconda dei casi. L&#039;organismo notificato aggiorna la documentazione di cui ai paragrafi 2 e 3 del presente articolo ogni volta che si verificano cambiamenti di rilievo, al fine di consentire all&#039;autorità responsabile degli organismi notificati di monitorare e verificare il continuo rispetto di tutte le prescrizioni di cui all&#039;[[Art.31|articolo 31]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.28&amp;diff=1227</id>
		<title>Art.28</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.28&amp;diff=1227"/>
		<updated>2024-07-08T15:53:13Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Autorità di notifica&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.28 (Autorità di notifica)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ciascuno Stato membro designa o istituisce almeno un&#039;autorità di notifica responsabile della predisposizione e dell&#039;esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Tali procedure sono sviluppate nell&#039;ambito della collaborazione tra le autorità di notifica di tutti gli Stati membri.&lt;br /&gt;
&lt;br /&gt;
2. Gli Stati membri possono decidere che la valutazione e il monitoraggio di cui al paragrafo 1 siano eseguiti da un organismo nazionale di accreditamento ai sensi e in conformità del regolamento (CE) n. 765/2008.&lt;br /&gt;
&lt;br /&gt;
3. Le autorità di notifica sono istituite, organizzate e gestite in modo tale che non sorgano conflitti di interesse con gli organismi di valutazione della conformità e che siano salvaguardate l&#039;obiettività e l&#039;imparzialità delle loro attività.&lt;br /&gt;
&lt;br /&gt;
4. Le autorità di notifica sono organizzate in modo che le decisioni relative alla notifica di un organismo di valutazione della conformità siano prese da persone competenti, diverse da quelle che hanno effettuato la valutazione.&lt;br /&gt;
&lt;br /&gt;
5. Le autorità di notifica non offrono né svolgono alcuna delle attività eseguite dagli organismi di valutazione della conformità, né servizi di consulenza su base commerciale o concorrenziale.&lt;br /&gt;
&lt;br /&gt;
6. Le autorità di notifica salvaguardano la riservatezza delle informazioni che ottengono conformemente all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
7. Le autorità di notifica dispongono di un numero adeguato di dipendenti competenti per l&#039;adeguata esecuzione dei relativi compiti. I dipendenti competenti dispongono, se del caso, delle competenze necessarie per svolgere le proprie funzioni in settori quali le tecnologie dell&#039;informazione, l&#039;IA e il diritto, compreso il controllo dei diritti fondamentali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.27&amp;diff=1225</id>
		<title>Art.27</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.27&amp;diff=1225"/>
		<updated>2024-07-08T15:52:48Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Valutazione d&#039;impatto sui diritti fondamentali per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.27 (Valutazione d&#039;impatto sui diritti fondamentali per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di utilizzare un sistema di IA ad alto rischio di cui all&#039;[[Art.6|articolo 6, paragrafo 2]], ad eccezione dei sistemi di IA ad alto rischio destinati a essere usati nel settore elencati nell&#039;[[Allegato III|allegato III]], punto 2, i deployer che sono organismi di diritto pubblico o sono enti privati che forniscono servizi pubblici e i deployer di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 5, lettere b) e c)]], effettuano una valutazione dell&#039;impatto sui diritti fondamentali che l&#039;uso di tale sistema può produrre. A tal fine, i deployer effettuano una valutazione che comprende gli elementi seguenti:&lt;br /&gt;
:a) una descrizione dei processi del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista;&lt;br /&gt;
:b) una descrizione del periodo di tempo entro il quale ciascun sistema di IA ad alto rischio è destinato a essere utilizzato e con che frequenza;&lt;br /&gt;
:c) le categorie di persone fisiche e gruppi verosimilmente interessati dal suo uso nel contesto specifico;&lt;br /&gt;
:d) i rischi specifici di danno che possono incidere sulle categorie di persone fisiche o sui gruppi di persone individuati a norma della lettera c), del presente paragrafo tenendo conto delle informazioni trasmesse dal fornitore a norma dell&#039;[[Art.13|articolo 13]];&lt;br /&gt;
:e) una descrizione dell&#039;attuazione delle misure di sorveglianza umana, secondo le istruzioni per l&#039;uso; &lt;br /&gt;
:f) le misure da adottare qualora tali rischi si concretizzino, comprese le disposizioni relative alla governance interna e ai meccanismi di reclamo. &lt;br /&gt;
&lt;br /&gt;
2. L&#039;obbligo di cui al paragrafo 1 si applica al primo uso del sistema di IA ad alto rischio. Il deployer può, in casi analoghi, basarsi su valutazioni d&#039;impatto sui diritti fondamentali effettuate in precedenza o su valutazioni d&#039;impatto esistenti effettuate da un fornitore. Se, durante l&#039;uso del sistema di IA ad alto rischio, ritiene che uno qualsiasi degli elementi elencati al paragrafo 1 sia cambiato o non sia più aggiornato, il deployer adotta le misure necessarie per aggiornare le informazioni.&lt;br /&gt;
&lt;br /&gt;
3. Una volta effettuata la valutazione di cui al paragrafo 1 del presente articolo, il deployer notifica all&#039;autorità di vigilanza del mercato i suoi risultati, presentando il modello compilato di cui al paragrafo 5 del presente articolo nell&#039;ambito della notifica. Nel caso di cui all&#039;[[Art.46|articolo 46, paragrafo 1]], i deployer possono essere esentati da tale obbligo di notifica.&lt;br /&gt;
&lt;br /&gt;
4. Se uno qualsiasi degli obblighi di cui al presente articolo è già rispettato mediante la valutazione d&#039;impatto sulla protezione dei dati effettuata a norma dell&#039;articolo 35 del regolamento (UE) 2016/679 o dell&#039;articolo 27 della direttiva (UE) 2016/680, la valutazione d&#039;impatto sui diritti fondamentali di cui al paragrafo 1 del presente articolo integra tale valutazione d&#039;impatto sulla protezione dei dati.&lt;br /&gt;
&lt;br /&gt;
5. L&#039;ufficio per l&#039;IA elabora un modello di questionario, anche attraverso uno strumento automatizzato, per agevolare i deployer nell&#039;adempimento dei loro obblighi a norma del presente articolo in modo semplificato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.58|Considerando &#039;&#039;&#039;58&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.26&amp;diff=1216</id>
		<title>Art.26</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.26&amp;diff=1216"/>
		<updated>2024-07-08T15:50:18Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei deployer dei sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.26 (Obblighi dei deployer dei sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I deployer di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l&#039;uso che accompagnano i sistemi, a norma dei paragrafi 3 e 6.&lt;br /&gt;
&lt;br /&gt;
2. I deployer affidano la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell&#039;autorità necessarie nonché del sostegno necessario.&lt;br /&gt;
&lt;br /&gt;
3. Gli obblighi di cui ai paragrafi 1 e 2 lasciano impregiudicati gli altri obblighi dei deployer previsti dal diritto dell&#039;Unione o nazionale e la libertà del deployer di organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.&lt;br /&gt;
&lt;br /&gt;
4. Fatti salvi i paragrafi 1 e 2, nella misura in cui esercita il controllo sui dati di input, il deployer garantisce che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
5. I deployer monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l&#039;uso e, se del caso, informano i fornitori a tale riguardo conformemente all&#039;[[Art.72|articolo 72]]. Qualora abbiano motivo di ritenere che l&#039;uso del sistema di IA ad alto rischio in conformità delle istruzioni possa comportare che il sistema di IA presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79]], paragrafo 1, i deployer ne informano, senza indebito ritardo, il fornitore o il distributore e la pertinente autorità di vigilanza del mercato e sospendono l&#039;uso di tale sistema. Qualora abbiano individuato un incidente grave, i deployer ne informano immediatamente anche il fornitore, in primo luogo, e successivamente l&#039;importatore o il distributore e le pertinenti autorità di vigilanza del mercato. Nel caso in cui il deployer non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l&#039;[[Art.73|articolo 73]]. Tale obbligo non riguarda i dati operativi sensibili dei deployer dei sistemi di IA che sono autorità di contrasto.&lt;br /&gt;
Per i deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, l&#039;obbligo di monitoraggio di cui al primo comma si considera soddisfatto se sono soddisfatte le regole sui dispositivi, sui processi e sui meccanismi di governance interna a norma del pertinente diritto in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
6. I deployer di sistemi di IA ad alto rischio conservano i log generati automaticamente da tale sistema di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo, per un periodo adeguato alla prevista finalità del sistema di IA ad alto rischio, di almeno sei mesi, salvo diversamente disposto dal diritto dell&#039;Unione o nazionale applicabile, in particolare dal diritto dell&#039;Unione in materia di protezione dei dati personali. I deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari conservano i log come parte della documentazione conservata a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
7. Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, i deployer che sono datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all&#039;uso del sistema di IA ad alto rischio. Tali informazioni sono fornite, se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalle prassi dell&#039;Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti.&lt;br /&gt;
8. I deployer di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi dell&#039;Unione rispettano gli obblighi di registrazione di cui all&#039;[[Art.49|articolo 49]]. Ove accertino che il sistema di IA ad alto rischio che intendono utilizzare non è stato registrato nella banca dati dell&#039;UE di cui all&#039;[[Art.71|articolo 71]], tali deployer non utilizzano tale sistema e ne informano il fornitore o il distributore.&lt;br /&gt;
&lt;br /&gt;
9. Se del caso, i deployer di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell&#039;[[Art.13|articolo 13]] del presente regolamento per adempiere al loro obbligo di effettuare una valutazione d&#039;impatto sulla protezione dei dati a norma dell&#039;articolo 35 del regolamento (UE) 2016/679 o dell&#039;articolo 27 della direttiva (UE) 2016/680.&lt;br /&gt;
&lt;br /&gt;
10. Fatta salva la direttiva (UE) 2016/680, nel quadro di un&#039;indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio per l&#039;identificazione biometrica remota a posteriori chiede un&#039;autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un&#039;autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l&#039;uso di tale sistema, tranne quando è utilizzato per l&#039;identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato.&lt;br /&gt;
Se l&#039;autorizzazione richiesta a norma del primo comma è respinta, l&#039;uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all&#039;uso del sistema di IA ad alto rischio per il quale è stata richiesta l&#039;autorizzazione sono cancellati.&lt;br /&gt;
&lt;br /&gt;
In nessun caso tale sistema di IA ad alto rischio per l&#039;identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell&#039;output di tali sistemi di identificazione biometrica remota a posteriori.&lt;br /&gt;
Il presente paragrafo lascia impregiudicati l&#039;articolo 9 del regolamento (UE) 2016/679 e l&#039;articolo 10 della direttiva (UE) 2016/680 riguardo al trattamento dei dati biometrici.&lt;br /&gt;
Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell&#039;autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Il presente comma lascia impregiudicati i poteri conferiti alle autorità di controllo dalla direttiva (UE) 2016/680.&lt;br /&gt;
&lt;br /&gt;
I deployer presentano alle pertinenti autorità di vigilanza del mercato e alle autorità nazionali per la protezione dei dati relazioni annuali sul loro uso di sistemi di identificazione biometrica remota a posteriori, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Le relazioni possono essere aggregate per coprire più di un utilizzo.&lt;br /&gt;
Gli Stati membri possono introdurre, in conformità del diritto dell&#039;Unione, disposizioni più restrittive sull&#039;uso dei sistemi di identificazione biometrica remota a posteriori.&lt;br /&gt;
&lt;br /&gt;
11. Fatto salvo l&#039;[[Art.50|articolo 50]], del presente regolamento i deployer dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] che adottano decisioni o assistono nell&#039;adozione di decisioni che riguardano persone fisiche informano queste ultime che sono soggette all&#039;uso del sistema di IA ad alto rischio. &lt;br /&gt;
Per i sistemi di IA ad alto rischio utilizzati a fini di contrasto si applica l&#039;articolo 13 della direttiva (UE) 2016/680. &lt;br /&gt;
&lt;br /&gt;
12. I deployer cooperano con le pertinenti autorità competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema di IA ad alto rischio ai fini dell&#039;attuazione del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.58|Considerando &#039;&#039;&#039;58&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.25&amp;diff=1183</id>
		<title>Art.25</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.25&amp;diff=1183"/>
		<updated>2024-07-08T15:42:26Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Responsabilità lungo la catena del valore dell&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.25 (Responsabilità lungo la catena del valore dell&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Qualsiasi distributore, importatore, deployer o altro terzo è considerato fornitore di un sistema di IA ad alto rischio ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell&#039;[[Art.16|articolo 16]], nelle circostanze seguenti:&lt;br /&gt;
:a) se appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio, fatti salvi accordi contrattuali che prevedano una diversa ripartizione degli obblighi al riguardo;&lt;br /&gt;
:b) se apporta una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o già messo in servizio in modo tale che resti un sistema di IA ad alto rischio a norma dell&#039;[[Art.6|articolo 6]];&lt;br /&gt;
:c) se modifica la finalità prevista di un sistema di IA, anche un sistema per finalità generali, che non è stato classificato come ad alto rischio e che è già stato immesso sul mercato o messo in servizio in modo tale che il sistema di IA interessato diventi un sistema di IA ad alto rischio a norma dell&#039;[[Art.6|articolo 6]].&lt;br /&gt;
&lt;br /&gt;
2. Qualora si verifichino le circostanze di cui al paragrafo 1, il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non è più considerato fornitore di quel determinato sistema di IA ai fini del presente regolamento. Tale fornitore iniziale coopera strettamente con i nuovi fornitori e mette a disposizione le informazioni necessarie nonché fornisce l&#039;accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l&#039;adempimento degli obblighi di cui al presente regolamento, in particolare per quanto riguarda la conformità alla valutazione della conformità dei sistemi di IA ad alto rischio. Il presente paragrafo non si applica nei casi in cui il fornitore iniziale abbia chiaramente specificato che il suo sistema di IA non deve essere trasformato in un sistema di IA ad alto rischio e pertanto non sia soggetto all&#039;obbligo di consegnare la documentazione.&lt;br /&gt;
&lt;br /&gt;
3. Nel caso dei sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]], il fabbricante del prodotto è considerato il fornitore del sistema di IA ad alto rischio ed è soggetto agli obblighi di cui all&#039;[[Art.16|articolo 16]], in una delle circostanze seguenti:&lt;br /&gt;
:a) se il sistema di IA ad alto rischio è immesso sul mercato insieme al prodotto con il nome o il marchio del fabbricante del prodotto;&lt;br /&gt;
:b) se il sistema di IA ad alto rischio è messo in servizio con il nome o il marchio del fabbricante del prodotto dopo che il prodotto è stato immesso sul mercato.&lt;br /&gt;
&lt;br /&gt;
4. Il fornitore di un sistema di IA ad alto rischio e il terzo che fornisce un sistema di IA, strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio precisano, mediante accordo scritto, le informazioni, le capacità, l&#039;accesso tecnico e qualsiasi altra forma di assistenza necessari, sulla base dello stato dell&#039;arte generalmente riconosciuto per permettere al fornitore del sistema di IA ad alto rischio di adempiere pienamente agli obblighi di cui al presente regolamento. Il presente paragrafo non si applica ai terzi che rendono accessibili al pubblico strumenti, servizi, processi o componenti, diversi dai modelli di IA per finalità generali, con licenza libera e open source.&lt;br /&gt;
L&#039;ufficio per l&#039;IA può elaborare e raccomandare clausole contrattuali tipo volontarie tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio. Nell&#039;elaborare tali clausole contrattuali tipo volontarie, l&#039;ufficio per l&#039;IA tiene conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali. Le clausole contrattuali tipo volontarie sono pubblicati e disponibili gratuitamente in un formato elettronico facilmente utilizzabile.&lt;br /&gt;
&lt;br /&gt;
5. I paragrafi 2 e 3 lasciano impregiudicata la necessità di rispettare e proteggere i diritti di proprietà intellettuale, le informazioni commerciali riservate e i segreti commerciali conformemente al diritto dell&#039;Unione e nazionale.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.56|Considerando &#039;&#039;&#039;56&#039;&#039;&#039;]] •||[[C.57|Considerando &#039;&#039;&#039;57&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.24&amp;diff=1177</id>
		<title>Art.24</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.24&amp;diff=1177"/>
		<updated>2024-07-08T15:40:23Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei distributori&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.24 (Obblighi dei distributori)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che esso rechi la necessaria marcatura CE, che sia accompagnato da una copia della dichiarazione di conformità UE di cui all’[[Art.47|articolo 47]] e dalle istruzioni per l&#039;uso e che il fornitore e l&#039;importatore di tale sistema, a seconda dei casi, abbiano rispettato i loro rispettivi obblighi di cui all&#039;[[Art.16|articolo 16, lettere b) e c)]], e all&#039;[[Art.23|articolo 23, paragrafo 3]].&lt;br /&gt;
&lt;br /&gt;
2. Qualora ritenga o abbia motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui alla sezione 2, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], il distributore ne informa il fornitore o l&#039;importatore del sistema, a seconda dei casi.&lt;br /&gt;
&lt;br /&gt;
3. I distributori garantiscono che, fintantoché un sistema di IA ad alto rischio è sotto la loro responsabilità, le condizioni di stoccaggio o di trasporto, ove applicabili, non pregiudichino la conformità del sistema ai requisiti di cui alla sezione 2.&lt;br /&gt;
&lt;br /&gt;
4. Un distributore che ritiene o ha motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui alla sezione 2, adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l&#039;importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], il distributore ne informa immediatamente il fornitore o l&#039;importatore del sistema e le autorità competenti per il sistema di IA ad alto rischio interessate fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.&lt;br /&gt;
&lt;br /&gt;
5. Su richiesta motivata di una pertinente autorità competente, i distributori di un sistema di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione concernenti le sue azioni a norma dei paragrafi da 1 a 4 necessarie per dimostrare la conformità di tale sistema ai requisiti di cui alla sezione 2.&lt;br /&gt;
&lt;br /&gt;
6. I distributori cooperano con le pertinenti autorità competenti in qualsiasi azione intrapresa da tali autorità in relazione a un sistema di IA ad alto rischio messo a disposizione sul mercato dai distributori, in particolare per ridurre e attenuare il rischio che esso comporta.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.56|Considerando &#039;&#039;&#039;56&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.23&amp;diff=1172</id>
		<title>Art.23</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.23&amp;diff=1172"/>
		<updated>2024-07-08T15:39:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi degli importatori&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.23 (Obblighi degli importatori)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori garantiscono che il sistema sia conforme al presente regolamento verificando che:&lt;br /&gt;
:a) il fornitore di tale sistema di IA ad alto rischio abbia eseguito la pertinente procedura di valutazione della conformità di cui all&#039;[[Art.43|articolo 43]];&lt;br /&gt;
:b) il fornitore abbia redatto la documentazione tecnica conformemente all&#039;[[Art.11|articolo 11]] e all&#039;[[Allegato IV|allegato IV]];&lt;br /&gt;
:c) il sistema rechi la necessaria marcatura CE e sia accompagnato dalla dichiarazione di conformità UE di cui all’[[Art.47|articolo 47]] e dalle istruzioni per l&#039;uso;&lt;br /&gt;
:d) il fornitore abbia nominato un rappresentante autorizzato conformemente all&#039;[[Art.22|articolo 22, paragrafo 1]].&lt;br /&gt;
&lt;br /&gt;
2. Qualora abbia motivo sufficiente di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, ovvero sia falsificato o sia accompagnato da una documentazione falsificata, un importatore non lo immette sul mercato fino a quando non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], l&#039;importatore ne informa il fornitore del sistema, i rappresentanti autorizzati e le autorità di vigilanza del mercato.&lt;br /&gt;
&lt;br /&gt;
3. Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l&#039;indirizzo al quale possono essere contattati, sul sistema di IA ad alto rischio e sul suo imballaggio o in un documento di accompagnamento, ove applicabile.&lt;br /&gt;
&lt;br /&gt;
4. Gli importatori garantiscono che, fintantoché un sistema di IA ad alto rischio è sotto la loro responsabilità, le condizioni di stoccaggio o di trasporto, ove applicabili, non pregiudichino la conformità ai requisiti di cui alla sezione 2.&lt;br /&gt;
&lt;br /&gt;
5. Gli importatori conservano, per un periodo di 10 anni dalla data di immissione sul mercato o di messa in servizio del sistema di IA ad alto rischio, una copia del certificato rilasciato dall&#039;organismo notificato, se del caso, delle istruzioni per l&#039;uso e della dichiarazione di conformità UE di cui all’[[Art.47|articolo 47]].&lt;br /&gt;
&lt;br /&gt;
6. Gli importatori forniscono alla pertinente autorità competente, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui al paragrafo 5, necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2 in una lingua che può essere compresa facilmente da tale autorità nazionale competente. A tal fine garantiscono altresì che la documentazione tecnica possa essere messa a disposizione di tale autorità.&lt;br /&gt;
&lt;br /&gt;
7. Gli importatori cooperano con le pertinenti autorità competenti in qualsiasi azione intrapresa da tali autorità in relazione a un sistema di IA ad alto rischio immesso sul mercato dagli importatori, in particolare per ridurre e attenuare i rischi che esso comporta.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.56|Considerando &#039;&#039;&#039;56&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.22&amp;diff=1167</id>
		<title>Art.22</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.22&amp;diff=1167"/>
		<updated>2024-07-08T15:37:57Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Rappresentanti autorizzati dei fornitori dei sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.21 (Rappresentanti autorizzati dei fornitori dei sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di mettere a disposizione i sistemi di IA ad alto rischio sul mercato dell&#039;Unione, i fornitori stabiliti in paesi terzi nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
2. Il fornitore consente al suo rappresentante autorizzato di eseguire i compiti specificati nel mandato ricevuto dal fornitore.&lt;br /&gt;
&lt;br /&gt;
3. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fornitore. Fornisce una copia del mandato alle autorità di vigilanza del mercato, su richiesta, in una delle lingue ufficiali delle istituzioni dell&#039;Unione indicata dall&#039;autorità competente. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire i compiti seguenti:&lt;br /&gt;
:a) verificare che la dichiarazione di conformità UE di cui all’[[Art.47|articolo 47]] e la documentazione tecnica di cui all&#039;[[Art.11|articolo 11]] siano state redatte e che il fornitore abbia eseguito un&#039;appropriata procedura di valutazione della conformità;&lt;br /&gt;
:b) tenere a disposizione delle autorità competenti e delle autorità o degli organismi nazionali di cui all&#039;[[Art.74|articolo 74, paragrafo 10]], per un periodo di 10 anni dopo la data di immissione sul mercato o di messa in servizio del sistema di IA ad alto rischio, i dati di contatto del fornitore che ha nominato il rappresentante autorizzato, una copia della dichiarazione di conformità UE di cui all’[[Art.47|articolo 47]], la documentazione tecnica e, se del caso, il certificato rilasciato dall&#039;organismo notificato;&lt;br /&gt;
:c) fornire all&#039;autorità competente, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui alla lettera b) del presente comma, necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, compreso l&#039;accesso ai log, di cui all&#039;[[Art.12|articolo 12, paragrafo 1]], generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore;&lt;br /&gt;
:d) cooperare con le autorità competenti, su richiesta motivata, in merito a qualsiasi azione intrapresa da queste ultime in relazione al sistema di IA ad alto rischio, in particolare per ridurre e attenuare i rischi posti dal sistema di IA ad alto rischio;&lt;br /&gt;
:e) ove applicabile, rispettare gli obblighi di registrazione di cui all&#039;[[Art.49|articolo 49, paragrafo 1]], o, se la registrazione è effettuata dal fornitore stesso, garantire la correttezza delle informazioni di cui all&#039;[[Allegato VIII|allegato VIII, sezione A, punto 3]].&lt;br /&gt;
Il mandato consente al rappresentante autorizzato di fare da interlocutore, in aggiunta o in sostituzione del fornitore, con le autorità competenti per tutte le questioni relative al rispetto del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
4. Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivi per ritenere che il fornitore agisca in contrasto con i propri obblighi a norma del presente regolamento. In tal caso, comunica immediatamente alla pertinente autorità di vigilanza del mercato, nonché, se del caso, all&#039;organismo notificato pertinente, la cessazione del mandato e i relativi motivi.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.56|Considerando &#039;&#039;&#039;56&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.19&amp;diff=1146</id>
		<title>Art.19</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.19&amp;diff=1146"/>
		<updated>2024-07-08T15:24:54Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Log generati automaticamente&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.19 (Log generati automaticamente)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio conservano i log di cui all&#039;[[Art.12|articolo 12, paragrafo 1]], generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. Fatto salvo il diritto dell&#039;Unione o nazionale applicabile, i log sono conservati per un periodo adeguato alla finalità prevista del sistema di IA ad alto rischio, della durata di almeno sei mesi, salvo diversamente disposto dal diritto dell&#039;Unione o nazionale applicabile, in particolare dal diritto dell&#039;Unione in materia di protezione dei dati personali. &lt;br /&gt;
&lt;br /&gt;
2. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, a dispositivi o a processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio nell&#039;ambito della documentazione conservata a norma del pertinente diritto in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.18&amp;diff=1131</id>
		<title>Art.18</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.18&amp;diff=1131"/>
		<updated>2024-07-08T15:05:55Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Conservazione dei documenti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.18 (Conservazione dei documenti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA ad alto rischio è stato immesso sul mercato o messo in servizio, tiene a disposizione delle autorità nazionali competenti:&lt;br /&gt;
:a) la documentazione tecnica di cui all&#039;[[Art.11|articolo 11]];&lt;br /&gt;
:b) la documentazione relativa al sistema di gestione della qualità di cui all&#039;[[Art.17|articolo 17]];&lt;br /&gt;
:c) la documentazione relativa alle modifiche approvate dagli organismi notificati, ove applicabile;&lt;br /&gt;
:d) le decisioni e gli altri documenti rilasciati dagli organismi notificati, ove applicabile;&lt;br /&gt;
:e) la dichiarazione di conformità UE di cui all&#039;[[Art.47|articolo 47]].&lt;br /&gt;
&lt;br /&gt;
2. Ciascuno Stato membro stabilisce le condizioni alle quali la documentazione di cui al paragrafo 1 resta a disposizione delle autorità nazionali competenti per il periodo indicato in tale paragrafo nel caso in cui il prestatore o il rappresentante autorizzato stabilito nel suo territorio fallisca o cessi la sua attività prima della fine di tale periodo.&lt;br /&gt;
&lt;br /&gt;
3. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, conservano la documentazione tecnica nell&#039;ambito della documentazione conservata a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.17&amp;diff=1123</id>
		<title>Art.17</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.17&amp;diff=1123"/>
		<updated>2024-07-08T15:04:21Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistema di gestione della qualità&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.17 (Sistema di gestione della qualità)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio istituiscono un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno gli aspetti seguenti:&lt;br /&gt;
:a) una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;&lt;br /&gt;
:b) le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il controllo della progettazione e la verifica della progettazione del sistema di IA ad alto rischio;&lt;br /&gt;
:c) le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio;&lt;br /&gt;
:d) le procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate;&lt;br /&gt;
:e) le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti di cui alla sezione 2, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme a tali requisiti;&lt;br /&gt;
:f) i sistemi e le procedure per la gestione dei dati, compresa l&#039;acquisizione, la raccolta, l&#039;analisi, l&#039;etichettatura, l&#039;archiviazione, la filtrazione, l&#039;estrazione, l&#039;aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell&#039;immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;&lt;br /&gt;
:g) il sistema di gestione dei rischi di cui all&#039;[[Art.9|articolo 9]];&lt;br /&gt;
:h) la predisposizione, l&#039;attuazione e la manutenzione di un sistema di monitoraggio successivo all&#039;immissione sul mercato a norma dell&#039;[[Art.72|articolo 72]];&lt;br /&gt;
:i) le procedure relative alla segnalazione di un incidente grave a norma dell&#039;[[Art.73|articolo 73]];&lt;br /&gt;
:j) la gestione della comunicazione con le autorità nazionali competenti, altre autorità pertinenti, comprese quelle che forniscono o sostengono l&#039;accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;&lt;br /&gt;
:k) i sistemi e le procedure per la conservazione delle registrazioni e di tutte le informazioni e la documentazione pertinenti;&lt;br /&gt;
:l) la gestione delle risorse, comprese le misure relative alla sicurezza dell&#039;approvvigionamento;&lt;br /&gt;
:m) un quadro di responsabilità che definisca le responsabilità della dirigenza e di altro personale per quanto riguarda tutti gli aspetti elencati nel presente paragrafo.&lt;br /&gt;
&lt;br /&gt;
2. L&#039;attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell&#039;organizzazione del fornitore. I fornitori rispettano, in ogni caso, il grado di rigore e il livello di protezione necessari per garantire la conformità dei loro sistemi di IA ad alto rischio al presente regolamento.&lt;br /&gt;
&lt;br /&gt;
3. I fornitori di sistemi di IA ad alto rischio soggetti agli obblighi relativi ai sistemi di gestione della qualità o a una funzione equivalente a norma del pertinente diritto settoriale dell&#039;Unione possono includere gli aspetti elencati al paragrafo 1 nell&#039;ambito dei sistemi di gestione della qualità stabiliti a norma di tale diritto.&lt;br /&gt;
&lt;br /&gt;
4. Per i fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, l&#039;obbligo di istituire un sistema di gestione della qualità, ad eccezione del paragrafo 1, lettere g), h) e i), del presente articolo, si considera soddisfatto se sono soddisfatte le regole sui dispositivi o i processi di governance interna a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari. A tal fine, si tiene conto delle norme armonizzate di cui all&#039;[[Art.40|articolo 40]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.20&amp;diff=1100</id>
		<title>Art.20</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.20&amp;diff=1100"/>
		<updated>2024-07-08T14:58:02Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Misure correttive e dovere di informazione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.20 (Misure correttive e dovere di informazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo, disabilitarlo o richiamarlo, a seconda dei casi. Essi informano di conseguenza i distributori del sistema di IA ad alto rischio interessato e, ove applicabile, i deployer, il rappresentante autorizzato e gli importatori.&lt;br /&gt;
&lt;br /&gt;
2. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], e il fornitore ne venga a conoscenza, tale fornitore indaga immediatamente sulle cause, in collaborazione con il deployer che ha effettuato la segnalazione, se del caso, e ne informa le autorità di vigilanza del mercato competenti per il sistema di IA ad alto rischio interessato e, ove applicabile, l&#039;organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio in conformità dell&#039;[[Art.44|articolo 44]], in particolare in merito alla natura della non conformità e all&#039;eventuale misura correttiva pertinente adottata.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.21&amp;diff=1099</id>
		<title>Art.21</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.21&amp;diff=1099"/>
		<updated>2024-07-08T14:57:51Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Cooperazione con le autorità competenti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.21 (Cooperazione con le autorità competenti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio, su richiesta motivata di un&#039;autorità competente, forniscono a tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, in una lingua che può essere compresa facilmente dall&#039;autorità in una delle lingue ufficiali delle istituzioni dell&#039;Unione indicata dallo Stato membro interessato.&lt;br /&gt;
&lt;br /&gt;
2. Su richiesta motivata di un&#039;autorità competente, i fornitori concedono inoltre all&#039;autorità competente richiedente, a seconda dei casi, l&#039;accesso ai log generati automaticamente del sistema di IA ad alto rischio di cui all&#039;[[Art.12|articolo 12, paragrafo 1]], nella misura in cui tali log sono sotto il loro controllo.&lt;br /&gt;
&lt;br /&gt;
3. Qualsiasi informazione ottenuta da un&#039;autorità competente a norma del presente articolo è trattata in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.20&amp;diff=1095</id>
		<title>Art.20</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.20&amp;diff=1095"/>
		<updated>2024-07-08T14:56:50Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Misure correttive e dovere di informazione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.20 (Misure correttive e dovere di informazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo, disabilitarlo o richiamarlo, a seconda dei casi. Essi informano di conseguenza i distributori del sistema di IA ad alto rischio interessato e, ove applicabile, i deployer, il rappresentante autorizzato e gli importatori.&lt;br /&gt;
&lt;br /&gt;
2. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], e il fornitore ne venga a conoscenza, tale fornitore indaga immediatamente sulle cause, in collaborazione con il deployer che ha effettuato la segnalazione, se del caso, e ne informa le autorità di vigilanza del mercato competenti per il sistema di IA ad alto rischio interessato e, ove applicabile, l&#039;organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio in conformità dell&#039;[[Art.44|articolo 44]], in particolare in merito alla natura della non conformità e all&#039;eventuale misura correttiva pertinente adottata.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.19&amp;diff=1092</id>
		<title>Art.19</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.19&amp;diff=1092"/>
		<updated>2024-07-08T14:56:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Log generati automaticamente&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.19 (Log generati automaticamente)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio conservano i log di cui all&#039;[[Art.12|articolo 12, paragrafo 1]], generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. Fatto salvo il diritto dell&#039;Unione o nazionale applicabile, i log sono conservati per un periodo adeguato alla finalità prevista del sistema di IA ad alto rischio, della durata di almeno sei mesi, salvo diversamente disposto dal diritto dell&#039;Unione o nazionale applicabile, in particolare dal diritto dell&#039;Unione in materia di protezione dei dati personali. &lt;br /&gt;
&lt;br /&gt;
2. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, a dispositivi o a processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio nell&#039;ambito della documentazione conservata a norma del pertinente diritto in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.18&amp;diff=1090</id>
		<title>Art.18</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.18&amp;diff=1090"/>
		<updated>2024-07-08T14:55:53Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Conservazione dei documenti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.18 (Conservazione dei documenti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA ad alto rischio è stato immesso sul mercato o messo in servizio, tiene a disposizione delle autorità nazionali competenti:&lt;br /&gt;
:a) la documentazione tecnica di cui all&#039;[[Art.11|articolo 11]];&lt;br /&gt;
:b) la documentazione relativa al sistema di gestione della qualità di cui all&#039;[[Art.17|articolo 17]];&lt;br /&gt;
:c) la documentazione relativa alle modifiche approvate dagli organismi notificati, ove applicabile;&lt;br /&gt;
:d) le decisioni e gli altri documenti rilasciati dagli organismi notificati, ove applicabile;&lt;br /&gt;
:e) la dichiarazione di conformità UE di cui all&#039;[[Art.47|articolo 47]].&lt;br /&gt;
&lt;br /&gt;
2. Ciascuno Stato membro stabilisce le condizioni alle quali la documentazione di cui al paragrafo 1 resta a disposizione delle autorità nazionali competenti per il periodo indicato in tale paragrafo nel caso in cui il prestatore o il rappresentante autorizzato stabilito nel suo territorio fallisca o cessi la sua attività prima della fine di tale periodo.&lt;br /&gt;
&lt;br /&gt;
3. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, conservano la documentazione tecnica nell&#039;ambito della documentazione conservata a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.17&amp;diff=1089</id>
		<title>Art.17</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.17&amp;diff=1089"/>
		<updated>2024-07-08T14:55:21Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistema di gestione della qualità&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.17 (Sistema di gestione della qualità)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di sistemi di IA ad alto rischio istituiscono un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno gli aspetti seguenti:&lt;br /&gt;
:a) una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;&lt;br /&gt;
:b) le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il controllo della progettazione e la verifica della progettazione del sistema di IA ad alto rischio;&lt;br /&gt;
:c) le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio;&lt;br /&gt;
:d) le procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate;&lt;br /&gt;
:e) le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti di cui alla sezione 2, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme a tali requisiti;&lt;br /&gt;
:f) i sistemi e le procedure per la gestione dei dati, compresa l&#039;acquisizione, la raccolta, l&#039;analisi, l&#039;etichettatura, l&#039;archiviazione, la filtrazione, l&#039;estrazione, l&#039;aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell&#039;immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;&lt;br /&gt;
:g) il sistema di gestione dei rischi di cui all&#039;[[Art.9|articolo 9]];&lt;br /&gt;
:h) la predisposizione, l&#039;attuazione e la manutenzione di un sistema di monitoraggio successivo all&#039;immissione sul mercato a norma dell&#039;[[Art.72|articolo 72]];&lt;br /&gt;
:i) le procedure relative alla segnalazione di un incidente grave a norma dell&#039;[[Art.73|articolo 73]];&lt;br /&gt;
:j) la gestione della comunicazione con le autorità nazionali competenti, altre autorità pertinenti, comprese quelle che forniscono o sostengono l&#039;accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;&lt;br /&gt;
:k) i sistemi e le procedure per la conservazione delle registrazioni e di tutte le informazioni e la documentazione pertinenti;&lt;br /&gt;
:l) la gestione delle risorse, comprese le misure relative alla sicurezza dell&#039;approvvigionamento;&lt;br /&gt;
:m) un quadro di responsabilità che definisca le responsabilità della dirigenza e di altro personale per quanto riguarda tutti gli aspetti elencati nel presente paragrafo.&lt;br /&gt;
&lt;br /&gt;
2. L&#039;attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell&#039;organizzazione del fornitore. I fornitori rispettano, in ogni caso, il grado di rigore e il livello di protezione necessari per garantire la conformità dei loro sistemi di IA ad alto rischio al presente regolamento.&lt;br /&gt;
&lt;br /&gt;
3. I fornitori di sistemi di IA ad alto rischio soggetti agli obblighi relativi ai sistemi di gestione della qualità o a una funzione equivalente a norma del pertinente diritto settoriale dell&#039;Unione possono includere gli aspetti elencati al paragrafo 1 nell&#039;ambito dei sistemi di gestione della qualità stabiliti a norma di tale diritto.&lt;br /&gt;
&lt;br /&gt;
4. Per i fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, l&#039;obbligo di istituire un sistema di gestione della qualità, ad eccezione del paragrafo 1, lettere g), h) e i), del presente articolo, si considera soddisfatto se sono soddisfatte le regole sui dispositivi o i processi di governance interna a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari. A tal fine, si tiene conto delle norme armonizzate di cui all&#039;[[Art.40|articolo 40]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.16&amp;diff=1085</id>
		<title>Art.16</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.16&amp;diff=1085"/>
		<updated>2024-07-08T14:54:30Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori dei sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.16 (Obblighi dei fornitori dei sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
I fornitori dei sistemi di IA ad alto rischio: &lt;br /&gt;
:a) garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui alla sezione 2;&lt;br /&gt;
:b) indicano sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento, a seconda dei casi, il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l&#039;indirizzo al quale possono essere contattati;&lt;br /&gt;
:c) dispongono di un sistema di gestione della qualità conforme all&#039;[[Art.17|articolo 17]];&lt;br /&gt;
:d) conservano la documentazione di cui all&#039;[[Art.18|articolo 18]];&lt;br /&gt;
:e) quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio di cui all&#039;[[Art.19|articolo 19]];&lt;br /&gt;
:f) garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all&#039;[[Art.43|articolo 43]] prima che sia immesso sul mercato o messo in servizio;&lt;br /&gt;
:g) elaborano una dichiarazione di conformità UE a norma dell&#039;[[Art.47|articolo 47]];&lt;br /&gt;
:h) appongono la marcatura CE sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento per indicare la conformità al presente regolamento a norma dell&#039;[[Art.48|articolo 48]]; &lt;br /&gt;
:i) rispettano gli obblighi di registrazione di cui all&#039;[[Art.49|articolo 49, paragrafo 1]]; &lt;br /&gt;
:j) adottano le necessarie misure correttive e forniscono le informazioni necessarie in conformità dell&#039;[[Art.20|articolo 20]]; &lt;br /&gt;
:k) su richiesta motivata di un&#039;autorità nazionale competente, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui alla sezione 2; &lt;br /&gt;
:l) garantiscono che il sistema di IA ad alto rischio sia conforme ai requisiti di accessibilità in conformità delle direttive (UE) 2016/2102 e (UE) 2019/882.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.53|Considerando &#039;&#039;&#039;53&#039;&#039;&#039;]] •||[[C.54|Considerando &#039;&#039;&#039;54&#039;&#039;&#039;]] •||[[C.74|Considerando &#039;&#039;&#039;74&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.15&amp;diff=1080</id>
		<title>Art.15</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.15&amp;diff=1080"/>
		<updated>2024-07-08T14:53:12Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Accuratezza, robustezza e cibersicurezza&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.15 (Accuratezza, robustezza e cibersicurezza)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da conseguire un adeguato livello di accuratezza, robustezza e cibersicurezza e da operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.&lt;br /&gt;
&lt;br /&gt;
2. Al fine di affrontare gli aspetti tecnici relativi alle modalità di misurazione degli adeguati livelli di accuratezza e robustezza di cui al paragrafo 1 e altre metriche di prestazione pertinenti, la Commissione, in cooperazione con i portatori di interessi e le organizzazioni pertinenti, quali le autorità di metrologia e di analisi comparativa, incoraggia, se del caso, lo sviluppo di parametri di riferimento e metodologie di misurazione.&lt;br /&gt;
&lt;br /&gt;
3. I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l&#039;uso che accompagnano il sistema.&lt;br /&gt;
&lt;br /&gt;
4. I sistemi di IA ad alto rischio sono il più resilienti possibile per quanto riguarda errori, guasti o incongruenze che possono verificarsi all&#039;interno del sistema o nell&#039;ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi. A tale riguardo sono adottate misure tecniche e organizzative. &lt;br /&gt;
&lt;br /&gt;
La robustezza dei sistemi di IA ad alto rischio può essere conseguita mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.&lt;br /&gt;
&lt;br /&gt;
I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da eliminare o ridurre il più possibile il rischio di output potenzialmente distorti che influenzano gli input per operazioni future (feedback loops - &amp;quot;circuiti di feedback&amp;quot;) e garantire che tali circuiti di feedback siano oggetto di adeguate misure di attenuazione.&lt;br /&gt;
&lt;br /&gt;
5. I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l&#039;uso, gli output o le prestazioni sfruttando le vulnerabilità del sistema.&lt;br /&gt;
&lt;br /&gt;
Le soluzioni tecniche volte a garantire la cibersicurezza dei sistemi di IA ad alto rischio sono adeguate alle circostanze e ai rischi pertinenti.&lt;br /&gt;
&lt;br /&gt;
Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell&#039;IA includono, ove opportuno, misure volte a prevenire, accertare, rispondere, risolvere e controllare gli attacchi che cercano di manipolare il set di dati di addestramento (data poisoning - &amp;quot;avvelenamento dei dati&amp;quot;) o i componenti preaddestrati utilizzati nell&#039;addestramento (model poisoning - &amp;quot;avvelenamento dei modelli&amp;quot;), gli input progettati in modo da far sì che il modello di IA commetta un errore (adversarial examples - &amp;quot;esempi antagonistici&amp;quot;, o model evasion, - &amp;quot;evasione dal modello&amp;quot;), gli attacchi alla riservatezza o i difetti del modello.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.49|Considerando &#039;&#039;&#039;49&#039;&#039;&#039;]] •||[[C.50|Considerando &#039;&#039;&#039;50&#039;&#039;&#039;]] •||[[C.51|Considerando &#039;&#039;&#039;51&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.14&amp;diff=1078</id>
		<title>Art.14</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.14&amp;diff=1078"/>
		<updated>2024-07-08T14:51:27Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sorveglianza umana&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.14 (Sorveglianza umana)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.&lt;br /&gt;
&lt;br /&gt;
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare qualora tali rischi persistano nonostante l&#039;applicazione di altri requisiti di cui alla presente sezione.&lt;br /&gt;
&lt;br /&gt;
3. Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite mediante almeno uno dei tipi di misure seguenti:&lt;br /&gt;
:a) misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile;&lt;br /&gt;
:b) misure individuate dal fornitore prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dal deployer.&lt;br /&gt;
&lt;br /&gt;
4. Ai fini dell&#039;attuazione dei paragrafi 1, 2 e 3, il sistema di IA ad alto rischio è fornito al deployer in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità, ove opportuno e proporzionato, di:&lt;br /&gt;
:a) comprendere correttamente le capacità e i limiti pertinenti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese;&lt;br /&gt;
:b) restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull&#039;output prodotto da un sistema di IA ad alto rischio (&amp;quot;distorsione dell&#039;automazione&amp;quot;), in particolare in relazione ai sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;&lt;br /&gt;
:c) interpretare correttamente l&#039;output del sistema di IA ad alto rischio, tenendo conto ad esempio degli strumenti e dei metodi di interpretazione disponibili;&lt;br /&gt;
:d) decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l&#039;output del sistema di IA ad alto rischio;&lt;br /&gt;
:e) intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di &amp;quot;arresto&amp;quot; o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza.&lt;br /&gt;
&lt;br /&gt;
5. In aggiunta, per i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 1, lettera a)]], le misure di cui al paragrafo 3 del presente articolo sono tali da garantire che il deployer non compia azioni o adotti decisioni sulla base dell&#039;identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità. Il requisito di una verifica separata da parte di almeno due persone fisiche non si applica ai sistemi di IA ad alto rischio utilizzati a fini di contrasto, migrazione, controllo delle frontiere o asilo, qualora il diritto dell&#039;Unione o nazionale ritenga sproporzionata l&#039;applicazione di tale requisito.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.48|Considerando &#039;&#039;&#039;48&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.13&amp;diff=1075</id>
		<title>Art.13</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.13&amp;diff=1075"/>
		<updated>2024-07-08T14:49:58Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Trasparenza e fornitura di informazioni ai deployer&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.13 (Trasparenza e fornitura di informazioni ai deployer)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l&#039;output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi del fornitore e del deployer di cui alla sezione 3.&lt;br /&gt;
&lt;br /&gt;
2. I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l&#039;uso, in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer.&lt;br /&gt;
&lt;br /&gt;
3. Le istruzioni per l&#039;uso contengono almeno le informazioni seguenti:&lt;br /&gt;
:a) l&#039;identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;&lt;br /&gt;
:b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:&lt;br /&gt;
::i) la finalità prevista;&lt;br /&gt;
::ii) il livello di accuratezza che ci si può attendere, comprese le metriche, di robustezza e cibersicurezza di cui all&#039;[[Art.15|articolo 15]] rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;&lt;br /&gt;
::iii) qualsiasi circostanza nota o prevedibile connessa all&#039;uso del sistema di IA ad alto rischio in conformità della sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali di cui all&#039;[[Art.9|articolo 9, paragrafo 2]];&lt;br /&gt;
::iv) se del caso, le capacità e caratteristiche tecniche del sistema di IA ad alto rischio connesse alla fornitura di informazioni pertinenti per spiegarne l&#039;output;&lt;br /&gt;
::v) ove opportuno, le sue prestazioni per quanto riguarda le persone o i gruppi di persone specifici sui quali il sistema è destinato a essere utilizzato;&lt;br /&gt;
::vi) ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA ad alto rischio;&lt;br /&gt;
::vii) se del caso, informazioni che consentano ai deployer di interpretare l&#039;output del sistema di IA ad alto rischio e di usarlo in modo opportuno;&lt;br /&gt;
:c) le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità;&lt;br /&gt;
:d) le misure di sorveglianza umana di cui all&#039;[[Art.14|articolo 14]], comprese le misure tecniche poste in essere per facilitare l&#039;interpretazione degli output dei sistemi di IA ad alto rischio da parte dei deployer;&lt;br /&gt;
:e) le risorse computazionali e di hardware necessarie, la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura, compresa la relativa frequenza, necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software;&lt;br /&gt;
:f) se del caso, una descrizione dei meccanismi inclusi nel sistema di IA ad alto rischio che consente ai deployer di raccogliere, conservare e interpretare correttamente i log in conformità dell&#039;[[Art.12|articolo 12]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.12&amp;diff=1071</id>
		<title>Art.12</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.12&amp;diff=1071"/>
		<updated>2024-07-08T14:46:47Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Conservazione delle registrazioni&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.12 (Conservazione delle registrazioni)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio consentono a livello tecnico la registrazione automatica degli eventi (&amp;quot;log&amp;quot;) per la durata del ciclo di vita del sistema.&lt;br /&gt;
&lt;br /&gt;
2. Al fine di garantire un livello di tracciabilità del funzionamento del sistema di IA ad alto rischio adeguato alla finalità prevista del sistema, le capacità di registrazione consentono la registrazione di eventi pertinenti per:&lt;br /&gt;
:a) l&#039;individuazione di situazioni che possono far sì che il sistema di IA ad alto rischio presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79, paragrafo 1]], o determinare una modifica sostanziale;&lt;br /&gt;
:b) l&#039;agevolazione del monitoraggio successivo all&#039;immissione sul mercato di cui all&#039;[[Art.72|articolo 72]]; e&lt;br /&gt;
:c) il monitoraggio del funzionamento dei sistemi di IA ad alto rischio di cui all&#039;[[Art.26|articolo 26, paragrafo 5]].&lt;br /&gt;
&lt;br /&gt;
3. Per i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 1, lettera a)]], le capacità di registrazione comprendono almeno i dati seguenti:&lt;br /&gt;
:a) la registrazione del periodo di ciascun utilizzo del sistema (data e ora di inizio e di fine di ciascun utilizzo);&lt;br /&gt;
:b) la banca dati di riferimento utilizzata dal sistema per verificare i dati di input;&lt;br /&gt;
:c) i dati di input per i quali la ricerca ha portato a una corrispondenza;&lt;br /&gt;
:d) l&#039;identificativo delle persone fisiche che partecipano alla verifica dei risultati di cui all&#039;[[Art.14|articolo 14, paragrafo 5]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.46|Considerando &#039;&#039;&#039;46&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.11&amp;diff=1070</id>
		<title>Art.11</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.11&amp;diff=1070"/>
		<updated>2024-07-08T14:45:29Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Documentazione tecnica&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.11 (Documentazione tecnica)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La documentazione tecnica di un sistema di IA ad alto rischio è redatta prima dell&#039;immissione sul mercato o della messa in servizio di tale sistema ed è tenuta aggiornata.&lt;br /&gt;
La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui alla presente sezione e da fornire alle autorità nazionali competenti e agli organismi notificati, in forma chiara e comprensibile, le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all&#039;[[Allegato IV|allegato IV]]. &lt;br /&gt;
Le PMI, comprese le start-up, possono fornire in modo semplificato gli elementi della documentazione tecnica specificati nell&#039;[[Allegato IV|allegato IV]]. A tal fine la Commissione definisce un modulo di documentazione tecnica semplificata che risponda alle esigenze delle piccole imprese e delle microimprese. Qualora una PMI, compresa una start-up, decida di fornire in modo semplificato le informazioni richieste nell&#039;[[Allegato IV|allegato IV]], utilizza il modulo di cui al presente paragrafo. Gli organismi notificati accettano il modulo ai fini della valutazione della conformità.&lt;br /&gt;
&lt;br /&gt;
2. Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto contemplato dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]], si redige un&#039;unica documentazione tecnica contenente tutte le informazioni di cui al paragrafo 1 e le informazioni necessarie a norma di tali atti giuridici.&lt;br /&gt;
&lt;br /&gt;
3. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare l&#039;[[Allegato IV|allegato IV]] ove necessario per garantire che, alla luce del progresso tecnico, la documentazione tecnica fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti di cui alla presente sezione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.46|Considerando &#039;&#039;&#039;46&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.10&amp;diff=1069</id>
		<title>Art.10</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.10&amp;diff=1069"/>
		<updated>2024-07-08T14:43:46Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Dati e governance dei dati&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.10 (Dati e governance dei dati)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l&#039;uso di dati per l&#039;addestramento di modelli di IA sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 ogniqualvolta siano utilizzati tali set di dati.&lt;br /&gt;
&lt;br /&gt;
2. I set di dati di addestramento, convalida e prova sono soggetti a pratiche di governance e gestione dei dati adeguate alla finalità prevista del sistema di IA ad alto rischio. Tali pratiche riguardano in particolare:&lt;br /&gt;
:a) le scelte progettuali pertinenti;&lt;br /&gt;
:b) i processi di raccolta dei dati e l&#039;origine dei dati, nonché la finalità originaria della raccolta nel caso di dati personali;&lt;br /&gt;
:c) le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, aggiornamento, arricchimento e aggregazione;&lt;br /&gt;
:d) la formulazione di ipotesi, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;&lt;br /&gt;
:e) una valutazione della disponibilità, della quantità e dell&#039;adeguatezza dei set di dati necessari;&lt;br /&gt;
:f) un esame atto a valutare le possibili distorsioni suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell&#039;Unione, specie laddove gli output di dati influenzano gli input per operazioni future;&lt;br /&gt;
:g) le misure adeguate per individuare, prevenire e attenuare le possibili distorsioni individuate conformemente alla lettera f);&lt;br /&gt;
:h) l&#039;individuazione di lacune o carenze pertinenti nei dati tali da pregiudicare il rispetto del presente regolamento e il modo in cui tali lacune e carenze possono essere colmate.&lt;br /&gt;
&lt;br /&gt;
3. I set di dati di addestramento, convalida e prova sono pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell&#039;ottica della finalità prevista. Essi possiedono le proprietà statistiche appropriate anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone relativamente ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o a livello di una combinazione degli stessi.&lt;br /&gt;
&lt;br /&gt;
4. I set di dati tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico ambito geografico, contestuale, comportamentale o funzionale all&#039;interno del quale il sistema di IA ad alto rischio è destinato a essere usato.&lt;br /&gt;
&lt;br /&gt;
5. Nella misura in cui ciò sia strettamente necessario al fine di garantire il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio in conformità del paragrafo 2, lettere f) e g), del presente articolo, i fornitori di tali sistemi possono eccezionalmente trattare categorie particolari di dati personali, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche. Oltre alle disposizioni di cui ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680 devono essere soddisfatte, affinché tale trattamento avvenga, tutte le condizioni seguenti:&lt;br /&gt;
:a) il rilevamento e la correzione delle distorsioni non possono essere realizzati efficacemente mediante il trattamento di altri dati, compresi i dati sintetici o anonimizzati;&lt;br /&gt;
:b) le categorie particolari di dati personali sono soggette a limitazioni tecniche relative al riutilizzo dei dati personali, nonché a misure più avanzate di sicurezza e di tutela della vita privata, compresa la pseudonimizzazione;&lt;br /&gt;
:c) le categorie particolari di dati personali sono soggette a misure tese a garantire che i dati personali trattati siano resi sicuri e protetti nonché soggetti a garanzie adeguate, ivi compresi controlli e documentazione rigorosi dell&#039;accesso, al fine di evitare abusi e garantire che solo le persone autorizzate e sottostanti a opportuni obblighi di riservatezza abbiano accesso a tali dati personali;&lt;br /&gt;
:d) le categorie particolari di dati personali non devono essere trasmesse, trasferite o altrimenti consultate da terzi;&lt;br /&gt;
:e) le categorie particolari di dati personali vengono cancellate dopo che la distorsione è stata corretta oppure i dati personali hanno raggiunto la fine del loro periodo di conservazione, a seconda di quale delle due condizioni si verifica per prima;&lt;br /&gt;
:f) i registri delle attività di trattamento a norma dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680 comprendono i motivi per cui il trattamento delle categorie particolari di dati personali era strettamente necessario per rilevare e correggere distorsioni e i motivi per cui tale obiettivo non poteva essere raggiunto mediante il trattamento di altri dati.&lt;br /&gt;
&lt;br /&gt;
6. Per lo sviluppo di sistemi di IA ad alto rischio che non utilizzano tecniche che prevedono l&#039;addestramento di modelli di IA, i paragrafi da 2 a 5 si applicano solo ai set di dati di prova.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.43|Considerando &#039;&#039;&#039;43&#039;&#039;&#039;]] •||[[C.44|Considerando &#039;&#039;&#039;44&#039;&#039;&#039;]] •||[[C.45|Considerando &#039;&#039;&#039;45&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.9&amp;diff=1068</id>
		<title>Art.9</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.9&amp;diff=1068"/>
		<updated>2024-07-08T14:41:08Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistema di gestione dei rischi&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.9 (Sistema di gestione dei rischi)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi.&lt;br /&gt;
&lt;br /&gt;
2. Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell&#039;intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. Esso comprende le fasi seguenti:&lt;br /&gt;
&lt;br /&gt;
:a) identificazione e analisi dei rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può porre per la salute, la sicurezza e i diritti fondamentali quando il sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista; &lt;br /&gt;
:b) stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;&lt;br /&gt;
:c) valutazione di altri eventuali rischi derivanti dall&#039;analisi dei dati raccolti dal sistema di monitoraggio successivo all&#039;immissione sul mercato di cui all&#039;[[Art.72|articolo 72]];&lt;br /&gt;
:d) adozione di misure di gestione dei rischi opportune e mirate intese ad affrontare i rischi individuati ai sensi della lettera a).&lt;br /&gt;
&lt;br /&gt;
3. I rischi di cui al presente articolo riguardano solo quelli che possono essere ragionevolmente attenuati o eliminati attraverso lo sviluppo o la progettazione del sistema di IA ad alto rischio o la fornitura di informazioni tecniche adeguate.&lt;br /&gt;
&lt;br /&gt;
4. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e la possibile interazione derivanti dall&#039;applicazione combinata dei requisiti di cui alla presente sezione, al fine di ridurre al minimo i rischi con maggiore efficacia e raggiungere nel contempo un equilibrio adeguato nell&#039;attuazione delle misure volte a soddisfare tali requisiti.&lt;br /&gt;
&lt;br /&gt;
5. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che i pertinenti rischi residui associati a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili.&lt;br /&gt;
Nell&#039;individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue: &lt;br /&gt;
:a) l&#039;eliminazione o la riduzione dei rischi individuati e valutati a norma del paragrafo 2, per quanto possibile dal punto di vista tecnico attraverso un&#039;adeguata progettazione e fabbricazione del sistema di IA ad alto rischio;&lt;br /&gt;
:b) ove opportuno, l&#039;attuazione di adeguate misure di attenuazione e di controllo nell&#039;affrontare i rischi che non possono essere eliminati;&lt;br /&gt;
:c) la fornitura delle informazioni richieste a norma dell&#039;[[Art.13|articolo 13]] e, ove opportuno, la formazione dei deployer.&lt;br /&gt;
Al fine di eliminare o ridurre i rischi connessi all&#039;uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l&#039;esperienza, l&#039;istruzione e la formazione che ci si può aspettare dal deployer e il contesto presumibile in cui il sistema è destinato ad essere usato.&lt;br /&gt;
&lt;br /&gt;
6. I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate e mirate. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui alla presente sezione.&lt;br /&gt;
&lt;br /&gt;
7. Le procedure di prova possono comprendere prove in condizioni reali conformemente all&#039;[[Art.60|articolo 60]].&lt;br /&gt;
&lt;br /&gt;
8. Le prove dei sistemi di IA ad alto rischio sono effettuate, a seconda dei casi, in un qualsiasi momento dell&#039;intero processo di sviluppo e, in ogni caso, prima della loro immissione sul mercato o messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite precedentemente e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
9. Nell&#039;attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, i fornitori prestano attenzione, nell&#039;ottica della sua finalità prevista, all&#039;eventualità che il sistema di IA ad alto rischio possa avere un impatto negativo sulle persone di età inferiore a 18 anni o, a seconda dei casi, su altri gruppi vulnerabili.&lt;br /&gt;
&lt;br /&gt;
10. Per i fornitori di sistemi di IA ad alto rischio soggetti ai requisiti relativi ai processi interni di gestione dei rischi a norma di altre disposizioni pertinenti del diritto dell&#039;Unione, gli aspetti di cui ai paragrafi da 1 a 9 possono far parte delle procedure di gestione dei rischi stabilite a norma di tale diritto oppure essere combinati con le stesse.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.42|Considerando &#039;&#039;&#039;42&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.8&amp;diff=1067</id>
		<title>Art.8</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.8&amp;diff=1067"/>
		<updated>2024-07-08T14:39:13Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Conformità ai requisiti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.2 (Ambito di applicazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio rispettano i requisiti stabiliti nella presente sezione, tenendo conto delle loro previste finalità nonché dello stato dell&#039;arte generalmente riconosciuto in materia di IA e di tecnologie correlate all&#039;IA. Nel garantire conformità a tali requisiti si tiene conto del sistema di gestione dei rischi di cui all&#039;[[Art.9|articolo 9]].&lt;br /&gt;
&lt;br /&gt;
2. Se un prodotto contiene un sistema di IA cui si applicano i requisiti del presente regolamento e i requisiti della normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]], i fornitori sono responsabili di garantire che il loro prodotto sia pienamente conforme a tutti i requisiti applicabili previsti dalla normativa di armonizzazione dell&#039;Unione applicabile. Nel garantire la conformità dei sistemi di IA ad alto rischio di cui al paragrafo 1 ai requisiti di cui alla presente sezione e al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari processi di prova e di comunicazione nonché le informazioni e la documentazione che forniscono relativamente al loro prodotto nella documentazione e nelle procedure esistenti e richieste in conformità della normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.27|Considerando &#039;&#039;&#039;27&#039;&#039;&#039;]] •||[[C.42|Considerando &#039;&#039;&#039;42&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.7&amp;diff=1066</id>
		<title>Art.7</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.7&amp;diff=1066"/>
		<updated>2024-07-08T14:33:00Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifiche dell&#039;allegato III&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.7 (Modifiche dell&#039;allegato III)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare l&#039;[[Allegato III|allegato III]] aggiungendo o modificando i casi d&#039;uso dei sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:&lt;br /&gt;
&lt;br /&gt;
:a) i sistemi di IA sono destinati a essere usati in uno dei settori elencati nell&#039;[[Allegato III|allegato III]];&lt;br /&gt;
:b) i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o di impatto negativo sui diritti fondamentali, e tale rischio è equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]].&lt;br /&gt;
&lt;br /&gt;
2. Nel valutare la condizione di cui al paragrafo 1, lettera b), la Commissione tiene conto dei criteri seguenti:&lt;br /&gt;
&lt;br /&gt;
:a) la finalità prevista del sistema di IA;&lt;br /&gt;
:b) la misura in cui un sistema di IA è stato usato o è probabile che sarà usato;&lt;br /&gt;
:c) la natura e la quantità di dati trattati e utilizzati dal sistema di IA, in particolare l&#039;eventualità che siano trattate categorie particolari di dati personali;&lt;br /&gt;
:d) la misura in cui il sistema di IA agisce autonomamente e la possibilità che un essere umano annulli una decisione o una raccomandazione che potrebbe causare un danno potenziale;&lt;br /&gt;
:e) la misura in cui l&#039;uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza, ha avuto un impatto negativo sui diritti fondamentali o ha suscitato gravi preoccupazioni in relazione alla probabilità di tale danno o impatto negativo, come dimostrato, ad esempio, da relazioni o da prove documentate presentate alle autorità nazionali competenti o da altre relazioni, a seconda dei casi;&lt;br /&gt;
:f) la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su più persone o di incidere in modo sproporzionato su un particolare gruppo di persone;&lt;br /&gt;
:g) la misura in cui le persone che potrebbero subire il danno o l&#039;impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare in ragione del fatto che per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultato;&lt;br /&gt;
:h) la misura in cui esiste uno squilibrio di potere o le persone che potrebbero subire il danno o l&#039;impatto negativo si trovano in una posizione vulnerabile rispetto al deployer di un sistema di IA, in particolare a causa della condizione, dell’autorità, della conoscenza, della situazione economica o sociale o dell’età;&lt;br /&gt;
:i) la misura in cui il risultato prodotto con il coinvolgimento di un sistema di IA è facilmente correggibile o reversibile, tenendo conto delle soluzioni tecniche disponibili per correggerlo o ribaltarlo, considerando non facilmente correggibili o reversibili i risultati che hanno un impatto negativo sulla salute, sulla sicurezza o sui diritti fondamentali;&lt;br /&gt;
:j) l&#039;entità e la probabilità dei benefici derivanti dalla diffusione del sistema di IA per le persone, i gruppi o la società in generale, compresi i possibili miglioramenti della sicurezza del prodotto;&lt;br /&gt;
:k) la misura in cui il vigente diritto dell&#039;Unione prevede:&lt;br /&gt;
::i) misure di ricorso efficaci in relazione ai rischi presentati da un sistema di IA, ad esclusione delle richieste di risarcimento del danno;&lt;br /&gt;
::ii) misure efficaci per prevenire o ridurre sostanzialmente tali rischi.&lt;br /&gt;
&lt;br /&gt;
3. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare l&#039;elenco di cui all&#039;[[Allegato III|allegato III]] rimuovendo sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:&lt;br /&gt;
:a) il sistema di IA ad alto rischio interessato non pone più rischi significativi per i diritti fondamentali, la salute o la sicurezza, tenendo conto dei criteri elencati al paragrafo 2;&lt;br /&gt;
:b) la soppressione non riduce il livello generale di protezione della salute, della sicurezza e dei diritti fondamentali a norma del diritto dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.6&amp;diff=1065</id>
		<title>Art.6</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.6&amp;diff=1065"/>
		<updated>2024-07-08T14:28:31Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Regole di classificazione per i sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.6 (Regole di classificazione per i sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. A prescindere dal fatto che sia immesso sul mercato o messo in servizio indipendentemente dai prodotti di cui alle lettere a) e b), un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti: &lt;br /&gt;
:a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]]; &lt;br /&gt;
:b) il prodotto, il cui componente di sicurezza a norma della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell&#039;immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]].&lt;br /&gt;
&lt;br /&gt;
2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all&#039;[[Allegato III|allegato III]].&lt;br /&gt;
&lt;br /&gt;
3. In deroga al paragrafo 2, un sistema di IA di cui all’[[Allegato III|allegato III]] non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale. &lt;br /&gt;
Il primo comma si applica quando è soddisfatta almeno una qualsiasi delle condizioni seguenti:&lt;br /&gt;
:a) il sistema di IA è destinato a eseguire un compito procedurale limitato;&lt;br /&gt;
:b) il sistema di IA è destinato a migliorare il risultato di un&#039;attività umana precedentemente completata;&lt;br /&gt;
:c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un&#039;adeguata revisione umana; o&lt;br /&gt;
:d) il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d&#039;uso elencati nell&#039;[[Allegato III|allegato III]].&lt;br /&gt;
Fatto salvo il primo comma, un sistema di IA di cui all&#039;[[Allegato III|allegato III]] è sempre considerato ad alto rischio qualora esso effettui profilazione di persone fisiche.&lt;br /&gt;
&lt;br /&gt;
4. Un fornitore che ritiene che un sistema di IA di cui all&#039;[[Allegato III|allegato III]] non sia ad alto rischio ne documenta la valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio. Tale fornitore è soggetto all&#039;obbligo di registrazione di cui all&#039;[[Art.49|articolo 49, paragrafo 2]]. Su richiesta delle autorità nazionali competenti, il fornitore mette a disposizione la documentazione relativa alla valutazione.&lt;br /&gt;
&lt;br /&gt;
5. Dopo aver consultato il comitato europeo per l&#039;intelligenza artificiale (&amp;quot;comitato&amp;quot;), ed entro ... [18 mesi dalla data di entrata in vigore del presente regolamento], la Commissione fornisce orientamenti che specificano l&#039;attuazione pratica del presente articolo in linea con l&#039;[[Art.96|articolo 96]], insieme a un elenco esaustivo di esempi pratici di casi d&#039;uso di sistemi di IA ad alto rischio e non ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
6. Alla Commissione è conferito il potere di adottare atti delegati in conformità dell&#039;[[Art.97|articolo 97]] al fine di modificare il paragrafo 3, secondo comma, del presente articolo aggiungendo nuove condizioni a quelle ivi stabilite, oppure modificandole, qualora vi siano prove concrete e affidabili dell&#039;esistenza di sistemi di IA che rientrano nell&#039;ambito di applicazione dell&#039;[[Allegato III|allegato III]] ma non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche.&lt;br /&gt;
&lt;br /&gt;
7. La Commissione adotta atti delegati in conformità dell&#039;[[Art.97|articolo 97]] al fine di modificare il paragrafo 3, secondo comma, del presente articolo sopprimendo qualsiasi condizione ivi stabilita, qualora vi siano prove concrete e affidabili che è necessario al fine di mantenere il livello di protezione della salute, della sicurezza e dei diritti fondamentali previsto dal presente regolamento.&lt;br /&gt;
&lt;br /&gt;
8. Eventuali modifiche alle condizioni di cui al paragrafo 3, secondo comma, adottate in conformità dei paragrafi 6 e 7 del presente articolo non riducono il livello globale di protezione della salute, della sicurezza e dei diritti fondamentali nell&#039;Unione previsto dal presente regolamento e garantiscono la coerenza con gli atti delegati adottati a norma dell&#039;[[Art.7|articolo 7, paragrafo 1]], e tengono conto degli sviluppi tecnologici e del mercato.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.27|Considerando &#039;&#039;&#039;27&#039;&#039;&#039;]] •||[[C.28|Considerando &#039;&#039;&#039;28&#039;&#039;&#039;]] •||[[C.30|Considerando &#039;&#039;&#039;30&#039;&#039;&#039;]] •||[[C.31|Considerando &#039;&#039;&#039;31&#039;&#039;&#039;]] •||[[C.32|Considerando &#039;&#039;&#039;32&#039;&#039;&#039;]] •||[[C.33|Considerando &#039;&#039;&#039;33&#039;&#039;&#039;]]  •||[[C.34|Considerando &#039;&#039;&#039;34&#039;&#039;&#039;]] •||[[C.35|Considerando &#039;&#039;&#039;35&#039;&#039;&#039;]] •||[[C.36|Considerando &#039;&#039;&#039;36&#039;&#039;&#039;]] •||[[C.37|Considerando &#039;&#039;&#039;37&#039;&#039;&#039;]]  •||[[C.38|Considerando &#039;&#039;&#039;38&#039;&#039;&#039;]] •||[[C.39|Considerando &#039;&#039;&#039;39&#039;&#039;&#039;]] •||[[C.40|Considerando &#039;&#039;&#039;40&#039;&#039;&#039;]] •||[[C.41|Considerando &#039;&#039;&#039;41&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.5&amp;diff=1064</id>
		<title>Art.5</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.5&amp;diff=1064"/>
		<updated>2024-07-08T14:18:39Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Pratiche di IA vietate&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.5 (Pratiche di IA vietate)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Sono vietate le pratiche di IA seguenti: &lt;br /&gt;
&lt;br /&gt;
:a) l&#039;immissione sul mercato, la messa in servizio o l&#039;uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l&#039;effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la loro capacità di prendere una decisione informata, inducendole pertanto a prendere una decisione che non avrebbero altrimenti preso, in un modo che provochi o possa ragionevolmente provocare a tale persona, a un&#039;altra persona o a un gruppo di persone un danno significativo;&lt;br /&gt;
&lt;br /&gt;
:b) l&#039;immissione sul mercato, la messa in servizio o l&#039;uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone, dovute all&#039;età, alla disabilità o a una specifica situazione sociale o economica, con l&#039;obiettivo o l&#039;effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un&#039;altra persona un danno significativo; &lt;br /&gt;
&lt;br /&gt;
:c) l&#039;immissione sul mercato, la messa in servizio o l&#039;uso di sistemi di IA per la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi gli scenari seguenti: &lt;br /&gt;
::i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti; &lt;br /&gt;
::ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;&lt;br /&gt;
&lt;br /&gt;
:d) l&#039;immissione sul mercato, la messa in servizio per tale finalità specifica o l&#039;uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un&#039;attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un&#039;attività criminosa;&lt;br /&gt;
&lt;br /&gt;
:e) l&#039;immissione sul mercato, la messa in servizio per tale finalità specifica o l&#039;uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;&lt;br /&gt;
&lt;br /&gt;
:f) l&#039;immissione sul mercato, la messa in servizio per tale finalità specifica o l&#039;uso di sistemi di IA per inferire le emozioni di una persona fisica nell&#039;ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l&#039;uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;&lt;br /&gt;
&lt;br /&gt;
:g) l&#039;immissione sul mercato, la messa in servizio per tale finalità specifica o l&#039;uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l&#039;etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attività di contrasto;&lt;br /&gt;
&lt;br /&gt;
:h) l&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto a meno che, e nella misura in cui, tale uso sia strettamente necessario per uno degli obiettivi seguenti: &lt;br /&gt;
::i) la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;&lt;br /&gt;
::ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l&#039;incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;&lt;br /&gt;
::iii) la localizzazione o l&#039;identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un&#039;indagine penale, o dell&#039;esercizio di un&#039;azione penale o dell&#039;esecuzione di una sanzione penale per i reati di cui all&#039;allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni.&lt;br /&gt;
&lt;br /&gt;
:La lettera h) del primo comma lascia impregiudicato l&#039;articolo 9 del regolamento (UE) 2016/679 per quanto riguarda il trattamento dei dati biometrici a fini diversi dall&#039;attività di contrasto.&lt;br /&gt;
&lt;br /&gt;
2. L&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), è applicato ai fini di cui a tale lettera, solo per confermare l&#039;identità della persona specificamente interessata e tiene conto degli elementi seguenti: &lt;br /&gt;
&lt;br /&gt;
:a) la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l&#039;entità del danno che sarebbe causato in caso di mancato uso del sistema;&lt;br /&gt;
&lt;br /&gt;
:b) le conseguenze dell&#039;uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l&#039;entità di tali conseguenze. &lt;br /&gt;
&lt;br /&gt;
L&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), del presente articolo rispetta inoltre le tutele e le condizioni necessarie e proporzionate in relazione all&#039;uso, conformemente al diritto nazionale che autorizza tale uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali. L&#039;uso del sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico è autorizzato solo se l&#039;autorità di contrasto ha completato una valutazione d&#039;impatto sui diritti fondamentali come previsto all&#039;[[Art.27|articolo 27]] e ha registrato il sistema nella banca dati UE conformemente all&#039;[[Art.49|articolo 49]]. Tuttavia, in situazioni di urgenza debitamente giustificate, è possibile iniziare a usare tali sistemi senza la registrazione nella banca dati dell&#039;UE, a condizione che tale registrazione sia completata senza indebito ritardo.&lt;br /&gt;
&lt;br /&gt;
3. Ai fini del paragrafo 1, primo comma, lettera h), e del paragrafo 2, ogni uso di un sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un&#039;autorizzazione preventiva rilasciata da un&#039;autorità giudiziaria o da un&#039;autorità amministrativa indipendente, la cui decisione è vincolante, dello Stato membro in cui deve avvenire l&#039;uso, rilasciata su richiesta motivata e in conformità delle regole dettagliate del diritto nazionale di cui al paragrafo 5. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione a condizione che tale autorizzazione sia richiesta senza indebito ritardo, al più tardi entro 24 ore. Se tale autorizzazione è respinta, l&#039;uso è interrotto con effetto immediato e tutti i dati nonché i risultati e gli output di tale uso sono immediatamente eliminati e cancellati.&lt;br /&gt;
L&#039;autorità giudiziaria competente o un&#039;autorità amministrativa indipendente la cui decisione è vincolante rilascia l&#039;autorizzazione solo se ha accertato, sulla base di prove oggettive o indicazioni chiare che le sono state presentate, che l&#039;uso del sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in questione è necessario e proporzionato al conseguimento di uno degli obiettivi di cui al paragrafo 1, primo comma, lettera h), come indicato nella richiesta e, in particolare, rimane limitato a quanto strettamente necessario per quanto riguarda il periodo di tempo e l&#039;ambito geografico e personale. Nel decidere in merito alla richiesta, tale autorità tiene conto degli elementi di cui al paragrafo 2. Nessuna decisione che produca effetti giuridici negativi su una persona può essere presa unicamente sulla base dell&#039;output del sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
4. Fatto salvo il paragrafo 3, ogni uso di un sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto è notificato alla pertinente autorità di vigilanza del mercato e all&#039;autorità nazionale per la protezione dei dati conformemente alle regole nazionali di cui al paragrafo 5. La notifica contiene almeno le informazioni di cui al paragrafo 6 e non include dati operativi sensibili.&lt;br /&gt;
&lt;br /&gt;
5. Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, primo comma, lettera h), e ai paragrafi 2 e 3. Gli Stati membri interessati stabiliscono nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l&#039;esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo e comunicazione ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, primo comma, lettera h), compresi i reati di cui alla lettera h), punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto. Gli Stati membri notificano tali regole alla Commissione al più tardi 30 giorni dopo la loro adozione. Gli Stati membri possono introdurre, in conformità del diritto dell&#039;Unione, disposizioni più restrittive sull&#039;uso dei sistemi di identificazione biometrica remota.&lt;br /&gt;
&lt;br /&gt;
6. Le autorità nazionali di vigilanza del mercato e le autorità nazionali per la protezione dei dati degli Stati membri cui è stato notificato l&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto a norma del paragrafo 4, presentano alla Commissione relazioni annuali su tale uso. A tal fine, la Commissione fornisce agli Stati membri e alle autorità nazionali di vigilanza del mercato e di protezione dei dati un modello comprendente informazioni sul numero di decisioni che le autorità giudiziarie competenti, o un&#039;autorità amministrativa indipendente la cui decisione è vincolante, hanno adottato in risposta alle richieste di autorizzazione a norma del paragrafo 3 e il loro esito.&lt;br /&gt;
&lt;br /&gt;
7. La Commissione pubblica relazioni annuali sull&#039;uso di sistemi di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot; in spazi accessibili al pubblico a fini di attività di contrasto, fondate sui dati aggregati negli Stati membri sulla base delle relazioni annuali di cui al paragrafo 6. Tali relazioni annuali non includono dati operativi sensibili delle relative attività di contrasto.&lt;br /&gt;
&lt;br /&gt;
8. Il presente articolo lascia impregiudicati i divieti che si applicano qualora una pratica di IA violi altre disposizioni di diritto dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.2|Considerando &#039;&#039;&#039;2&#039;&#039;&#039;]] •||[[C.15|Considerando &#039;&#039;&#039;15&#039;&#039;&#039;]] •||[[C.16|Considerando &#039;&#039;&#039;16&#039;&#039;&#039;]] •||[[C.17|Considerando &#039;&#039;&#039;17&#039;&#039;&#039;]] •||[[C.18|Considerando &#039;&#039;&#039;18&#039;&#039;&#039;]] •||[[C.19|Considerando &#039;&#039;&#039;19&#039;&#039;&#039;]] •||[[C.20|Considerando &#039;&#039;&#039;20&#039;&#039;&#039;]] •||[[C.21|Considerando &#039;&#039;&#039;21&#039;&#039;&#039;]] •||[[C.22|Considerando &#039;&#039;&#039;22&#039;&#039;&#039;]] •||[[C.23|Considerando &#039;&#039;&#039;23&#039;&#039;&#039;]] •||[[C.24|Considerando &#039;&#039;&#039;24&#039;&#039;&#039;]] •||[[C.25|Considerando &#039;&#039;&#039;25&#039;&#039;&#039;]] •||[[C.26|Considerando &#039;&#039;&#039;26&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.4&amp;diff=1063</id>
		<title>Art.4</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.4&amp;diff=1063"/>
		<updated>2024-07-08T14:14:58Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Alfabetizzazione in materia di IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.4 (Alfabetizzazione in materia di IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell&#039;utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.9|Considerando &#039;&#039;&#039;9&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.3&amp;diff=1062</id>
		<title>Art.3</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.3&amp;diff=1062"/>
		<updated>2024-07-08T14:11:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Definizioni&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.3 (Definizioni)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Ai fini del presente regolamento si applicano le definizioni seguenti:&lt;br /&gt;
&lt;br /&gt;
1) &amp;quot;sistema di IA&amp;quot;: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall&#039;input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;&lt;br /&gt;
&lt;br /&gt;
2) &amp;quot;rischio&amp;quot;: la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso;&lt;br /&gt;
&lt;br /&gt;
3) &amp;quot;fornitore&amp;quot;: una persona fisica o giuridica, un&#039;autorità pubblica, un&#039;agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito;&lt;br /&gt;
&lt;br /&gt;
4) &amp;quot;deployer&amp;quot;: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un&#039;attività personale non professionale;&lt;br /&gt;
&lt;br /&gt;
5) &amp;quot;rappresentante autorizzato&amp;quot;: una persona fisica o giuridica ubicata o stabilita nell&#039;Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA o di un modello di IA per finalità generali al fine, rispettivamente, di adempiere ed eseguire per suo conto gli obblighi e le procedure stabiliti dal presente regolamento;&lt;br /&gt;
&lt;br /&gt;
6) &amp;quot;importatore&amp;quot;: una persona fisica o giuridica ubicata o stabilita nell&#039;Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo;&lt;br /&gt;
&lt;br /&gt;
7) &amp;quot;distributore&amp;quot;: una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall&#039;importatore, che mette a disposizione un sistema di IA sul mercato dell&#039;Unione;&lt;br /&gt;
&lt;br /&gt;
8) &amp;quot;operatore&amp;quot;: un fornitore, un fabbricante del prodotto, un deployer, un rappresentante autorizzato, un importatore o un distributore;&lt;br /&gt;
&lt;br /&gt;
9) &amp;quot;immissione sul mercato&amp;quot;: la prima messa a disposizione di un sistema di IA o di un modello di IA per finalità generali sul mercato dell&#039;Unione;&lt;br /&gt;
&lt;br /&gt;
10) &amp;quot;messa a disposizione sul mercato&amp;quot;: la fornitura di un sistema di IA o di un modello di IA per finalità generali per la distribuzione o l&#039;uso sul mercato dell&#039;Unione nel corso di un&#039;attività commerciale, a titolo oneroso o gratuito;&lt;br /&gt;
&lt;br /&gt;
11) &amp;quot;messa in servizio&amp;quot;: la fornitura di un sistema di IA direttamente al deployer per il primo uso o per uso proprio nell&#039;Unione per la finalità prevista;&lt;br /&gt;
&lt;br /&gt;
12) &amp;quot;finalità prevista&amp;quot;: l&#039;uso di un sistema di IA previsto dal fornitore, compresi il contesto e le condizioni d&#039;uso specifici, come dettagliati nelle informazioni comunicate dal fornitore nelle istruzioni per l&#039;uso, nel materiale promozionale o di vendita e nelle dichiarazioni, nonché nella documentazione tecnica;&lt;br /&gt;
&lt;br /&gt;
13) &amp;quot;uso improprio ragionevolmente prevedibile&amp;quot;: l&#039;uso di un sistema di IA in un modo non conforme alla sua finalità prevista, ma che può derivare da un comportamento umano o da un&#039;interazione con altri sistemi, ivi compresi altri sistemi di IA, ragionevolmente prevedibile;&lt;br /&gt;
&lt;br /&gt;
14) &amp;quot;componente di sicurezza&amp;quot;: un componente di un prodotto o di un sistema di IA che svolge una funzione di sicurezza per tale prodotto o sistema di IA o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;&lt;br /&gt;
&lt;br /&gt;
15) &amp;quot;istruzioni per l&#039;uso&amp;quot;: le informazioni comunicate dal fornitore per informare il deployer in particolare della finalità prevista e dell&#039;uso corretto di un sistema di IA;&lt;br /&gt;
&lt;br /&gt;
16) &amp;quot;richiamo di un sistema di IA&amp;quot;: qualsiasi misura volta a ottenere la restituzione al fornitore, la messa fuori servizio o la disabilitazione dell&#039;uso di un sistema di IA messo a disposizione dei deployer;&lt;br /&gt;
&lt;br /&gt;
17) &amp;quot;ritiro di un sistema di IA&amp;quot;: qualsiasi misura volta a impedire che un sistema di IA nella catena di approvvigionamento sia messo a disposizione sul mercato;&lt;br /&gt;
&lt;br /&gt;
18) &amp;quot;prestazioni di un sistema di IA&amp;quot;: la capacità di un sistema di IA di conseguire la finalità prevista;&lt;br /&gt;
&lt;br /&gt;
19) &amp;quot;autorità di notifica&amp;quot;: l&#039;autorità nazionale responsabile dell&#039;istituzione e dell&#039;esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio;&lt;br /&gt;
&lt;br /&gt;
20) &amp;quot;valutazione della conformità&amp;quot;: la procedura atta a dimostrare se i requisiti di cui al capo III, sezione 2, relativi a un sistema di IA ad alto rischio sono stati soddisfatti;&lt;br /&gt;
&lt;br /&gt;
21) &amp;quot;organismo di valutazione della conformità&amp;quot;: un organismo che svolge per conto di terzi attività di valutazione della conformità, incluse prove, certificazioni e ispezioni;&lt;br /&gt;
&lt;br /&gt;
22) &amp;quot;organismo notificato&amp;quot;: un organismo di valutazione della conformità notificato in conformità del presente regolamento e di altre pertinenti normative di armonizzazione dell&#039;Unione;&lt;br /&gt;
&lt;br /&gt;
23) &amp;quot;modifica sostanziale&amp;quot;: una modifica di un sistema di IA a seguito della sua immissione sul mercato o messa in servizio che non è prevista o programmata nella valutazione iniziale della conformità effettuata dal fornitore e che ha l&#039;effetto di incidere sulla conformità del sistema di IA ai requisiti di cui al capo III, sezione 2, o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato;&lt;br /&gt;
&lt;br /&gt;
24) &amp;quot;marcatura CE&amp;quot;: una marcatura mediante la quale un fornitore indica che un sistema di IA è conforme ai requisiti stabiliti al capo III, sezione 2, e in altre normative di armonizzazione dell&#039;Unione applicabili e che ne prevedono l&#039;apposizione;&lt;br /&gt;
&lt;br /&gt;
25) &amp;quot;sistema di monitoraggio successivo all&#039;immissione sul mercato&amp;quot;: tutte le attività svolte dai fornitori di sistemi di IA al fine di raccogliere e analizzare l&#039;esperienza maturata tramite l&#039;uso dei sistemi di IA che immettono sul mercato o che mettono in servizio, al fine di individuare eventuali necessità di immediate azioni correttive o preventive;&lt;br /&gt;
&lt;br /&gt;
26) &amp;quot;autorità di vigilanza del mercato&amp;quot;: l&#039;autorità nazionale che svolge le attività e adotta le misure a norma del regolamento (UE) 2019/1020;&lt;br /&gt;
&lt;br /&gt;
27) &amp;quot;norma armonizzata&amp;quot;: la norma armonizzata di cui all&#039;articolo 2, punto 1), lettera c), del regolamento (UE) n. 1025/2012;&lt;br /&gt;
&lt;br /&gt;
28) &amp;quot;specifiche comuni&amp;quot;: un insieme di specifiche tecniche quali definite all&#039;articolo 2, punto 4), del regolamento (UE) n. 1025/2012, che forniscono i mezzi per soddisfare determinati requisiti stabiliti a norma del presente regolamento;&lt;br /&gt;
&lt;br /&gt;
29) &amp;quot;dati di addestramento&amp;quot;: i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere;&lt;br /&gt;
&lt;br /&gt;
30) &amp;quot;dati di convalida&amp;quot;: i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l&#039;altro, i parametri che non può apprendere e il processo di apprendimento, al fine tra l&#039;altro di evitare lo scarso (underfitting) o l&#039;eccessivo (overfitting) adattamento ai dati di addestramento;&lt;br /&gt;
&lt;br /&gt;
31) &amp;quot;set di dati di convalida&amp;quot;: un set di dati distinto o costituito da una partizione fissa o variabile del set di dati di addestramento;&lt;br /&gt;
&lt;br /&gt;
32) &amp;quot;dati di prova&amp;quot;: i dati utilizzati per fornire una valutazione indipendente del sistema di IA al fine di confermarne le prestazioni attese prima della sua immissione sul mercato o messa in servizio;&lt;br /&gt;
&lt;br /&gt;
33) &amp;quot;dati di input&amp;quot;: i dati forniti a un sistema di IA o direttamente acquisiti dallo stesso, in base ai quali il sistema produce un output;&lt;br /&gt;
&lt;br /&gt;
34) &amp;quot;dati biometrici&amp;quot;: i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica, quali le immagini facciali o i dati dattiloscopici;&lt;br /&gt;
&lt;br /&gt;
35) &amp;quot;identificazione biometrica&amp;quot;: il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali o psicologiche allo scopo di determinare l&#039;identità di una persona fisica confrontando i suoi dati biometrici con quelli di individui memorizzati in una banca dati;&lt;br /&gt;
&lt;br /&gt;
36) &amp;quot;verifica biometrica&amp;quot;: la verifica automatizzata e uno a uno, inclusa l&#039;autenticazione, dell&#039;identità di persone fisiche mediante il confronto dei loro dati biometrici con i dati biometrici forniti in precedenza;&lt;br /&gt;
&lt;br /&gt;
37) &amp;quot;categorie particolari di dati personali&amp;quot;: le categorie di dati personali di cui all&#039;articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all&#039;articolo 10 della direttiva (UE) 2016/680 e all&#039;articolo 10, paragrafo 1, del regolamento (UE) 2018/1725;&lt;br /&gt;
&lt;br /&gt;
38) &amp;quot;dati operativi sensibili&amp;quot;: dati operativi relativi ad attività di prevenzione, accertamento, indagine o perseguimento di reati, la cui divulgazione potrebbe compromettere l&#039;integrità dei procedimenti penali;&lt;br /&gt;
&lt;br /&gt;
39) &amp;quot;sistema di riconoscimento delle emozioni&amp;quot;: un sistema di IA finalizzato all&#039;identificazione o all&#039;inferenza di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici;&lt;br /&gt;
&lt;br /&gt;
40) &amp;quot;sistema di categorizzazione biometrica&amp;quot;: un sistema di IA che utilizza i dati biometrici di persone fisiche al fine di assegnarle a categorie specifiche, a meno che non sia accessorio a un altro servizio commerciale e strettamente necessario per ragioni tecniche oggettive;&lt;br /&gt;
&lt;br /&gt;
41) &amp;quot;sistema di identificazione biometrica remota&amp;quot;: un sistema di IA finalizzato all&#039;identificazione di persone fisiche, senza il loro coinvolgimento attivo, tipicamente a distanza mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento; &lt;br /&gt;
&lt;br /&gt;
42) &amp;quot;sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot;&amp;quot;: un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l&#039;identificazione avvengono senza ritardi significativi, il quale comprende non solo le identificazioni istantanee, ma anche quelle che avvengono con brevi ritardi limitati al fine di evitare l&#039;elusione;&lt;br /&gt;
&lt;br /&gt;
43) &amp;quot;sistema di identificazione biometrica remota a posteriori&amp;quot;: un sistema di identificazione biometrica remota diverso da un sistema di identificazione biometrica remota &amp;quot;in tempo reale&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
44) &amp;quot;spazio accessibile al pubblico&amp;quot;: qualsiasi luogo fisico di proprietà pubblica o privata accessibile a un numero indeterminato di persone fisiche, indipendentemente dal fatto che possano applicarsi determinate condizioni di accesso e indipendentemente dalle potenziali restrizioni di capacità;&lt;br /&gt;
&lt;br /&gt;
45) &amp;quot;autorità di contrasto&amp;quot;:&lt;br /&gt;
a) qualsiasi autorità pubblica competente in materia di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse; oppure&lt;br /&gt;
b) qualsiasi altro organismo o entità incaricati dal diritto dello Stato membro di esercitare l&#039;autorità pubblica e i poteri pubblici a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;&lt;br /&gt;
&lt;br /&gt;
46) &amp;quot;attività di contrasto&amp;quot;: le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;&lt;br /&gt;
&lt;br /&gt;
47) &amp;quot;ufficio per l&#039;IA&amp;quot;: la funzione della Commissione volta a contribuire all&#039;attuazione, al monitoraggio e alla supervisione dei sistemi di IA e dei modelli di IA per finalità generali, e della governance dell&#039;IA prevista dalla decisione della Commissione del 24 gennaio 2024. I riferimenti all&#039;ufficio per l&#039;IA contenuti nel presente regolamento si intendono fatti alla Commissione;&lt;br /&gt;
&lt;br /&gt;
48) &amp;quot;autorità nazionale competente&amp;quot;: un&#039;autorità di notifica o un&#039;autorità di vigilanza del mercato; per quanto riguarda i sistemi di IA messi in servizio o utilizzati da istituzioni, organi e organismi dell&#039;Unione, i riferimenti alle autorità nazionali competenti o alle autorità di vigilanza del mercato contenuti nel presente regolamento si intendono fatti al Garante europeo della protezione dei dati;&lt;br /&gt;
&lt;br /&gt;
49) &amp;quot;incidente grave&amp;quot;: un incidente o malfunzionamento di un sistema di IA che, direttamente o indirettamente, causa una delle conseguenze seguenti: &lt;br /&gt;
a) il decesso di una persona o gravi danni alla salute di una persona;&lt;br /&gt;
b) una perturbazione grave e irreversibile della gestione o del funzionamento delle infrastrutture critiche;&lt;br /&gt;
c) la violazione degli obblighi a norma del diritto dell&#039;Unione intesi a proteggere i diritti fondamentali;&lt;br /&gt;
d) gravi danni alle cose o all&#039;ambiente;&lt;br /&gt;
&lt;br /&gt;
50) &amp;quot;dati personali&amp;quot;: i dati personali quali definiti all&#039;articolo 4, punto 1), del regolamento (UE) 2016/679;&lt;br /&gt;
&lt;br /&gt;
51) &amp;quot;dati non personali&amp;quot;: dati diversi dai dati personali di cui all&#039;articolo 4, punto 1), del regolamento (UE) 2016/679;&lt;br /&gt;
&lt;br /&gt;
52) &amp;quot;profilazione&amp;quot;: la profilazione quale definita all&#039;articolo 4, punto 4), del regolamento(UE) 2016/679;&lt;br /&gt;
&lt;br /&gt;
53) &amp;quot;piano di prova in condizioni reali&amp;quot;: un documento che descrive gli obiettivi, la metodologia, l&#039;ambito geografico, della popolazione e temporale, il monitoraggio, l&#039;organizzazione e lo svolgimento della prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
54) &amp;quot;piano dello spazio di sperimentazione&amp;quot;: un documento concordato tra il fornitore partecipante e l&#039;autorità competente in cui sono descritti gli obiettivi, le condizioni, il calendario, la metodologia e i requisiti relativamente alle attività svolte all&#039;interno dello spazio di sperimentazione;&lt;br /&gt;
&lt;br /&gt;
55) &amp;quot;spazio di sperimentazione normativa per l&#039;IA&amp;quot;: un quadro controllato istituito da un&#039;autorità competente che offre ai fornitori o potenziali fornitori di sistemi di IA la possibilità di sviluppare, addestrare, convalidare e provare, se del caso in condizioni reali, un sistema di IA innovativo, conformemente a un piano dello spazio di sperimentazione per un periodo di tempo limitato sotto supervisione regolamentare;&lt;br /&gt;
&lt;br /&gt;
56) &amp;quot;alfabetizzazione in materia di IA&amp;quot;: le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell&#039;IA e ai possibili danni che essa può causare;&lt;br /&gt;
&lt;br /&gt;
57) &amp;quot;prova in condizioni reali&amp;quot;: la prova temporanea di un sistema di IA per la sua finalità prevista in condizioni reali al di fuori di un laboratorio o di un ambiente altrimenti simulato al fine di raccogliere dati affidabili e solidi e di valutare e verificare la conformità del sistema di IA ai requisiti del presente regolamento e che non è considerata immissione sul mercato o messa in servizio del sistema di IA ai sensi del presente regolamento, purché siano soddisfatte tutte le condizioni di cui all&#039;[[Art.57|articolo 57]] o [[Art.60|60]];&lt;br /&gt;
&lt;br /&gt;
58) &amp;quot;soggetto&amp;quot;: ai fini della prova in condizioni reali, una persona fisica che partecipa a prove in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
59) &amp;quot;consenso informato&amp;quot;: l&#039;espressione libera, specifica, inequivocabile e volontaria di un soggetto della propria disponibilità a partecipare a una determinata prova in condizioni reali, dopo essere stato informato di tutti gli aspetti della prova rilevanti per la sua decisione di partecipare;&lt;br /&gt;
&lt;br /&gt;
60) &amp;quot;deep fake&amp;quot;: un&#039;immagine o un contenuto audio o video generato o manipolato dall&#039;IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona;&lt;br /&gt;
&lt;br /&gt;
61) &amp;quot;infrazione diffusa&amp;quot;: qualsiasi azione od omissione contraria al diritto dell&#039;Unione che tutela gli interessi delle persone:&lt;br /&gt;
a) che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone che risiedono in almeno due Stati membri diversi dallo Stato membro in cui:&lt;br /&gt;
i) ha avuto origine o si è verificato l&#039;azione o l&#039;omissione in questione;&lt;br /&gt;
ii) è ubicato o stabilito il fornitore interessato o, se del caso, il suo rappresentante autorizzato; oppure&lt;br /&gt;
iii) è stabilito il deployer, quando la violazione è commessa dal deployer;&lt;br /&gt;
b) che abbia arrecato, arrechi o possa arrecare un danno agli interessi collettivi di persone e che presenti caratteristiche comuni, compresa la stessa pratica illecita e lo stesso interesse leso e che si verifichi simultaneamente, commessa dal medesimo operatore, in almeno tre Stati membri;&lt;br /&gt;
&lt;br /&gt;
62) &amp;quot;infrastruttura critica&amp;quot;: infrastruttura critica quale definita all&#039;articolo 2, punto 4), della direttiva (UE) 2022/2557;&lt;br /&gt;
&lt;br /&gt;
63) &amp;quot;modello di IA per finalità generali&amp;quot;: un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l&#039;autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un&#039;ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato;&lt;br /&gt;
&lt;br /&gt;
64) &amp;quot;capacità di impatto elevato&amp;quot;: capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati;&lt;br /&gt;
&lt;br /&gt;
65) &amp;quot;rischio sistemico&amp;quot;: un rischio specifico per le capacità di impatto elevato dei modelli di IA per finalità generali, avente un impatto significativo sul mercato dell&#039;Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l&#039;intera catena del valore;&lt;br /&gt;
&lt;br /&gt;
66) &amp;quot;sistema di IA per finalità generali&amp;quot;: un sistema di IA basato su un modello di IA per finalità generali e che ha la capacità di perseguire varie finalità, sia per uso diretto che per integrazione in altri sistemi di IA;&lt;br /&gt;
&lt;br /&gt;
67) &amp;quot;operazione in virgola mobile&amp;quot;: qualsiasi operazione o assegnazione matematica che comporta numeri in virgola mobile, un sottoinsieme dei numeri reali generalmente rappresentati sui computer mediante un numero intero con precisione fissa avente come fattore di scala un esponente intero di una base fissa;&lt;br /&gt;
&lt;br /&gt;
68) &amp;quot;fornitore a valle&amp;quot;: un fornitore di un sistema di IA, compreso un sistema di IA per finalità generali, che integra un modello di IA, indipendentemente dal fatto che il modello di IA sia fornito dallo stesso e integrato verticalmente o fornito da un&#039;altra entità sulla base di relazioni contrattuali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.6|Considerando &#039;&#039;&#039;6&#039;&#039;&#039;]] •||[[C.7|Considerando &#039;&#039;&#039;7&#039;&#039;&#039;]] •||[[C.8|Considerando &#039;&#039;&#039;8&#039;&#039;&#039;]] •||[[C.9|Considerando &#039;&#039;&#039;9&#039;&#039;&#039;]] •||[[C.60|Considerando &#039;&#039;&#039;60&#039;&#039;&#039;]] •||[[C.110|Considerando &#039;&#039;&#039;110&#039;&#039;&#039;]] •||[[C.128|Considerando &#039;&#039;&#039;128&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.2&amp;diff=1061</id>
		<title>Art.2</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.2&amp;diff=1061"/>
		<updated>2024-07-08T14:06:02Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Ambito di applicazione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.2 (Ambito di applicazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Il presente regolamento si applica:&lt;br /&gt;
:a) ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell&#039;Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell&#039;Unione o in un paese terzo;&lt;br /&gt;
:b) ai deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all&#039;interno dell&#039;Unione;&lt;br /&gt;
:c) ai fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l&#039;output prodotto dal sistema di IA sia utilizzato nell&#039;Unione;&lt;br /&gt;
:d) agli importatori e ai distributori di sistemi di IA;&lt;br /&gt;
:e) ai fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio;&lt;br /&gt;
:f) ai rappresentanti autorizzati di fornitori, non stabiliti nell&#039;Unione;&lt;br /&gt;
:g) alle persone interessate che si trovano nell&#039;Unione.&amp;lt;/blockquote&amp;gt;2. Ai sistemi di IA classificati come ad alto rischio ai sensi dell&#039;articolo 6, paragrafo 1, relativo a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione B]], si applicano unicamente l’[[Art.6|articolo 6, paragrafo 1]], gli articoli da [[Art.102|102]] a [[Art.109|109]] e l&#039;[[Art.112|articolo 112]]. L&#039;[[Art.57|articolo 57]] si applica solo nella misura in cui i requisiti per i sistemi di IA ad alto rischio a norma del presente regolamento siano stati integrati in tale normativa di armonizzazione dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
3. Il presente regolamento non si applica a settori che non rientrano nell&#039;ambito di applicazione del diritto dell&#039;Unione e, in ogni caso, non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale, indipendentemente dal tipo di entità incaricata dagli Stati membri di svolgere compiti in relazione a tali competenze.&lt;br /&gt;
&lt;br /&gt;
Il presente regolamento non si applica ai sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;br /&gt;
&lt;br /&gt;
Il presente regolamento non si applica ai sistemi di IA che non sono immessi sul mercato o messi in servizio nell&#039;Unione, qualora l&#039;output sia utilizzato nell&#039;Unione esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.&lt;br /&gt;
&lt;br /&gt;
4. Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell&#039;ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro della cooperazione o di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l&#039;Unione o con uno o più Stati membri, a condizione che tale paese terzo o organizzazione internazionale fornisca garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone.&lt;br /&gt;
&lt;br /&gt;
5. Il presente regolamento non pregiudica l&#039;applicazione delle disposizioni sulla responsabilità dei prestatori di servizi intermediari di cui al capo II del regolamento (UE) 2022/2065.&lt;br /&gt;
&lt;br /&gt;
6. Il presente regolamento non si applica ai sistemi di IA o modelli di IA, ivi compresi i loro output, specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici.&lt;br /&gt;
&lt;br /&gt;
7. Il diritto dell&#039;Unione in materia di protezione dei dati personali, della vita privata e della riservatezza delle comunicazioni si applica ai dati personali trattati in relazione ai diritti e agli obblighi stabiliti dal presente regolamento. Il presente regolamento lascia impregiudicati il regolamento (UE) 2016/679 o (UE) 2018/1725 o la direttiva 2002/58/CE o (UE) 2016/680, fatti salvi l&#039;[[Art.10|articolo 10, paragrafo 5]], e l&#039;[[Art.59|articolo 59]] del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
8. Il presente regolamento non si applica alle attività di ricerca, prova o sviluppo relative a sistemi di IA o modelli di IA prima della loro immissione sul mercato o messa in servizio.&lt;br /&gt;
&lt;br /&gt;
9. Tali attività sono svolte in conformità del diritto dell&#039;Unione applicabile. Le prove in condizioni reali non rientrano in tale esclusione.&lt;br /&gt;
&lt;br /&gt;
Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell&#039;Unione in materia di protezione dei consumatori e di sicurezza dei prodotti.&lt;br /&gt;
&lt;br /&gt;
10. Il presente regolamento non si applica agli obblighi dei deployer che sono persone&lt;br /&gt;
&lt;br /&gt;
fisiche che utilizzano sistemi di IA nel corso di un&#039;attività non professionale puramente personale.&lt;br /&gt;
&lt;br /&gt;
11. Il presente regolamento non osta a che l&#039;Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all&#039;uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l&#039;applicazione di contratti collettivi più favorevoli ai lavoratori.&lt;br /&gt;
&lt;br /&gt;
12. Il presente regolamento non si applica ai sistemi di IA rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di IA ad alto rischio o come sistema di IA rientrante nell&#039;ambito di applicazione dell&#039;[[Art.5|articolo 5]] o [[Art.50|50]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.5|Considerando &#039;&#039;&#039;5&#039;&#039;&#039;]] •||[[C.10|Considerando &#039;&#039;&#039;10&#039;&#039;&#039;]] •||[[C.11|Considerando &#039;&#039;&#039;11&#039;&#039;&#039;]] •||[[C.12|Considerando &#039;&#039;&#039;12&#039;&#039;&#039;]] •||[[C.166|Considerando &#039;&#039;&#039;166&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.1&amp;diff=1060</id>
		<title>Art.1</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.1&amp;diff=1060"/>
		<updated>2024-07-08T14:01:51Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Oggetto&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.1 (Oggetto)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un&#039;intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell&#039;ambiente, contro gli effetti nocivi dei sistemi di IA nell&#039;Unione, e promuovendo l&#039;innovazione.&lt;br /&gt;
&lt;br /&gt;
2. Il presente regolamento stabilisce:&amp;lt;blockquote&amp;gt;a) regole armonizzate per l&#039;immissione sul mercato, la messa in servizio e l&#039;uso dei sistemi di IA nell&#039;Unione;&amp;lt;br /&amp;gt;b) divieti di talune pratiche di IA;&amp;lt;br /&amp;gt;c) requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;&amp;lt;br /&amp;gt;d) regole di trasparenza armonizzate per determinati sistemi di IA;&amp;lt;br /&amp;gt;e) regole armonizzate per l&#039;immissione sul mercato di modelli di IA per finalità generali;&amp;lt;br /&amp;gt;f) regole in materia di monitoraggio del mercato, vigilanza del mercato, governance ed esecuzione;&amp;lt;br /&amp;gt;g) misure a sostegno dell&#039;innovazione, con particolare attenzione alle PMI, comprese le start-up.&amp;lt;br /&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:WHEREAS.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.1|Considerando &#039;&#039;&#039;1&#039;&#039;&#039;]] •||[[C.4|Considerando &#039;&#039;&#039;4&#039;&#039;&#039;]] •||[[C.5|Considerando &#039;&#039;&#039;5&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Approfondimenti&amp;diff=876</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Approfondimenti&amp;diff=876"/>
		<updated>2024-06-24T17:13:11Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Ai act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [[https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [[https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.76&amp;diff=844</id>
		<title>Art.76</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.76&amp;diff=844"/>
		<updated>2024-06-19T08:04:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.76 (Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Le autorità di vigilanza del mercato hanno le competenze e i poteri per garantire che le prove in condizioni reali siano conformi al presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Qualora siano effettuate prove in condizioni reali per i sistemi di IA sottoposti a controllo all&#039;interno di uno spazio di sperimentazione normativa per l&#039;IA a norma dell&#039;[[Art.58|articolo 58]], le autorità di vigilanza del mercato verificano la conformità dell&#039;[[Art.60|articolo 60]] nell&#039;ambito del loro ruolo di controllo per lo spazio di sperimentazione normativa per l&#039;IA. Tali autorità possono, se del caso, consentire che le prove in condizioni reali siano effettuate dal fornitore o potenziale fornitore in deroga alle condizioni di cui all&#039;[[Art.60|articolo 60, paragrafo 4, lettere f) e g)]].&lt;br /&gt;
&lt;br /&gt;
3. Qualora sia stata informata dal potenziale fornitore, dal fornitore o da un terzo di un incidente grave o abbia altri motivi per ritenere che le condizioni di cui agli [[Art.60|articoli 60]] e [[Art.61|61]] non siano soddisfatte, un&#039;autorità di vigilanza del mercato può adottare una delle seguenti decisioni sul suo territorio, a seconda dei casi:&lt;br /&gt;
: a) sospendere o cessare le prove in condizioni reali;&lt;br /&gt;
: b) imporre al fornitore o potenziale fornitore e al deployer o al potenziale deployer di modificare qualsiasi aspetto delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
4. Ove un&#039;autorità di vigilanza del mercato abbia adottato una decisione di cui al paragrafo 3 o sollevato un&#039;obiezione ai sensi dell&#039;[[Art.60|articolo 60, paragrafo 4, lettera b)]], la decisione o l&#039;obiezione ne indica i motivi ed espone le modalità con cui il fornitore o potenziale fornitore può contestare la decisione o l&#039;obiezione.&lt;br /&gt;
&lt;br /&gt;
5. Se del caso, ove un&#039;autorità di vigilanza del mercato abbia adottato una decisione di cui al paragrafo 3, ne comunica i motivi alle autorità di vigilanza del mercato degli altri Stati membri in cui il sistema di IA è stato sottoposto a prova conformemente al piano di prova.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.76&amp;diff=843</id>
		<title>Art.76</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.76&amp;diff=843"/>
		<updated>2024-06-19T08:03:53Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.76 (Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Le autorità di vigilanza del mercato hanno le competenze e i poteri per garantire che le prove in condizioni reali siano conformi al presente regolamento.&lt;br /&gt;
&lt;br /&gt;
2. Qualora siano effettuate prove in condizioni reali per i sistemi di IA sottoposti a controllo all&#039;interno di uno spazio di sperimentazione normativa per l&#039;IA a norma dell&#039;[[Art.58|articolo 58]], le autorità di vigilanza del mercato verificano la conformità dell&#039;[[Art.60|articolo 60]] nell&#039;ambito del loro ruolo di controllo per lo spazio di sperimentazione normativa per l&#039;IA. Tali autorità possono, se del caso, consentire che le prove in condizioni reali siano effettuate dal fornitore o potenziale fornitore in deroga alle condizioni di cui all&#039;[[Art.60|articolo 60, paragrafo 4, lettere f) e g)]].&lt;br /&gt;
&lt;br /&gt;
3. Qualora sia stata informata dal potenziale fornitore, dal fornitore o da un terzo di un incidente grave o abbia altri motivi per ritenere che le condizioni di cui agli [[Art.60|articoli 60]] e [[Art.61|61]] non siano soddisfatte, un&#039;autorità di vigilanza del mercato può adottare una delle seguenti decisioni sul suo territorio, a seconda dei casi:&lt;br /&gt;
: a) sospendere o cessare le prove in condizioni reali;&lt;br /&gt;
: b) imporre al fornitore o potenziale fornitore e al deployer o al potenziale deployer di modificare qualsiasi aspetto delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
4. Ove un&#039;autorità di vigilanza del mercato abbia adottato una decisione di cui al paragrafo 3 o sollevato un&#039;obiezione ai sensi dell&#039;[[Art.60|articolo 60]], paragrafo 4, lettera b), la decisione o l&#039;obiezione ne indica i motivi ed espone le modalità con cui il fornitore o potenziale fornitore può contestare la decisione o l&#039;obiezione.&lt;br /&gt;
&lt;br /&gt;
5. Se del caso, ove un&#039;autorità di vigilanza del mercato abbia adottato una decisione di cui al paragrafo 3, ne comunica i motivi alle autorità di vigilanza del mercato degli altri Stati membri in cui il sistema di IA è stato sottoposto a prova conformemente al piano di prova.&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=812</id>
		<title>Art.61</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.61&amp;diff=812"/>
		<updated>2024-06-18T13:16:29Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&amp;#039;IA&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.61 (Consenso informato a partecipare a prove in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Ai fini delle prove in condizioni reali a norma dell&#039;[[Art.60|articolo 60]], il consenso informato dato liberamente dai soggetti delle prove è ottenuto prima della loro partecipazione a tali prove e dopo che sono stati debitamente informati con indicazioni concise, chiare, pertinenti e comprensibili riguardanti:&lt;br /&gt;
:a) la natura e gli obiettivi delle prove in condizioni reali e i possibili disagi che possono essere connessi alla loro partecipazione;&lt;br /&gt;
:b) le condizioni alle quali devono essere effettuate le prove in condizioni reali, compresa la durata prevista della partecipazione del soggetto o dei soggetti;&lt;br /&gt;
:c) i loro diritti e le garanzie riconosciute al soggetto in relazione alla loro partecipazione, in particolare il loro diritto di rifiutarsi di partecipare e il diritto di ritirarsi dalle prove in condizioni reali in qualsiasi momento, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione;&lt;br /&gt;
:d) le modalità per richiedere che le previsioni, raccomandazioni o decisioni del sistema di IA siano ignorate o ribaltate;&lt;br /&gt;
:e) il numero di identificazione unico a livello dell&#039;Unione delle prove in condizioni reali conformemente all&#039;[[Art.60|articolo 60, paragrafo 4, lettera c)]], e i dati di contatto del fornitore o del suo rappresentante legale da cui è possibile ottenere ulteriori informazioni.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il consenso informato è datato e documentato e una copia è consegnata ai soggetti delle prove o al loro rappresentante legale.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=810</id>
		<title>Art.60</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=810"/>
		<updated>2024-06-18T13:12:09Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA possono essere effettuate da fornitori o potenziali fornitori di sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], conformemente al presente articolo e al piano di prova in condizioni reali di cui al presente articolo, fatti salvi i divieti di cui all&#039;[[Art.5|articolo 5]]. La Commissione, per mezzo di atti di esecuzione, specifica nel dettaglio gli elementi del piano di prova in condizioni reali. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]]. Il presente paragrafo lascia impregiudicato il diritto dell&#039;Unione o nazionale concernente le prove in condizioni reali di sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori o potenziali fornitori possono effettuare prove dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] in condizioni reali in qualsiasi momento prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA, da soli o in partenariato con uno o più deployer o potenziali deployer.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le prove di sistemi di IA ad alto rischio in condizioni reali a norma del presente articolo non pregiudicano alcun esame etico che sia richiesto dal diritto dell&#039;Unione o nazionale. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: &lt;br /&gt;
:a) il fornitore o potenziale fornitore ha elaborato un piano di prova in condizioni reali e lo ha presentato all&#039;autorità di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali;&lt;br /&gt;
:b) l&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali ha approvato le prove in condizioni reali e il piano di prova in condizioni reali; se l&#039;autorità di vigilanza del mercato non ha fornito una risposta entro 30 giorni, le prove in condizioni reali e il piano di prova in condizioni reali sono da intendersi approvati; se il diritto nazionale non prevede un&#039;approvazione tacita, le prove in condizioni reali restano soggette ad autorizzazione;&lt;br /&gt;
:c) il fornitore o potenziale fornitore, ad eccezione dei fornitori o dei potenziali fornitori dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori delle attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere, e dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 2, ha registrato la prova in condizioni reali conformemente all&#039;[[Art.71|articolo 71, paragrafo 4]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni di cui all&#039;[[Allegato IX|allegato IX]]; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori dell’attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo di frontiera, ha registrato la prova in condizioni reali in una sezione sicura non pubblica della banca dati UE ai sensi dell&#039;[[Art.49|articolo 49, paragrafo 4, lettera d)]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni ivi specificate; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 2]], ha registrato la prova in condizioni reali conformemente all&#039;[[Art.49|articolo 49, paragrafo 5]];&lt;br /&gt;
:d) il fornitore o potenziale fornitore che effettua le prove in condizioni reali è stabilito nell&#039;Unione o ha nominato un rappresentante legale che è stabilito nell&#039;Unione;&lt;br /&gt;
:e) i dati raccolti e trattati ai fini delle prove in condizioni reali sono trasferiti a paesi terzi solo a condizione che siano poste in essere tutele adeguate e applicabili ai sensi del diritto dell&#039;Unione;&lt;br /&gt;
:f) le prove in condizioni reali non durano più di quanto necessario per conseguire i rispettivi obiettivi e, in ogni caso, non più di sei mesi, che possono essere prorogati per un ulteriore periodo di sei mesi, previa notifica da parte del fornitore o del potenziale fornitore all’autorità di vigilanza del mercato, corredata della motivazione relativa alla necessità di tale proroga;&lt;br /&gt;
:g) i soggetti delle prove in condizioni reali che sono persone appartenenti a gruppi vulnerabili a causa della loro età o disabilità sono adeguatamente protetti;&lt;br /&gt;
:h) qualora un fornitore o potenziale fornitore organizzi le prove in condizioni reali in cooperazione con uno o più deployer o potenziali deployer, questi ultimi sono stati informati di tutti gli aspetti delle prove pertinenti per la loro decisione di partecipare e hanno ricevuto le istruzioni pertinenti per l&#039;uso del sistema di IA di cui all&#039;[[Art.13|articolo 13]]; il fornitore o potenziale fornitore e il deployer o potenziale deployer concludono un accordo che ne specifica i ruoli e le responsabilità al fine di garantire la conformità alle disposizioni relative alle prove in condizioni reali ai sensi del presente regolamento e di altre disposizioni applicabili di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:i) i soggetti delle prove in condizioni reali hanno dato il proprio consenso informato a norma dell&#039;[[Art.61|articolo 61]] o, nel caso delle attività di contrasto, qualora la richiesta di consenso informato impedisca di sottoporre a prova il sistema di IA, le prove stesse e i risultati delle prove in condizioni reali non hanno alcun effetto negativo sui soggetti e i loro dati personali sono cancellati dopo lo svolgimento della prova;&lt;br /&gt;
:j) le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell&#039;autorità necessarie per svolgere i loro compiti;&lt;br /&gt;
:k) le previsioni, le raccomandazioni o le decisioni del sistema di IA possono essere efficacemente ribaltate e ignorate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Qualsiasi soggetto delle prove in condizioni reali, o il suo rappresentante legale designato, a seconda dei casi, può, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e può chiedere la cancellazione immediata e permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. A norma dell&#039;[[Art.75|articolo 75]], gli Stati membri conferiscono alle loro autorità di vigilanza del mercato il potere di imporre ai fornitori e ai potenziali fornitori di fornire informazioni, di effettuare ispezioni a distanza o in loco senza preavviso e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di IA ad alto rischio. Le autorità di vigilanza del mercato si avvalgono di tali poteri per garantire lo sviluppo in sicurezza delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Qualsiasi incidente grave individuato nel corso delle prove in condizioni reali è segnalato all&#039;autorità nazionale di vigilanza del mercato conformemente all&#039;[[Art.73|articolo 73]]. Il fornitore o potenziale fornitore adotta misure di attenuazione immediate o, in mancanza di ciò, sospende le prove in condizioni reali fino a quando tale attenuazione non abbia luogo oppure vi pone fine. Il fornitore o potenziale fornitore stabilisce una procedura per il tempestivo ritiro del sistema di IA in seguito a tale cessazione delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. I fornitori o potenziali fornitori notificano all&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o la cessazione delle prove in condizioni reali nonché i risultati finali.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. Il fornitore o potenziale fornitore è responsabile ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni causati nel corso delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=809</id>
		<title>Art.60</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=809"/>
		<updated>2024-06-18T13:11:44Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA possono essere effettuate da fornitori o potenziali fornitori di sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], conformemente al presente articolo e al piano di prova in condizioni reali di cui al presente articolo, fatti salvi i divieti di cui all&#039;[[Art.5|articolo 5]]. La Commissione, per mezzo di atti di esecuzione, specifica nel dettaglio gli elementi del piano di prova in condizioni reali. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]]. Il presente paragrafo lascia impregiudicato il diritto dell&#039;Unione o nazionale concernente le prove in condizioni reali di sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori o potenziali fornitori possono effettuare prove dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] in condizioni reali in qualsiasi momento prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA, da soli o in partenariato con uno o più deployer o potenziali deployer.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le prove di sistemi di IA ad alto rischio in condizioni reali a norma del presente articolo non pregiudicano alcun esame etico che sia richiesto dal diritto dell&#039;Unione o nazionale. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: &lt;br /&gt;
:a) il fornitore o potenziale fornitore ha elaborato un piano di prova in condizioni reali e lo ha presentato all&#039;autorità di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali;&lt;br /&gt;
:b) l&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali ha approvato le prove in condizioni reali e il piano di prova in condizioni reali; se l&#039;autorità di vigilanza del mercato non ha fornito una risposta entro 30 giorni, le prove in condizioni reali e il piano di prova in condizioni reali sono da intendersi approvati; se il diritto nazionale non prevede un&#039;approvazione tacita, le prove in condizioni reali restano soggette ad autorizzazione;&lt;br /&gt;
:c) il fornitore o potenziale fornitore, ad eccezione dei fornitori o dei potenziali fornitori dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori delle attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere, e dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punto 2, ha registrato la prova in condizioni reali conformemente all&#039;[[Art.71|articolo 71, paragrafo 4]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni di cui all&#039;[[Allegato IX|allegato IX]]; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7, nei settori dell’attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo di frontiera, ha registrato la prova in condizioni reali in una sezione sicura non pubblica della banca dati UE ai sensi dell&#039;[[Art.49|articolo 49, paragrafo 4, lettera d)]], con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni ivi specificate; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punto 2]], ha registrato la prova in condizioni reali conformemente all&#039;[[Art.49|articolo 49, paragrafo 5]];&lt;br /&gt;
:d) il fornitore o potenziale fornitore che effettua le prove in condizioni reali è stabilito nell&#039;Unione o ha nominato un rappresentante legale che è stabilito nell&#039;Unione;&lt;br /&gt;
:e) i dati raccolti e trattati ai fini delle prove in condizioni reali sono trasferiti a paesi terzi solo a condizione che siano poste in essere tutele adeguate e applicabili ai sensi del diritto dell&#039;Unione;&lt;br /&gt;
:f) le prove in condizioni reali non durano più di quanto necessario per conseguire i rispettivi obiettivi e, in ogni caso, non più di sei mesi, che possono essere prorogati per un ulteriore periodo di sei mesi, previa notifica da parte del fornitore o del potenziale fornitore all’autorità di vigilanza del mercato, corredata della motivazione relativa alla necessità di tale proroga;&lt;br /&gt;
:g) i soggetti delle prove in condizioni reali che sono persone appartenenti a gruppi vulnerabili a causa della loro età o disabilità sono adeguatamente protetti;&lt;br /&gt;
:h) qualora un fornitore o potenziale fornitore organizzi le prove in condizioni reali in cooperazione con uno o più deployer o potenziali deployer, questi ultimi sono stati informati di tutti gli aspetti delle prove pertinenti per la loro decisione di partecipare e hanno ricevuto le istruzioni pertinenti per l&#039;uso del sistema di IA di cui all&#039;[[Art.13|articolo 13]]; il fornitore o potenziale fornitore e il deployer o potenziale deployer concludono un accordo che ne specifica i ruoli e le responsabilità al fine di garantire la conformità alle disposizioni relative alle prove in condizioni reali ai sensi del presente regolamento e di altre disposizioni applicabili di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:i) i soggetti delle prove in condizioni reali hanno dato il proprio consenso informato a norma dell&#039;[[Art.61|articolo 61]] o, nel caso delle attività di contrasto, qualora la richiesta di consenso informato impedisca di sottoporre a prova il sistema di IA, le prove stesse e i risultati delle prove in condizioni reali non hanno alcun effetto negativo sui soggetti e i loro dati personali sono cancellati dopo lo svolgimento della prova;&lt;br /&gt;
j) le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell&#039;autorità necessarie per svolgere i loro compiti;&lt;br /&gt;
:k) le previsioni, le raccomandazioni o le decisioni del sistema di IA possono essere efficacemente ribaltate e ignorate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Qualsiasi soggetto delle prove in condizioni reali, o il suo rappresentante legale designato, a seconda dei casi, può, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e può chiedere la cancellazione immediata e permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. A norma dell&#039;[[Art.75|articolo 75]], gli Stati membri conferiscono alle loro autorità di vigilanza del mercato il potere di imporre ai fornitori e ai potenziali fornitori di fornire informazioni, di effettuare ispezioni a distanza o in loco senza preavviso e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di IA ad alto rischio. Le autorità di vigilanza del mercato si avvalgono di tali poteri per garantire lo sviluppo in sicurezza delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Qualsiasi incidente grave individuato nel corso delle prove in condizioni reali è segnalato all&#039;autorità nazionale di vigilanza del mercato conformemente all&#039;[[Art.73|articolo 73]]. Il fornitore o potenziale fornitore adotta misure di attenuazione immediate o, in mancanza di ciò, sospende le prove in condizioni reali fino a quando tale attenuazione non abbia luogo oppure vi pone fine. Il fornitore o potenziale fornitore stabilisce una procedura per il tempestivo ritiro del sistema di IA in seguito a tale cessazione delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. I fornitori o potenziali fornitori notificano all&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o la cessazione delle prove in condizioni reali nonché i risultati finali.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. Il fornitore o potenziale fornitore è responsabile ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni causati nel corso delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=807</id>
		<title>Art.60</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.60&amp;diff=807"/>
		<updated>2024-06-18T13:08:16Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&amp;#039;IA&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Ar...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.60 (Prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le prove di sistemi di IA ad alto rischio in condizioni reali al di fuori degli spazi di sperimentazione normativa per l&#039;IA possono essere effettuate da fornitori o potenziali fornitori di sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], conformemente al presente articolo e al piano di prova in condizioni reali di cui al presente articolo, fatti salvi i divieti di cui all&#039;[[Art.5|articolo 5]]. La Commissione, per mezzo di atti di esecuzione, specifica nel dettaglio gli elementi del piano di prova in condizioni reali. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]]. Il presente paragrafo lascia impregiudicato il diritto dell&#039;Unione o nazionale concernente le prove in condizioni reali di sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;allegato I.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori o potenziali fornitori possono effettuare prove dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] in condizioni reali in qualsiasi momento prima dell&#039;immissione sul mercato o della messa in servizio del sistema di IA, da soli o in partenariato con uno o più deployer o potenziali deployer.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le prove di sistemi di IA ad alto rischio in condizioni reali a norma del presente articolo non pregiudicano alcun esame etico che sia richiesto dal diritto dell&#039;Unione o nazionale. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori o potenziali fornitori possono effettuare le prove in condizioni reali solo se sono soddisfatte tutte le condizioni seguenti: &lt;br /&gt;
:a) il fornitore o potenziale fornitore ha elaborato un piano di prova in condizioni reali e lo ha presentato all&#039;autorità di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali;&lt;br /&gt;
:b) l&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali ha approvato le prove in condizioni reali e il piano di prova in condizioni reali; se l&#039;autorità di vigilanza del mercato non ha fornito una risposta entro 30 giorni, le prove in condizioni reali e il piano di prova in condizioni reali sono da intendersi approvati; se il diritto nazionale non prevede un&#039;approvazione tacita, le prove in condizioni reali restano soggette ad autorizzazione;&lt;br /&gt;
c) il fornitore o potenziale fornitore, ad eccezione dei fornitori o dei potenziali fornitori dei sistemi di IA ad alto rischio di cui all&#039;allegato III, punti 1, 6 e 7, nei settori delle attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere, e dei sistemi di IA ad alto rischio di cui all&#039;allegato III, punto 2, ha registrato la prova in condizioni reali conformemente all&#039;articolo 71, paragrafo 4, con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni di cui all&#039;allegato IX; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;allegato III, punti 1, 6 e 7, nei settori dell’attività di contrasto, della migrazione, dell&#039;asilo e della gestione del controllo di frontiera, ha registrato la prova in condizioni reali in una sezione sicura non pubblica della banca dati UE ai sensi dell&#039;articolo 49, paragrafo 4, lettera d), con un numero di identificazione unico a livello dell&#039;Unione e con le informazioni ivi specificate; il fornitore o il potenziale fornitore di sistemi di IA ad alto rischio di cui all&#039;allegato III, punto 2, ha registrato la prova in condizioni reali conformemente all&#039;articolo 49, paragrafo 5;&lt;br /&gt;
:d) il fornitore o potenziale fornitore che effettua le prove in condizioni reali è stabilito nell&#039;Unione o ha nominato un rappresentante legale che è stabilito nell&#039;Unione;&lt;br /&gt;
:e) i dati raccolti e trattati ai fini delle prove in condizioni reali sono trasferiti a paesi terzi solo a condizione che siano poste in essere tutele adeguate e applicabili ai sensi del diritto dell&#039;Unione;&lt;br /&gt;
:f) le prove in condizioni reali non durano più di quanto necessario per conseguire i rispettivi obiettivi e, in ogni caso, non più di sei mesi, che possono essere prorogati per un ulteriore periodo di sei mesi, previa notifica da parte del fornitore o del potenziale fornitore all’autorità di vigilanza del mercato, corredata della motivazione relativa alla necessità di tale proroga;&lt;br /&gt;
:g) i soggetti delle prove in condizioni reali che sono persone appartenenti a gruppi vulnerabili a causa della loro età o disabilità sono adeguatamente protetti;&lt;br /&gt;
:h) qualora un fornitore o potenziale fornitore organizzi le prove in condizioni reali in cooperazione con uno o più deployer o potenziali deployer, questi ultimi sono stati informati di tutti gli aspetti delle prove pertinenti per la loro decisione di partecipare e hanno ricevuto le istruzioni pertinenti per l&#039;uso del sistema di IA di cui all&#039;[[Art.13|articolo 13]]; il fornitore o potenziale fornitore e il deployer o potenziale deployer concludono un accordo che ne specifica i ruoli e le responsabilità al fine di garantire la conformità alle disposizioni relative alle prove in condizioni reali ai sensi del presente regolamento e di altre disposizioni applicabili di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:i) i soggetti delle prove in condizioni reali hanno dato il proprio consenso informato a norma dell&#039;[[Art.61|articolo 61]] o, nel caso delle attività di contrasto, qualora la richiesta di consenso informato impedisca di sottoporre a prova il sistema di IA, le prove stesse e i risultati delle prove in condizioni reali non hanno alcun effetto negativo sui soggetti e i loro dati personali sono cancellati dopo lo svolgimento della prova;&lt;br /&gt;
j) le prove in condizioni reali sono efficacemente supervisionate dal fornitore o potenziale fornitore, nonché dai deployer o dai potenziali deployer, tramite persone adeguatamente qualificate nel settore pertinente e dotate delle capacità, della formazione e dell&#039;autorità necessarie per svolgere i loro compiti;&lt;br /&gt;
:k) le previsioni, le raccomandazioni o le decisioni del sistema di IA possono essere efficacemente ribaltate e ignorate.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Qualsiasi soggetto delle prove in condizioni reali, o il suo rappresentante legale designato, a seconda dei casi, può, senza alcun conseguente pregiudizio e senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e può chiedere la cancellazione immediata e permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. A norma dell&#039;[[Art.75|articolo 75]], gli Stati membri conferiscono alle loro autorità di vigilanza del mercato il potere di imporre ai fornitori e ai potenziali fornitori di fornire informazioni, di effettuare ispezioni a distanza o in loco senza preavviso e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di IA ad alto rischio. Le autorità di vigilanza del mercato si avvalgono di tali poteri per garantire lo sviluppo in sicurezza delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Qualsiasi incidente grave individuato nel corso delle prove in condizioni reali è segnalato all&#039;autorità nazionale di vigilanza del mercato conformemente all&#039;[[Art.73|articolo 73]]. Il fornitore o potenziale fornitore adotta misure di attenuazione immediate o, in mancanza di ciò, sospende le prove in condizioni reali fino a quando tale attenuazione non abbia luogo oppure vi pone fine. Il fornitore o potenziale fornitore stabilisce una procedura per il tempestivo ritiro del sistema di IA in seguito a tale cessazione delle prove in condizioni reali.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. I fornitori o potenziali fornitori notificano all&#039;autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o la cessazione delle prove in condizioni reali nonché i risultati finali.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. Il fornitore o potenziale fornitore è responsabile ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni causati nel corso delle prove in condizioni reali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.59&amp;diff=804</id>
		<title>Art.59</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.59&amp;diff=804"/>
		<updated>2024-06-18T12:58:44Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l&amp;#039;IA di determinati sistemi di IA nell&amp;#039;interesse pubbl...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l&#039;IA di determinati sistemi di IA nell&#039;interesse pubblico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.59 (OUlteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativaper l&#039;IA di determinati sistemi di IA nell&#039;interesse pubblico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Nello spazio di sperimentazione normativa per l’IA, i dati personali legalmente raccolti per altre finalità possono essere trattati unicamente ai fini dello sviluppo, dell&#039;addestramento e delle prove di determinati sistemi di IA nello spazio di sperimentazione quando sono soddisfatte tutte le condizioni seguenti:&lt;br /&gt;
:a) i sistemi di IA sono sviluppati per salvaguardare un interesse pubblico rilevante da parte di un&#039;autorità pubblica o di un&#039;altra persona fisica o giuridica e in uno o più dei settori seguenti:&lt;br /&gt;
::i) la sicurezza pubblica e la sanità pubblica, compresi l&#039;individuazione, la diagnosi, la prevenzione, il controllo e il trattamento delle malattie e il miglioramento dei sistemi sanitari;&lt;br /&gt;
::ii) un elevato livello di protezione e di miglioramento della qualità dell&#039;ambiente, la tutela della biodiversità, la protezione contro l&#039;inquinamento, le misure per la transizione verde, la mitigazione dei cambiamenti climatici e l&#039;adattamento ad essi;&lt;br /&gt;
::iii) la sostenibilità energetica;&lt;br /&gt;
::iv) la sicurezza e la resilienza dei sistemi di trasporto e della mobilità, delle infrastrutture critiche e delle reti;&lt;br /&gt;
::v) l&#039;efficienza e la qualità della pubblica amministrazione e dei servizi pubblici;&lt;br /&gt;
:b) i dati trattati sono necessari per il rispetto di uno o più dei requisiti di cui al capo III, sezione 2, qualora tali requisiti non possano essere efficacemente soddisfatti mediante il trattamento di dati anonimizzati, sintetici o di altri dati non personali;&lt;br /&gt;
:c) esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti e le libertà degli interessati di cui all&#039;articolo 35 del regolamento (UE) 2016/679 e all&#039;articolo 39 del regolamento (UE) 2018/1725 durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;&lt;br /&gt;
:d) i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo del potenziale fornitore e solo le persone autorizzate hanno accesso a tali dati;&lt;br /&gt;
:e) i fornitori possono condividere ulteriormente i dati originariamente raccolti solo in conformità del diritto dell&#039;Unione in materia di protezione dei dati; i dati personali creati nello spazio di sperimentazione non possono essere condivisi al di fuori dello spazio di sperimentazione;&lt;br /&gt;
:f) il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati né incide sull&#039;applicazione dei loro diritti sanciti dal diritto dell&#039;Unione in materia di protezione dei dati personali; &lt;br /&gt;
:g) i dati personali trattati nell&#039;ambito dello spazio di sperimentazione sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;&lt;br /&gt;
:h) i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione, salvo diversa disposizione del diritto dell&#039;Unione o nazionale;&lt;br /&gt;
:i) una descrizione completa e dettagliata del processo e della logica alla base dell&#039;addestramento, delle prove e della convalida del sistema di IA è conservata insieme ai risultati delle prove nell&#039;ambito della documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]];&lt;br /&gt;
:j) una breve sintesi del progetto di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi e dei risultati attesi è pubblicata sul sito web delle autorità competenti; tale obbligo non riguarda i dati operativi sensibili in relazione alle attività delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo.&lt;br /&gt;
2. A fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse, sotto il controllo e la responsabilità delle autorità di contrasto, il trattamento dei dati personali negli spazi di sperimentazione normativa per l&#039;IA si basa su una specifica disposizione di diritto nazionale o dell&#039;Unione ed è soggetto alle stesse condizioni cumulative di cui al paragrafo 1.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Il paragrafo 1 lascia impregiudicate le disposizioni del diritto dell&#039;Unione o nazionale che escludono il trattamento dei dati personali per fini diversi da quelli espressamente menzionati in tali disposizioni, nonché il diritto dell&#039;Unione o nazionale che stabilisce la base per il trattamento dei dati personali necessario ai fini dello sviluppo, delle prove e dell&#039;addestramento di sistemi di IA innovativi o qualsiasi altra base giuridica, conformemente al diritto dell&#039;Unione in materia di protezione dei dati personali.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=802</id>
		<title>Art.58</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=802"/>
		<updated>2024-06-17T17:19:34Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.58 (Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Onde evitare la frammentazione nell&#039;intera Unione, la Commissione adotta atti di esecuzione che precisano le modalità dettagliate per l&#039;istituzione, lo sviluppo, l&#039;attuazione, il funzionamento e la supervisione degli spazi di sperimentazione normativa per l&#039;IA. Tali atti di esecuzione comprendono principi comuni sulle questioni seguenti:&lt;br /&gt;
:a) criteri di ammissibilità e selezione per la partecipazione allo spazio di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:b) procedure per la domanda, la partecipazione, il monitoraggio, l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA e la sua cessazione, compresi il piano dello spazio di sperimentazione e la relazione di uscita;&lt;br /&gt;
:c) i termini e le condizioni applicabili ai partecipanti.&lt;br /&gt;
Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Gli atti di esecuzione di cui al paragrafo 1 garantiscono:&lt;br /&gt;
:a) che gli spazi di sperimentazione normativa per l&#039;IA siano aperti a qualsiasi fornitore o potenziale fornitore richiedente di un sistema di IA che soddisfi criteri di ammissibilità e selezione trasparenti ed equi, e che le autorità nazionali competenti informino i richiedenti della loro decisione entro tre mesi dalla domanda;&lt;br /&gt;
:b) che gli spazi di sperimentazione normativa consentano un accesso ampio e paritario e tengano il passo con la domanda di partecipazione; i fornitori e i potenziali fornitori possono anche presentare domande in partenariato con gli deployers e con altri terzi interessati;&lt;br /&gt;
:c) che le modalità dettagliate e le condizioni relative agli spazi di sperimentazione normativa per l&#039;IA sostengano la flessibilità, nella massima misura possibile, affinché le autorità nazionali competenti istituiscano e gestiscano i loro spazi di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:d) che l&#039;accesso agli spazi di sperimentazione normativa per l&#039;IA sia gratuito per le PMI, comprese le start-up, fatti salvi i costi straordinari che le autorità nazionali competenti possono recuperare in maniera equa e proporzionata;&lt;br /&gt;
:e) che i fornitori e i potenziali fornitori siano agevolati, attraverso i risultati dell&#039;apprendimento degli spazi di sperimentazione normativa per l&#039;IA, a conformarsi agli obblighi di valutazione della conformità di cui al presente regolamento e all&#039;applicazione volontaria dei codici di condotta di cui all&#039;[[Art.95|articolo 95]];&lt;br /&gt;
:f) che gli spazi di sperimentazione normativa per l&#039;IA facilitino il coinvolgimento di altri attori pertinenti nell&#039;ambito dell&#039;ecosistema dell&#039;IA, quali organismi notificati e organizzazioni di normazione, PMI, comprese start-up, imprese, innovatori, impianti di prova e sperimentazione, laboratori di ricerca e sperimentazione e poli europei dell&#039;innovazione digitale, centri di eccellenza e singoli ricercatori, al fine di consentire e facilitare la cooperazione con i settori pubblico e privato;&lt;br /&gt;
:g) che le procedure, i processi e i requisiti amministrativi per l&#039;applicazione, la selezione, la partecipazione e l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA siano semplici, facilmente intelligibili, comunicati chiaramente per agevolare la partecipazione delle PMI, comprese le start-up, con capacità giuridiche e amministrative limitate e siano razionalizzati in tutta l&#039;Unione, al fine di evitare la frammentazione e che la partecipazione a uno spazio di sperimentazione normativa per l&#039;IA istituito da uno Stato membro o dal Garante europeo della protezione dei dati sia reciprocamente e uniformemente riconosciuta e produca gli stessi effetti giuridici nell&#039;intera Unione;&lt;br /&gt;
:h) che la partecipazione allo spazio di sperimentazione normativa per l&#039;IA sia limitata a un periodo adeguato alla complessità e alla portata del progetto, che può essere prorogato dall&#039;autorità nazionale competente;&lt;br /&gt;
:i) che gli spazi di sperimentazione normativa per l&#039;IA agevolino lo sviluppo di strumenti e infrastrutture per la sperimentazione, l&#039;analisi comparativa, la valutazione e la spiegazione delle dimensioni dei sistemi di IA pertinenti per l&#039;apprendimento normativo, quali l&#039;accuratezza, la robustezza e la cibersicurezza, nonché le misure per attenuare i rischi per i diritti fondamentali e la società in generale.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I potenziali fornitori degli spazi di sperimentazione normativa per l&#039;IA, soprattutto le PMI e le start-up, sono indirizzati, se del caso, a servizi di pre-diffusione, quali gli orientamenti sull&#039;attuazione del presente regolamento, ad altri servizi a valore aggiunto, quali l&#039;assistenza per i documenti di normazione e la certificazione, gli impianti di prova e sperimentazione, i poli europei dell&#039;innovazione digitale e i centri di eccellenza.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Quando valutano la possibilità di autorizzare prove in condizioni reali sottoposte a controllo nel quadro di uno spazio di sperimentazione normativa per l&#039;IA da istituire a norma del presente articolo, le autorità nazionali competenti concordano in modo specifico con i partecipanti i termini e le condizioni di tali prove e, in particolare, le tutele adeguate al fine di proteggere i diritti fondamentali, la salute e la sicurezza. Se del caso, cooperano con altre autorità nazionali competenti al fine di garantire pratiche coerenti in tutta l&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=801</id>
		<title>Art.58</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.58&amp;diff=801"/>
		<updated>2024-06-17T17:19:21Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&amp;#039;IA&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Articoli {{DEFAULTSORT:Art.58 (Mo...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.58 (Modalità dettagliate e funzionamento degli spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Onde evitare la frammentazione nell&#039;intera Unione, la Commissione adotta atti di esecuzione che precisano le modalità dettagliate per l&#039;istituzione, lo sviluppo, l&#039;attuazione, il funzionamento e la supervisione degli spazi di sperimentazione normativa per l&#039;IA. Tali atti di esecuzione comprendono principi comuni sulle questioni seguenti:&lt;br /&gt;
:a) criteri di ammissibilità e selezione per la partecipazione allo spazio di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:b) procedure per la domanda, la partecipazione, il monitoraggio, l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA e la sua cessazione, compresi il piano dello spazio di sperimentazione e la relazione di uscita;&lt;br /&gt;
:c) i termini e le condizioni applicabili ai partecipanti.&lt;br /&gt;
Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&lt;br /&gt;
2. Gli atti di esecuzione di cui al paragrafo 1 garantiscono:&lt;br /&gt;
:a) che gli spazi di sperimentazione normativa per l&#039;IA siano aperti a qualsiasi fornitore o potenziale fornitore richiedente di un sistema di IA che soddisfi criteri di ammissibilità e selezione trasparenti ed equi, e che le autorità nazionali competenti informino i richiedenti della loro decisione entro tre mesi dalla domanda;&lt;br /&gt;
:b) che gli spazi di sperimentazione normativa consentano un accesso ampio e paritario e tengano il passo con la domanda di partecipazione; i fornitori e i potenziali fornitori possono anche presentare domande in partenariato con gli deployers e con altri terzi interessati;&lt;br /&gt;
:c) che le modalità dettagliate e le condizioni relative agli spazi di sperimentazione normativa per l&#039;IA sostengano la flessibilità, nella massima misura possibile, affinché le autorità nazionali competenti istituiscano e gestiscano i loro spazi di sperimentazione normativa per l&#039;IA;&lt;br /&gt;
:d) che l&#039;accesso agli spazi di sperimentazione normativa per l&#039;IA sia gratuito per le PMI, comprese le start-up, fatti salvi i costi straordinari che le autorità nazionali competenti possono recuperare in maniera equa e proporzionata;&lt;br /&gt;
:e) che i fornitori e i potenziali fornitori siano agevolati, attraverso i risultati dell&#039;apprendimento degli spazi di sperimentazione normativa per l&#039;IA, a conformarsi agli obblighi di valutazione della conformità di cui al presente regolamento e all&#039;applicazione volontaria dei codici di condotta di cui all&#039;[[Art.95|articolo 95]];&lt;br /&gt;
:f) che gli spazi di sperimentazione normativa per l&#039;IA facilitino il coinvolgimento di altri attori pertinenti nell&#039;ambito dell&#039;ecosistema dell&#039;IA, quali organismi notificati e organizzazioni di normazione, PMI, comprese start-up, imprese, innovatori, impianti di prova e sperimentazione, laboratori di ricerca e sperimentazione e poli europei dell&#039;innovazione digitale, centri di eccellenza e singoli ricercatori, al fine di consentire e facilitare la cooperazione con i settori pubblico e privato;&lt;br /&gt;
:g) che le procedure, i processi e i requisiti amministrativi per l&#039;applicazione, la selezione, la partecipazione e l&#039;uscita dallo spazio di sperimentazione normativa per l&#039;IA siano semplici, facilmente intelligibili, comunicati chiaramente per agevolare la partecipazione delle PMI, comprese le start-up, con capacità giuridiche e amministrative limitate e siano razionalizzati in tutta l&#039;Unione, al fine di evitare la frammentazione e che la partecipazione a uno spazio di sperimentazione normativa per l&#039;IA istituito da uno Stato membro o dal Garante europeo della protezione dei dati sia reciprocamente e uniformemente riconosciuta e produca gli stessi effetti giuridici nell&#039;intera Unione;&lt;br /&gt;
:h) che la partecipazione allo spazio di sperimentazione normativa per l&#039;IA sia limitata a un periodo adeguato alla complessità e alla portata del progetto, che può essere prorogato dall&#039;autorità nazionale competente;&lt;br /&gt;
:i) che gli spazi di sperimentazione normativa per l&#039;IA agevolino lo sviluppo di strumenti e infrastrutture per la sperimentazione, l&#039;analisi comparativa, la valutazione e la spiegazione delle dimensioni dei sistemi di IA pertinenti per l&#039;apprendimento normativo, quali l&#039;accuratezza, la robustezza e la cibersicurezza, nonché le misure per attenuare i rischi per i diritti fondamentali e la società in generale.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I potenziali fornitori degli spazi di sperimentazione normativa per l&#039;IA, soprattutto le PMI e le start-up, sono indirizzati, se del caso, a servizi di pre-diffusione, quali gli orientamenti sull&#039;attuazione del presente regolamento, ad altri servizi a valore aggiunto, quali l&#039;assistenza per i documenti di normazione e la certificazione, gli impianti di prova e sperimentazione, i poli europei dell&#039;innovazione digitale e i centri di eccellenza.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Quando valutano la possibilità di autorizzare prove in condizioni reali sottoposte a controllo nel quadro di uno spazio di sperimentazione normativa per l&#039;IA da istituire a norma del presente articolo, le autorità nazionali competenti concordano in modo specifico con i partecipanti i termini e le condizioni di tali prove e, in particolare, le tutele adeguate al fine di proteggere i diritti fondamentali, la salute e la sicurezza. Se del caso, cooperano con altre autorità nazionali competenti al fine di garantire pratiche coerenti in tutta l&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.50&amp;diff=800</id>
		<title>Art.50</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.50&amp;diff=800"/>
		<updated>2024-06-17T17:13:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.50 (Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente. I fornitori garantiscono che le loro soluzioni tecniche siano efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell&#039;arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche. Tale obbligo non si applica se i sistemi di IA svolgono una funzione di assistenza per l&#039;editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica, o se autorizzati dalla legge ad accertare, prevenire, indagare o perseguire reati.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema e trattano i dati personali in conformità dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680, a seconda dei casi. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il riconoscimento delle emozioni autorizzati dalla legge per accertare, prevenire o indagare reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi e conformemente al diritto dell&#039;Unione.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un &amp;quot;deep fake&amp;quot; rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l&#039;uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati. Qualora il contenuto faccia parte di un&#039;analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all&#039;obbligo di rivelare l&#039;esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l&#039;esposizione o il godimento dell&#039;opera.&amp;lt;br /&amp;gt;&lt;br /&gt;
I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l&#039;uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall&#039;IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto. &amp;lt;br /&amp;gt;&lt;br /&gt;
5. Le informazioni di cui ai paragrafi da 1 a 4 sono fornite alle persone fisiche interessate in maniera chiara e distinguibile al più tardi al momento della prima interazione o esposizione. Le informazioni devono essere conformi ai requisiti di accessibilità applicabili. &amp;lt;br /&amp;gt;&lt;br /&gt;
6. I paragrafi da 1 a 4 lasciano impregiudicati i requisiti e gli obblighi di cui al capo III, così come gli altri obblighi di trasparenza stabiliti dal diritto dell&#039;Unione o nazionale per i deployer dei sistemi di IA. &amp;lt;br /&amp;gt;&lt;br /&gt;
7. L&#039;ufficio per l&#039;IA incoraggia e agevola l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione per facilitare l&#039;efficace attuazione degli obblighi relativi alla rilevazione e all&#039;etichettatura dei contenuti generati o manipolati artificialmente. La Commissione può adottare atti di esecuzione per approvare tali codici di buone pratiche secondo la procedura di cui all&#039;[[Art.56|articolo 56, paragrafo 6]]. Se ritiene che il codice non sia adeguato, la Commissione può adottare un atto di esecuzione che specifichi norme comuni per l&#039;attuazione di tali obblighi secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.22|Considerando &#039;&#039;&#039;22&#039;&#039;&#039;]]•||[[C.72|Considerando &#039;&#039;&#039;72&#039;&#039;&#039;]]•||[[C.73|Considerando &#039;&#039;&#039;73&#039;&#039;&#039;]]•||[[C.132|Considerando &#039;&#039;&#039;132&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.57&amp;diff=799</id>
		<title>Art.57</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.57&amp;diff=799"/>
		<updated>2024-06-17T17:11:46Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Spazi di sperimentazione normativa per l&amp;#039;IA&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Articoli {{DEFAULTSORT:Art.57 (Spazi di sperimentazione normativa per l&amp;#039;IA)}}...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Spazi di sperimentazione normativa per l&#039;IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.57 (Spazi di sperimentazione normativa per l&#039;IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Gli Stati membri provvedono affinché le loro autorità competenti istituiscano almeno uno spazio di sperimentazione normativa per l&#039;IA a livello nazionale, che sia operativo entro ... [24 mesi dalla data di entrata in vigore del presente regolamento]. Tale spazio di sperimentazione può essere inoltre istituito congiuntamente con le autorità competenti di altri Stati membri. La Commissione può fornire assistenza tecnica, consulenza e strumenti per l&#039;istituzione e il funzionamento degli spazi di sperimentazione normativa per l&#039;IA.&lt;br /&gt;
L&#039;obbligo di cui al primo comma può essere soddisfatto anche partecipando a uno spazio di sperimentazione esistente nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Possono essere altresì istituiti ulteriori spazi di sperimentazione normativa per l&#039;IA a livello regionale o locale, o congiuntamente con le autorità competenti di altri Stati membri.&lt;br /&gt;
3. Il Garante europeo della protezione dei dati può inoltre istituire uno spazio di sperimentazione normativa per l&#039;IA per le istituzioni, gli organi e gli organismi dell&#039;Unione e può esercitare i ruoli e i compiti delle autorità nazionali competenti conformemente al presente capo.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Gli Stati membri provvedono affinché le autorità competenti di cui ai paragrafi 1 e 2 assegnino risorse sufficienti per conformarsi al presente articolo in maniera efficace e tempestiva. Se del caso, le autorità nazionali competenti cooperano con altre autorità pertinenti e possono consentire il coinvolgimento di altri attori all&#039;interno dell&#039;ecosistema dell&#039;IA. Il presente articolo lascia impregiudicati gli altri spazi di sperimentazione normativa istituiti a norma del diritto dell&#039;Unione o nazionale. Gli Stati membri garantiscono un livello adeguato di cooperazione tra le autorità che controllano tali altri spazi di sperimentazione e le autorità nazionali competenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Gli spazi di sperimentazione normativa per l&#039;IA istituiti a norma del paragrafo 1 garantiscono un ambiente controllato che promuove l&#039;innovazione e facilita lo sviluppo, l&#039;addestramento, la sperimentazione e la convalida di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico dello spazio di sperimentazione concordato tra i fornitori o i potenziali fornitori e l’autorità competente. Tali spazi di sperimentazione possono comprendere prove in condizioni reali soggette a controllo nei medesimi spazi.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. Le autorità competenti, se del caso, forniscono orientamenti e garantiscono il controllo e il sostegno nell’ambito dello spazio di sperimentazione normativa per l’IA al fine di individuare i rischi, in particolare per quanto riguarda i diritti fondamentali, la salute e la sicurezza, le prove, le misure di attenuazione e la loro efficacia, in relazione agli obblighi e ai requisiti del presente regolamento e, se del caso, di altre disposizioni del diritto dell’Unione e nazionale, la conformità ai quali è soggetta a controllo nell&#039;ambito dello spazio di sperimentazione.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Le autorità competenti forniscono ai fornitori e ai potenziali fornitori che partecipano allo spazio di sperimentazione normativa per l&#039;IA orientamenti sulle aspettative normative e sulle modalità per soddisfare i requisiti e gli obblighi di cui al presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
Su richiesta del fornitore o del potenziale fornitore del sistema di IA, l&#039;autorità competente fornisce una prova scritta delle attività svolte con successo nello spazio di sperimentazione. L&#039;autorità competente fornisce inoltre una relazione di uscita che illustra in dettaglio le attività svolte nello spazio di sperimentazione e i relativi risultati e le conclusioni dell&#039;apprendimento. I fornitori possono utilizzare tale documentazione per dimostrare la loro conformità al presente regolamento attraverso la procedura di valutazione della conformità o le pertinenti attività di vigilanza del mercato. A tale riguardo, la relazione di uscita e la prova scritta fornite dall&#039;autorità nazionale competente sono prese favorevolmente in considerazione dalle autorità di vigilanza del mercato e dagli organismi notificati, al fine di accelerare le procedure di valutazione della conformità in misura ragionevole.&amp;lt;br /&amp;gt;&lt;br /&gt;
8. Fatte salve le disposizioni in materia di riservatezza di cui all&#039;[[Art.78|articolo 78]], e con l&#039;accordo del fornitore o del potenziale fornitore, la Commissione e il comitato sono autorizzati ad accedere alle relazioni di uscita e ne tengono conto, se del caso, nell&#039;esercizio dei loro compiti a norma del presente regolamento. Se sia il fornitore o il potenziale fornitore sia l&#039;autorità nazionale competente acconsentono esplicitamente, la relazione di uscita può essere messa a disposizione del pubblico attraverso la piattaforma unica di informazione di cui al presente articolo.&amp;lt;br /&amp;gt;&lt;br /&gt;
9. L&#039;istituzione di spazi di sperimentazione normativa per l&#039;IA mira a contribuire agli obiettivi seguenti:&lt;br /&gt;
:a) migliorare la certezza del diritto al fine di conseguire la conformità normativa al presente regolamento o, se del caso, ad altre applicabili disposizioni di diritto dell&#039;Unione e nazionale;&lt;br /&gt;
:b) sostenere la condivisione delle migliori pratiche attraverso la cooperazione con le autorità coinvolte nello spazio di sperimentazione normativa per l&#039;IA; &lt;br /&gt;
:c) promuovere l&#039;innovazione e la competitività e agevolare lo sviluppo di un ecosistema di IA;&lt;br /&gt;
:d) contribuire all&#039;apprendimento normativo basato su dati concreti;&lt;br /&gt;
:e) agevolare e accelerare l&#039;accesso al mercato dell&#039;Unione per i sistemi di IA, in particolare se forniti dalle PMI, comprese le start-up. &lt;br /&gt;
10. Le autorità nazionali competenti garantiscono che, nella misura in cui i sistemi di IA innovativi comportano il trattamento di dati personali o rientrano altrimenti nell&#039;ambito di competenza di altre autorità nazionali o autorità competenti che forniscono o sostengono l&#039;accesso ai dati, le autorità nazionali per la protezione dei dati e tali altre autorità nazionali o competenti siano associate al funzionamento dello spazio di sperimentazione normativa per l&#039;IA e partecipino al controllo di tali aspetti nei limiti dei rispettivi compiti e poteri.&amp;lt;br /&amp;gt;&lt;br /&gt;
11. Gli spazi di sperimentazione normativa per l&#039;IA non pregiudicano i poteri correttivi o di controllo delle autorità competenti che controllano gli spazi di sperimentazione, anche a livello regionale o locale. Qualsiasi rischio significativo per la salute e la sicurezza e i diritti fondamentali individuato durante lo sviluppo e le prove di tali sistemi di IA comporta adeguate misure di attenuazione. Le autorità nazionali competenti hanno il potere di sospendere, in via temporanea o permanente, il processo di prova o la partecipazione allo spazio di sperimentazione, se non è possibile un&#039;attenuazione efficace, e informano l&#039;ufficio per l&#039;IA di tale decisione. Le autorità nazionali competenti esercitano i loro poteri di controllo entro i limiti del pertinente diritto, utilizzando i loro poteri discrezionali nell&#039;attuazione delle disposizioni giuridiche per quanto riguarda uno specifico progetto di spazio di sperimentazione normativa per l&#039;IA, con l&#039;obiettivo di promuovere l&#039;innovazione nell&#039;IA nell&#039;Unione.&amp;lt;br /&amp;gt;&lt;br /&gt;
12. I fornitori e i potenziali fornitori partecipanti allo spazio di sperimentazione normativa per l&#039;IA restano responsabili ai sensi del diritto dell&#039;Unione e nazionale applicabile in materia di responsabilità per eventuali danni arrecati a terzi a seguito della sperimentazione che ha luogo nello spazio di sperimentazione. Tuttavia, a condizione che i potenziali fornitori rispettino il piano specifico e i termini e le condizioni di partecipazione e seguano in buona fede gli orientamenti forniti dall&#039;autorità nazionale competente, quest&#039;ultima non infligge alcuna sanzione amministrativa in caso di violazione del presente regolamento. Qualora altre autorità competenti responsabili del diritto dell&#039;Unione e nazionale abbiano partecipato attivamente al controllo del sistema di IA nello spazio di sperimentazione e abbiano fornito orientamenti ai fini della conformità, nessuna sanzione amministrativa pecuniaria è inflitta in relazione a tali disposizioni di diritto.&amp;lt;br /&amp;gt;&lt;br /&gt;
13. Gli spazi di sperimentazione normativa per l&#039;IA sono progettati e attuati in modo tale da agevolare, se del caso, la cooperazione transfrontaliera tra le autorità nazionali competenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
14. Le autorità nazionali competenti coordinano le loro attività e cooperano nel quadro del comitato.&amp;lt;br /&amp;gt;&lt;br /&gt;
15. Le autorità nazionali competenti informano l&#039;ufficio per l&#039;IA e il comitato di uno spazio di sperimentazione e possono chiedere sostegno e orientamenti. L&#039;ufficio per l&#039;IA mette a disposizione del pubblico l&#039;elenco degli spazi di sperimentazione normativa pianificati ed esistenti e lo mantiene aggiornato al fine di incoraggiare una maggiore interazione negli spazi di sperimentazione e nella cooperazione transfrontaliera.&amp;lt;br /&amp;gt;&lt;br /&gt;
16. Le autorità nazionali competenti presentano relazioni annuali all&#039;ufficio per l&#039;IA e al comitato a decorrere dall&#039;anno successivo all&#039;istituzione dello spazio di sperimentazione normativa per l&#039;IA e successivamente ogni anno fino alla sua cessazione, nonché una relazione definitiva. Tali relazioni contengono informazioni sui progressi e sui risultati dell&#039;attuazione di tali spazi di sperimentazione, comprese le migliori pratiche, gli incidenti, gli insegnamenti tratti e le raccomandazioni sulla loro configurazione e, ove pertinente, sull&#039;applicazione ed eventuale revisione del presente regolamento, inclusi i rispettivi atti delegati e di esecuzione, e sull&#039;applicazione di altre disposizioni di diritto dell&#039;Unione soggette a controllo da parte delle autorità competenti nell&#039;ambito dello spazio di sperimentazione. Le autorità nazionali competenti mettono tali relazioni annuali o estratti delle stesse a disposizione del pubblico online. La Commissione tiene conto, se del caso, delle relazioni annuali nell&#039;esercizio dei suoi compiti a norma del presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
17. La Commissione sviluppa un&#039;interfaccia unica e dedicata contenente tutte le informazioni pertinenti relative agli spazi di sperimentazione normativa per l&#039;IA per permettere ai portatori di interessi di interagire con gli spazi di sperimentazione normativa per l&#039;IA e di formulare richieste di informazioni presso le autorità competenti e di chiedere orientamenti non vincolanti sulla conformità di prodotti, servizi e modelli aziendali innovativi che integrano le tecnologie di IA, a norma dell&#039;[[Art.62|articolo 62, paragrafo 1, lettera c)]]. La Commissione si coordina proattivamente con le autorità nazionali competenti, se del caso.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.138|Considerando &#039;&#039;&#039;138&#039;&#039;&#039;]]•||[[C.139|Considerando &#039;&#039;&#039;139&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.55&amp;diff=795</id>
		<title>Art.55</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.55&amp;diff=795"/>
		<updated>2024-06-17T17:02:13Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.55 (Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. In aggiunta agli obblighi di cui agli [[Art.53|articoli 53]] e [[Art.54|54]], i fornitori di modelli di IA per finalità generali con rischio sistemico:&lt;br /&gt;
:a) effettuano una valutazione dei modelli in conformità di protocolli e strumenti standardizzati che rispecchino lo stato dell’arte, anche svolgendo e documentando il test contraddittorio (adversarial testing) del modello al fine di individuare e attenuare i rischi sistemici;&lt;br /&gt;
:b) valutano e attenuano i possibili rischi sistemici a livello dell’Unione, comprese le loro fonti, che possono derivare dallo sviluppo, dall’immissione sul mercato o dall’uso di modelli di IA per finalità generali con rischio sistemico;&lt;br /&gt;
:c) tengono traccia, documentano e riferiscono senza indebito ritardo all’ufficio per l’IA e, se del caso, alle autorità nazionali competenti, le informazioni pertinenti su incidenti gravi ed eventuali misure correttive per porvi rimedio; &lt;br /&gt;
:d) garantiscono un livello adeguato di protezione della cibersicurezza per quanto riguarda il modello di IA per finalità generali con rischio sistemico e l’infrastruttura fisica del modello.&lt;br /&gt;
2. I fornitori di modelli di IA per finalità generali con rischio sistemico possono basarsi su codici di buone pratiche ai sensi dell’[[Art.56|articolo 56]] per dimostrare la conformità agli obblighi di cui al paragrafo 1 del presente articolo, fino alla pubblicazione di una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I fornitori di modelli di IA per finalità generali con rischi sistemici che non aderiscono a un codice di buone pratiche approvato o che non si conformano alle norme armonizzate europee devono dimostrare mezzi alternativi adeguati di conformità ai fini della valutazione da parte della Commissione.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le informazioni o la documentazione ottenute a norma del presente articolo, compresi i segreti commerciali, sono trattate in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.55&amp;diff=780</id>
		<title>Art.55</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.55&amp;diff=780"/>
		<updated>2024-06-17T14:39:52Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Articoli {{DEFAULTSORT:Art.55 (Obbli...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.55 (Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. In aggiunta agli obblighi di cui agli [[Art.53|articoli 53]] e [[Art.54|54]], i fornitori di modelli di IA per finalità generali con rischio sistemico:&lt;br /&gt;
:a) effettuano una valutazione dei modelli in conformità di protocolli e strumenti standardizzati che rispecchino lo stato dell’arte, anche svolgendo e documentando il test contraddittorio (adversarial testing) del modello al fine di individuare e attenuare i rischi sistemici;&lt;br /&gt;
:b) valutano e attenuano i possibili rischi sistemici a livello dell’Unione, comprese le loro fonti, che possono derivare dallo sviluppo, dall’immissione sul mercato o dall’uso di modelli di IA per finalità generali con rischio sistemico;&lt;br /&gt;
:c) tengono traccia, documentano e riferiscono senza indebito ritardo all’ufficio per l’IA e, se del caso, alle autorità nazionali competenti, le informazioni pertinenti su incidenti gravi ed eventuali misure correttive per porvi rimedio; &lt;br /&gt;
:d) garantiscono un livello adeguato di protezione della cibersicurezza per quanto riguarda il modello di IA per finalità generali con rischio sistemico e l’infrastruttura fisica del modello.&lt;br /&gt;
2. I fornitori di modelli di IA per finalità generali con rischio sistemico possono basarsi su codici di buone pratiche ai sensi dell’[[Art.56|articolo 56]] per dimostrare la conformità agli obblighi di cui al paragrafo 1 del presente articolo, fino alla pubblicazione di una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I fornitori di modelli di IA per finalità generali con rischi sistemici che non aderiscono a un codice di buone pratiche approvato o che non si conformano alle norme armonizzate europee devono dimostrare mezzi alternativi adeguati di conformità ai fini della valutazione da parte della Commissione.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le informazioni o la documentazione ottenute a norma del presente articolo, compresi i segreti commerciali, sono trattate in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.81|Considerando &#039;&#039;&#039;81&#039;&#039;&#039;]]•||[[C.131|Considerando &#039;&#039;&#039;131&#039;&#039;&#039;]]•||[[C.156|Considerando &#039;&#039;&#039;156&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.54&amp;diff=779</id>
		<title>Art.54</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.54&amp;diff=779"/>
		<updated>2024-06-17T14:35:55Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Rappresentanti autorizzati dei fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.54 (ORappresentanti autorizzati dei fornitori di modelli di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di immettere sul mercato dell&#039;Unione un modello di IA per finalità generali, i fornitori stabiliti in paesi terzi nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell&#039;Unione.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il fornitore consente al suo rappresentante autorizzato di eseguire i compiti specificati nel mandato ricevuto dal fornitore.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fornitore. Fornisce una copia del mandato all&#039;ufficio per l&#039;IA, su richiesta, in una delle lingue ufficiali delle istituzioni dell&#039;Unione. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire i compiti seguenti: &lt;br /&gt;
:a) verificare che la documentazione tecnica di cui all&#039;[[Allegato XI|allegato XI]] sia stata redatta e che tutti gli obblighi di cui all&#039;[[Art.53|articolo 53]] e, se del caso, all&#039;[[Art.55|articolo 55]] siano stati adempiuti dal fornitore;&lt;br /&gt;
:b) tenere a disposizione dell&#039;ufficio per l&#039;IA e delle autorità nazionali competenti una copia della documentazione tecnica di cui all&#039;[[Allegato XI|allegato XI]] per un periodo di 10 anni dalla data in cui il modello di IA per finalità generali è stato immesso sul mercato e i dati di contatto del fornitore che ha nominato il rappresentante autorizzato;&lt;br /&gt;
:c) fornire all&#039;ufficio per l&#039;IA, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui alla lettera b), necessarie per dimostrare la conformità agli obblighi di cui al presente capo;&lt;br /&gt;
:d) cooperare con l&#039;ufficio per l&#039;IA e le autorità competenti, su richiesta motivata, in qualsiasi azione intrapresa da queste ultime in relazione al modello di IA per finalità generali, anche quando il modello è integrato nei sistemi di IA immessi sul mercato o messi in servizio nell&#039;Unione.&lt;br /&gt;
4. Il mandato consente al rappresentante autorizzato di essere interlocutore, in aggiunta o in sostituzione del fornitore, nei confronti dell&#039;ufficio per l&#039;IA o delle autorità competenti per tutte le questioni relative al rispetto del presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivi di ritenere che il fornitore agisca in contrasto con i propri obblighi a norma del presente regolamento. In tal caso, comunica immediatamente anche all&#039;ufficio per l&#039;IA la cessazione del mandato e i relativi motivi.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. L’obbligo di cui al presente articolo non si applica ai fornitori di modelli di IA per finalità generali rilasciati con licenza libera e open source che consentono l’accesso, l’uso, la modifica e la distribuzione del modello e i cui parametri, compresi i pesi, le informazioni sull’architettura del modello e le informazioni sull’uso del modello, sono resi pubblici, tranne nel caso in cui i modelli di IA per finalità generali presentino rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.54&amp;diff=778</id>
		<title>Art.54</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.54&amp;diff=778"/>
		<updated>2024-06-17T14:35:46Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Rappresentanti autorizzati dei fornitori di modelli di IA per finalità generali&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Articoli {{DEFAULTSORT:Art.54 (ORapprese...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Rappresentanti autorizzati dei fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.54 (ORappresentanti autorizzati dei fornitori di modelli di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Prima di immettere sul mercato dell&#039;Unione un modello di IA per finalità generali, i fornitori stabiliti in paesi terzi nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell&#039;Unione.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il fornitore consente al suo rappresentante autorizzato di eseguire i compiti specificati nel mandato ricevuto dal fornitore.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fornitore. Fornisce una copia del mandato all&#039;ufficio per l&#039;IA, su richiesta, in una delle lingue ufficiali delle istituzioni dell&#039;Unione. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire i compiti seguenti: &lt;br /&gt;
:a) verificare che la documentazione tecnica di cui all&#039;[[Allegato XI|allegato XI]] sia stata redatta e che tutti gli obblighi di cui all&#039;[[Art.53|articolo 53]] e, se del caso, all&#039;[[Art.55|articolo 55]] siano stati adempiuti dal fornitore;&lt;br /&gt;
:b) tenere a disposizione dell&#039;ufficio per l&#039;IA e delle autorità nazionali competenti una copia della documentazione tecnica di cui all&#039;[[Allegato XI|allegato XI]] per un periodo di 10 anni dalla data in cui il modello di IA per finalità generali è stato immesso sul mercato e i dati di contatto del fornitore che ha nominato il rappresentante autorizzato;&lt;br /&gt;
:c) fornire all&#039;ufficio per l&#039;IA, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui alla lettera b), necessarie per dimostrare la conformità agli obblighi di cui al presente capo;&lt;br /&gt;
:d) cooperare con l&#039;ufficio per l&#039;IA e le autorità competenti, su richiesta motivata, in qualsiasi azione intrapresa da queste ultime in relazione al modello di IA per finalità generali, anche quando il modello è integrato nei sistemi di IA immessi sul mercato o messi in servizio nell&#039;Unione.&lt;br /&gt;
4. Il mandato consente al rappresentante autorizzato di essere interlocutore, in aggiunta o in sostituzione del fornitore, nei confronti dell&#039;ufficio per l&#039;IA o delle autorità competenti per tutte le questioni relative al rispetto del presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivi di ritenere che il fornitore agisca in contrasto con i propri obblighi a norma del presente regolamento. In tal caso, comunica immediatamente anche all&#039;ufficio per l&#039;IA la cessazione del mandato e i relativi motivi.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. L’obbligo di cui al presente articolo non si applica ai fornitori di modelli di IA per finalità generali rilasciati con licenza libera e open source che consentono l’accesso, l’uso, la modifica e la distribuzione del modello e i cui parametri, compresi i pesi, le informazioni sull’architettura del modello e le informazioni sull’uso del modello, sono resi pubblici, tranne nel caso in cui i modelli di IA per finalità generali presentino rischi sistemici.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.81|Considerando &#039;&#039;&#039;81&#039;&#039;&#039;]]•||[[C.131|Considerando &#039;&#039;&#039;131&#039;&#039;&#039;]]•||[[C.156|Considerando &#039;&#039;&#039;156&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
	<entry>
		<id>https://wikiaiact.mywikis.eu/w139/index.php?title=Art.53&amp;diff=777</id>
		<title>Art.53</title>
		<link rel="alternate" type="text/html" href="https://wikiaiact.mywikis.eu/w139/index.php?title=Art.53&amp;diff=777"/>
		<updated>2024-06-17T14:30:33Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiCP: Creata pagina con &amp;quot;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;#039;&amp;#039;&amp;#039;Obblighi dei fornitori di modelli di IA per finalità generali&amp;#039;&amp;#039;&amp;#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;  Categoria:Articoli {{DEFAULTSORT:Art.53 (Obblighi dei fornitori di m...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.53 (Obblighi dei fornitori di modelli di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di modelli di IA per finalità generali:&lt;br /&gt;
:a) redigono e mantengono aggiornata la documentazione tecnica del modello, compresi il processo di addestramento e prova e i risultati della sua valutazione, che contiene almeno le informazioni di cui all&#039;[[Allegato XI|allegato XI]] affinché possa essere trasmessa, su richiesta, all&#039;ufficio per l&#039;IA e alle autorità nazionali competenti;&lt;br /&gt;
:b) elaborano, mantengono aggiornate e mettono a disposizione informazioni e documentazione per i fornitori di sistemi di IA che intendono integrare il modello di IA per finalità generali nei loro sistemi di IA. Fatta salva la necessità di rispettare e proteggere i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali conformemente al diritto dell&#039;Unione e nazionale, le informazioni e la documentazione:&lt;br /&gt;
::i) consentono ai fornitori di sistemi di IA di avere una buona comprensione delle capacità e dei limiti del modello di IA per finalità generali e di adempiere ai loro obblighi a norma del presente regolamento; nonché&lt;br /&gt;
::ii) contengono almeno gli elementi di cui all&#039;[[Allegato XII|allegato XII]];&lt;br /&gt;
:c) attuano una politica volta ad adempiere al diritto dell&#039;Unione in materia di diritto d&#039;autore e diritti ad esso collegati e, in particolare, a individuare e rispettare, anche attraverso tecnologie all&#039;avanguardia, una riserva di diritti espressa a norma dell&#039;articolo 4, paragrafo 3, della direttiva (UE) 2019/790;&lt;br /&gt;
:d) redigono e mettono a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l&#039;addestramento del modello di IA per finalità generali, secondo un modello fornito dall&#039;ufficio per l&#039;IA.&lt;br /&gt;
2. Gli obblighi di cui al paragrafo 1, lettere a) e b), non si applicano ai fornitori di modelli di IA rilasciati con licenza libera e open source che consentono l&#039;accesso, l&#039;uso, la modifica e la distribuzione del modello e i cui parametri, compresi i pesi, le informazioni sull&#039;architettura del modello e le informazioni sull&#039;uso del modello, sono resi pubblici. Tale eccezione non si applica ai modelli di IA per finalità generali con rischi sistemici.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I fornitori di modelli di IA per finalità generali collaborano, secondo necessità, con la Commissione e le autorità nazionali competenti nell&#039;esercizio delle loro competenze e dei loro poteri a norma del presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori di modelli di IA per finalità generali possono basarsi su codici di buone pratiche ai sensi dell&#039;[[Art.56|articolo 56]] per dimostrare la conformità agli obblighi di cui al paragrafo 1 del presente articolo, finché non è pubblicata una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I fornitori di modelli di IA per finalità generali che non aderiscono a un codice di buone pratiche approvato dimostrano mezzi alternativi adeguati di conformità ai fini di approvazione da parte della Commissione.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Allo scopo di agevolare la conformità all&#039;[[Allegato XI|allegato XI]], in particolare al punto 2, lettere d) ed e), alla Commissione è conferito il potere di adottare atti delegati a norma dell&#039;[[Art.97|articolo 97]] per specificare le metodologie di misurazione e di calcolo al fine di consentire che la documentazione sia comparabile e verificabile.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. Alla Commissione è conferito il potere di adottare atti delegati a norma dell&#039;[[Art.97|articolo 97, paragrafo 2]], per modificare gli [[Allegato XI|allegati XI]] e [[Allegato XII|XII]] alla luce degli sviluppi tecnologici in evoluzione.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Le informazioni o la documentazione ottenute a norma del presente articolo, compresi i segreti commerciali, sono trattate in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.85|Considerando &#039;&#039;&#039;85&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiCP</name></author>
	</entry>
</feed>