<div id="toc" style="background: #f9f9f9;border: 1px solid #aaa;display: table;margin-bottom: 1em;padding: 1em;width: 350px;"> <p class="toctitle" style="font-weight: 700;text-align: center;">Content</p> <ul class="toc_list"> <li> #toc-0 </li> <li> #toc-1 </li> <li> #toc-2 </li> </ul></div>I fornitori o&nbsp;potenziali fornitori notificano all'autorità nazionale di vigilanza del mercato dello Stato membro in cui devono essere effettuate le prove in condizioni reali la sospensione o&nbsp;la cessazione delle prove in condizioni reali nonché i&nbsp;risultati finali. Qualsiasi soggetto delle prove in condizioni reali, o&nbsp;il suo rappresentante legale designato, a&nbsp;seconda dei casi, può, senza alcun conseguente pregiudizio e&nbsp;senza dover fornire alcuna giustificazione, ritirarsi dalle prove in qualsiasi momento revocando il proprio consenso informato e&nbsp;può chiedere la cancellazione immediata e&nbsp;permanente dei propri dati personali. La revoca del consenso informato non pregiudica le attività già svolte. https://writeablog.net/traduzioni-pro/agenzia-di-traduzioni-a-chi-rivolgersi-e-perche Gli Stati membri provvedono affinché le loro autorità competenti istituiscano almeno uno spazio di sperimentazione normativa per l'IA a&nbsp;livello nazionale, che sia operativo entro il 2&nbsp;agosto 2026. Tale spazio di sperimentazione può essere inoltre istituito congiuntamente con le autorità competenti di altri Stati membri. La Commissione può fornire assistenza tecnica, consulenza e&nbsp;strumenti per l'istituzione e&nbsp;il funzionamento degli spazi di sperimentazione normativa per l'IA. https://k12.instructure.com/eportfolios/986298/entries/3561279 <h2 id="toc-0">Traduzione tecnica</h2><ul> <li>Gli organismi notificati accettano il modulo ai fini della valutazione della conformità.</li> <li>Se l'autorizzazione di cui al paragrafo&nbsp;1 è rifiutata, l'uso del sistema di IA ad alto rischio è interrotto con effetto immediato e&nbsp;tutti i&nbsp;risultati e&nbsp;gli output di tale uso sono immediatamente eliminati.</li> <li>Il concetto di disaster recovery, uno dei pilastri della sicurezza informatica, si rende necessario a garantire la continuità operativa dell’organizzazione perché di fatto riguarda la capacità di reagire in modo efficace e tempestivo ad eventuali criticità dovute ad incidenti fisici o tecnici, allo scopo di ripristinare la disponibilità e l’accesso dei dati personali oggetto di trattamento.</li> <li>Si tratta, infatti, di sostituire un dato vero (direttamente collegabile ad una persona fisica e che chiameremo DV) con un dato falso (che non può essere riportato ad una persona fisica e che chiameremo DF) applicando un meccanismo segreto (che chiameremo S).</li> <li>In considerazione dell'impatto significativo che l'IA può avere sulla società e&nbsp;della necessità di creare maggiore fiducia, è essenziale che l'IA e&nbsp;il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo&nbsp;2 del trattato sull'Unione europea (TUE), ai diritti e&nbsp;alle libertà fondamentali sanciti dai trattati e, conformemente all'articolo&nbsp;6 TUE, alla Carta.</li> <li>Le autorità nazionali di vigilanza del mercato e&nbsp;le autorità nazionali per la protezione dei dati degli Stati membri cui è stato notificato l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a&nbsp;fini di attività di contrasto a&nbsp;norma del paragrafo&nbsp;4, presentano alla Commissione relazioni annuali su tale uso.</li></ul>Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato, la messa in servizio e&nbsp;l'uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e&nbsp;consentendo a&nbsp;tali sistemi di beneficiare del principio della libera circolazione di beni e&nbsp;servizi. Tali norme dovrebbero essere chiare e&nbsp;solide nel tutelare i&nbsp;diritti fondamentali, sostenere nuove soluzioni innovative e&nbsp;consentire un ecosistema europeo di attori pubblici e&nbsp;privati che creino sistemi di IA in linea con i&nbsp;valori dell'Unione e&nbsp;sblocchino il potenziale della trasformazione digitale in tutte le regioni dell'Unione. L'uso del sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico è autorizzato solo se l'autorità di contrasto ha completato una valutazione d'impatto sui diritti fondamentali come previsto all'articolo&nbsp;27 e&nbsp;ha registrato il sistema nella banca dati UE conformemente all'articolo&nbsp;49.<h3 id="toc-1">L’evoluzione della sicurezza</h3>Qualora constati che il sistema di IA non soddisfa più i&nbsp;requisiti di cui alla sezione&nbsp;2, l'organismo notificato, tenendo conto del principio di proporzionalità, sospende o&nbsp;ritira il certificato rilasciato o&nbsp;impone limitazioni, a&nbsp;meno che la conformità a&nbsp;tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. Per i&nbsp;sistemi di IA ad alto rischio di cui all'allegato&nbsp;III, punti da 2 a&nbsp;8, i&nbsp;fornitori seguono la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato&nbsp;VI, che non prevede il coinvolgimento di un organismo notificato. La valutazione del sistema di gestione della qualità e&nbsp;la valutazione della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato&nbsp;VII. In caso di limitazione, sospensione o&nbsp;ritiro di una designazione, l'autorità di notifica adotta le misure appropriate per far sì che i&nbsp;fascicoli dell'organismo notificato interessato siano conservati e&nbsp;messi a&nbsp;disposizione delle autorità di notifica in altri Stati membri nonché delle autorità di vigilanza del mercato, su richiesta.<img class="aligncenter" style="display: block;margin-left:auto;margin-right:auto;" src="https://www.giuliafornasier.com/wp-content/uploads/2019/12/traduzioni_tecniche-1024x1024.png" width="600px" alt="Quali misure adottate per garantire l'accuratezza delle traduzioni tecniche?">Le disposizioni relative alle sanzioni dovrebbero pertanto applicarsi a&nbsp;decorrere dal 2&nbsp;agosto 2025. Il presente regolamento non pregiudica le competenze, i&nbsp;compiti, i&nbsp;poteri e&nbsp;l'indipendenza delle autorità o&nbsp;degli organismi pubblici nazionali competenti che controllano l'applicazione del diritto dell'Unione che tutela i&nbsp;diritti fondamentali, compresi gli organismi per la parità e&nbsp;le autorità per la protezione dei dati. Ove necessario per il loro mandato, è opportuno che tali autorità od organismi pubblici nazionali abbiano altresì accesso alla documentazione creata a&nbsp;norma del presente regolamento. È opportuno istituire una procedura di salvaguardia specifica per garantire un'esecuzione adeguata e&nbsp;tempestiva rispetto ai sistemi di IA che presentano un rischio per la salute, la sicurezza e&nbsp;i diritti fondamentali. Il sistema di gestione dei rischi dovrebbe essere costituito da un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio.L’impresa è tenuta ad assicurare che il proprio personale disponga di una formazione adeguata. A tal fine, si richiede che la formazione sia sviluppata su base continuativa per poter tener conto dei mutamenti del quadro normativo e regolamentare di riferimento. Potrai sempre gestire le tue preferenze accedendo al nostro COOKIE CENTER e ottenere maggiori informazioni sui cookie utilizzati, visitando la nostra COOKIE POLICY. Su questo sito utilizziamo cookie tecnici necessari alla navigazione e funzionali all’erogazione del servizio.Utilizziamo i cookie anche per fornirti un’esperienza di navigazione sempre migliore, per facilitare le interazioni con le nostre funzionalità social e per consentirti di ricevere comunicazioni di marketing aderenti alle tue abitudini di navigazione e ai tuoi interessi. Il presente regolamento è obbligatorio in tutti i&nbsp;suoi elementi e&nbsp;direttamente applicabile in ciascuno degli Stati membri.A&nbsp;condizione che siano rispettati detti principi, tali compiti e&nbsp;attività possono essere svolti da una o&nbsp;più autorità designate, conformemente alle esigenze organizzative dello Stato membro. Gli spazi di sperimentazione normativa per l'IA non pregiudicano i&nbsp;poteri correttivi o&nbsp;di controllo delle autorità competenti che controllano gli spazi di sperimentazione, anche a&nbsp;livello regionale o&nbsp;locale. Qualsiasi rischio significativo per la salute e&nbsp;la sicurezza e&nbsp;i diritti fondamentali individuato durante lo sviluppo e&nbsp;le prove di tali sistemi di IA comporta adeguate misure di attenuazione. Le autorità nazionali competenti hanno il potere di sospendere, in via temporanea o&nbsp;permanente, il processo di prova o&nbsp;la partecipazione allo spazio di sperimentazione, se non è possibile un'attenuazione efficace, e&nbsp;informano l'ufficio per l'IA di tale decisione.Qualora altre autorità competenti responsabili del diritto dell'Unione e&nbsp;nazionale abbiano partecipato attivamente al controllo del sistema di IA nello spazio di sperimentazione e&nbsp;abbiano fornito orientamenti ai fini della conformità, nessuna sanzione amministrativa pecuniaria è inflitta in relazione a&nbsp;tali disposizioni di diritto. Per gli organismi notificati designati ai sensi di qualsiasi altra normativa di armonizzazione dell'Unione, tutti i&nbsp;documenti e&nbsp;i certificati connessi a&nbsp;tali designazioni possono essere utilizzati a&nbsp;sostegno della loro procedura di designazione a&nbsp;norma del presente regolamento, a&nbsp;seconda dei casi. L'organismo notificato aggiorna la documentazione di cui ai paragrafi&nbsp;2 e&nbsp;3 del presente articolo ogni volta che si verificano cambiamenti di rilievo, al fine di consentire all'autorità responsabile degli organismi notificati di monitorare e&nbsp;verificare il continuo rispetto di tutte le prescrizioni di cui all'articolo&nbsp;31. I deployer presentano alle pertinenti autorità di vigilanza del mercato e&nbsp;alle autorità nazionali per la protezione dei dati relazioni annuali sul loro uso di sistemi di identificazione biometrica remota a&nbsp;posteriori, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Le relazioni possono essere aggregate per coprire più di un utilizzo.Alla Commissione è conferito il potere di adottare atti delegati a&nbsp;norma dell’articolo&nbsp;97 per modificare l’allegato&nbsp;XIII specificando e&nbsp;aggiornando i&nbsp;criteri di cui a&nbsp;tale allegato. Sulla base di una decisione della Commissione, ex officio o&nbsp;a seguito di una segnalazione qualificata del gruppo di esperti scientifici, presenta capacità o&nbsp;un impatto equivalenti a&nbsp;quelli di cui alla lettera&nbsp;a), tenendo conto dei criteri di cui all'allegato&nbsp;XIII. Gli organismi notificati tutelano la riservatezza delle informazioni che ottengono in conformità dell'articolo&nbsp;78.Se la Commissione viene a&nbsp;conoscenza di un modello di IA per finalità generali che presenta rischi sistemici di cui non è stata informata, può decidere di designarlo come modello con rischio sistemico. Gli operatori interessati sono consultati e&nbsp;hanno la possibilità di esprimere il loro parere. Tenuto conto di ciò, la Commissione decide se l'autorizzazione è giustificata.In ogni caso, i&nbsp;fornitori e&nbsp;deployers di sistemi di IA ad alto rischio destinati a&nbsp;essere utilizzati dalle autorità pubbliche adottano le misure necessarie per conformarsi ai requisiti e&nbsp;agli obblighi del presente regolamento entro il 2&nbsp;agosto 2030. I fornitori di modelli di IA per finalità generali con rischio sistemico possono basarsi su codici di buone pratiche ai sensi dell’articolo&nbsp;56 per dimostrare la conformità agli obblighi di cui al paragrafo&nbsp;1 del presente articolo, fino alla pubblicazione di una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I&nbsp;fornitori di modelli di IA per finalità generali con rischi sistemici che non aderiscono a&nbsp;un codice di buone pratiche approvato o&nbsp;che non si conformano alle norme armonizzate europee devono dimostrare mezzi alternativi adeguati di conformità ai fini della valutazione da parte della Commissione. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo&nbsp;97 che modificano i&nbsp;paragrafi&nbsp;1 e&nbsp;2 del presente articolo per assoggettare i&nbsp;sistemi di IA ad alto rischio di cui all'allegato&nbsp;III, punti da 2 a&nbsp;8, alla procedura di valutazione della conformità di cui all'allegato&nbsp;VII o&nbsp;a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato&nbsp;VI nel prevenire o&nbsp;ridurre al minimo i&nbsp;rischi per la salute, la sicurezza e&nbsp;la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e&nbsp;risorse adeguate tra gli organismi notificati.

トップ   編集 差分 バックアップ 添付 複製 名前変更 リロード   新規 サイトマップ 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS 最終更新のRSS 最終更新のRSS