Tag: AI Act

AI Act e segnalazione incidenti gravi: linee guida Commissione UE

La Commissione europea ha posto in consultazione la bozza di linee guida che attuano l’art. 73 dell’AI Act (Draft Guidance on Incident Reporting for High-Risk AI Systems), per cui i fornitori di sistemi di IA ad alto rischio saranno tenuti, da agosto 2026, a segnalare gli incidenti gravi alle autorità nazionali.

L’obbligo di cui all’art. 73 del Regolamento UE 2024/1689 (AI Act) è volto ad individuare tempestivamente i rischi, garantire la responsabilità, consentire interventi rapidi e rafforzare la fiducia del pubblico nelle tecnologie di intelligenza artificiale.

Continua a leggere…

 

14 Apr

Navigare il panorama normativo dell’Intelligenza Artificiale: il ruolo dell’AI Act nel settore assicurativo e finanziario in Europa

L’Actuarial Association of Europe (AAE) ha pubblicato a marzo un documento di discussione che esplora le implicazioni dell’AI Act, concentrandosi sull’impatto per le aziende del settore assicurativo. L’obiettivo di questa analisi è comprendere meglio le sfide e le opportunità che questa regolamentazione comporta, oltre a delineare i requisiti di conformità per le imprese coinvolte.

1. L’AI Act e la classificazione del rischio
Il cuore dell’AI Act si basa su un approccio regolatorio basato sul rischio. L’UE ha introdotto una suddivisione delle applicazioni di IA in quattro categorie di rischio, ognuna delle quali comporta diversi livelli di obblighi normativi. Le categorie sono:

  • IA a rischio minimo, che include tecnologie come i filtri antispam e i suggerimenti di ricerca, non soggette a restrizioni particolari.
  • IA a rischio limitato, che comprende sistemi interattivi come chatbot e assistenti virtuali, per cui è richiesto un livello minimo di trasparenza e informativa agli utenti.
  • IA ad alto rischio, che include applicazioni utilizzate in settori critici come sanità, trasporti, finanza e assicurazioni. Questi sistemi richiedono audit rigorosi, governance strutturata e supervisione umana.
  • IA a rischio inaccettabile, che copre pratiche vietate, come il social scoring o la manipolazione cognitiva subliminale.

Questa classificazione implica che molte delle applicazioni di IA utilizzate nel settore finanziario e assicurativo rientrino nella categoria ad alto rischio. Di conseguenza, le imprese dovranno adeguarsi a un quadro normativo stringente, con implicazioni significative per la governance aziendale.

Leggi tutto