Seleziona una pagina

Dopo il cambiamento nel panorama del business a seguito della pandemia da Covid-19, il mercato globale per l’Intelligenza Artificiale ha stimato cinquanta milioni di dollari nel 2020, con una previsione di raggiungere una cifra intorno ai 225 milioni entro il 2027.

Per questo diventata argomento di tendenza negli ultimi tempi, l’intelligenza artificiale (AI) ha applicazioni potenziali in tutti i settori della società che potrebbero plasmare l’economia globale e la nostra sicurezza.

L’IA può essere definita come la capacità di una macchina di svolgere le funzioni cognitive che associamo alla mente umana, in altre parole di imitare l’intelligenza umana per svolgere dei compiti.

Questa sta svolgendo un ruolo sempre più importante nel supportare il processo decisionale umano e viene utilizzata in diverse aree aziendali.

Per i prossimi 7 anni è previsto un tasso annuo di crescita compreso tra il 25 e il 30 per cento soprattutto per quanto riguarda il settore hardware.

 

Quali sono i rischi da prendere in considerazione?

Lo sviluppo repentino di questa tecnologia all’avanguardia ha sollevato nuove problematiche tra cui la gestione dei suoi rischi e le relative regolamentazioni per mitigarli.

L’Unione Europea, che si è sempre distinta nella corsa alla conformità, è stata il primo organismo governativo al mondo a sviluppare una risposta esauriente sotto forma di una bozza di regolamenti mirati all’utilizzo e allo sviluppo dell’Intelligenza Artificiale.

Nel 2020, solo il 48% delle organizzazioni ha dichiarato di aver riconosciuto i rischi di conformità normativa e ancora meno (il 38%) ha dichiarato di lavorare attivamente per affrontarli.

La normativa suddivide i sistemi di IA in tre categorie: sistemi di IA a rischio inaccettabile, sistemi di IA ad alto rischio e sistemi di IA a rischio limitato e minimo.

  • I sistemi di IA ad alto rischio inaccettabile sono quelli coinvolti in infrastrutture critiche come le forze dell’ordine, la sanità, l’istruzione o i servizi finanziari.  Ad esempio applicazioni che effettuano la sorveglianza in tempo reale o il riconoscimento facciale per le forze dell’ordine, sistemi di social scoring per l’uso da parte delle autorità pubbliche o sistemi di armi guidati dall’IA.
  • Le applicazioni a rischio limitato sono ad esempio, servizio clienti basato sull’IA, chatbot automatizzati, assistenti domestici basati sull’IA.
  • I sistemi di IA a rischio minimo sono, ad esempio, software di analisi dei documenti guidati dall’IA, servizi di traduzione automatica, piattaforme di marketing basate sull’IA.

La bozza di regolamento propone requisiti diversi per i sistemi di IA a seconda del loro livello di rischio.

Le organizzazioni possono utilizzare questo quadro come punto di partenza per sviluppare le proprie tassonomie interne basate sul rischio.

La bozza di regolamento dell’UE è solo un passo in quello che diventerà uno sforzo globale per gestire i rischi associati all’IA.

Quanto prima le organizzazioni si adegueranno a questa realtà normativa, tanto maggiore sarà il loro successo a lungo termine con questa tecnologia critica.

 

Come preparare il proprio business?

Il regolamento ci ricorda chiaramente che il business deve attivarsi con urgenza per disporre di processi solidi per gestire i rischi dell’Intelligenza Artificiale ma anche di muove i primi passi per essere conformi alle normative esistenti e future.

Questo non deve essere motivo di preoccupazione che porti a ridurre il naturale sviluppo dell’IA ma solo un incentivo ad innovarsi in modo sicuro e rapido per essere i primi ad ottenere maggiore efficienza.

L’ideale sarebbe mantenere totale organizzazione e controllo sui sistemi di IA e delle misure di mitigazione del rischio, l’esecuzione di valutazioni di conformità e l’istituzione di un sistema di governance dell’IA.

Le organizzazioni dovrebbero creare e mantenere inventari completi contenenti le descrizioni di tutti i sistemi di IA associati ai casi d’uso attuali e pianificati, insieme alle classificazioni dei rischi per ciascun sistema.

Questi inventari servono a mappare i sistemi di IA rispetto alle normative esistenti e a quelle potenziali future per identificare e risolvere eventuali lacune nella compliance aziendale.

Per maggiori informazioni sulle applicazioni di Dedicated dell’Intelligenza Artificiale contattaci qui.