Ordine degli Ingegneri della Provincia di Vercelli
di Ordine degli Ingegneri della Provincia di Vercelli
9 Dicembre 2025 10:00
Terza puntata della rubrica realizzata in collaborazione con l’Ordine degli Ingegneri della Provincia di Vercelli, presieduto da Franco Barosso. Con cadenza quindicinale, proponiamo ai nostri lettori un percorso di approfondimento dedicato all’ingegneria e alle ricadute nella vita di ogni giorno nell’economia e nella società. L’obiettivo è avvicinare i lettori a una materia percepita come complessa, dimostrando come dietro ogni tecnologia o processo creativo ci sia il lavoro infaticabile e prezioso degli ingegneri, caratterizzato da competenza e capacità di visione. Questa terza puntata è l’ultima pubblicazione dedicata all’intelligenza artificiale. Un viaggio per comprendere da vicino che cos’è realmente l’IA. Dove nasce, come si è evoluta e quali applicazioni sta trovando nei diversi settori.
L’Intelligenza Artificiale porta con sé vantaggi enormi ma anche rischi da non sottovalutare; ad esempio:
- la necessità di protezioni rigorose nella gestione di dati sensibili;
- il fatto che molti sistemi siano “scatole nere”, difficili da interpretare;
- il problema di trasparenza e responsabilità;
- il fatto che l’IA non pensa autonomamente, utilizza una base dati definita e controllata dall’uomo; di conseguenza, se i dati sono incompleti, sbilanciati o non aggiornati, i risultati dell’IA ne risentono e potrebbero non essere corretti.
Oggi si parla sempre più di IA generativa, ovvero di sistemi capaci di creare testi, immagini, musica o codice e di tecnologie autonome, come i droni militari o le auto senza conducente. Queste frontiere aprono scenari rivoluzionari ma mettono in discussione anche concetti fondamentali di responsabilità e sicurezza. Immaginiamo un’auto a guida autonoma che causa un incidente. Di chi è la colpa? Dell’azienda che ha programmato il software? Del proprietario del veicolo? O del sistema stesso? La legge oggi non ha ancora risposte chiare. Questo è un esempio lampante di come l’IA metta in crisi i concetti tradizionali di colpa e responsabilità. In alcuni settori l’IA viene già usata per decisioni delicate: per valutare la possibilità di una scarcerazione, per suggerire terapie mediche o per stabilire il rischio di insolvenza finanziaria. Se queste decisioni sono influenzate da errori o pregiudizi nei dati, le conseguenze possono essere gravi e persino ingiuste. Uno dei rischi più discussi riguarda i pregiudizi algoritmici. Se i dati di addestramento contengono stereotipi o discriminazioni (di genere, etnia, classe sociale), l’IA non solo li riproduce ma spesso li amplifica. Questo può tradursi in decisioni ingiuste, ad esempio in processi di selezione del personale o nell’accesso a prestiti bancari.
I sistemi di riconoscimento facciale e la raccolta massiva di dati pongono gravi minacce alla privacy individuale. In alcuni paesi l’IA è già utilizzata come strumento di sorveglianza di massa, sollevando interrogativi inquietanti sulla libertà e sui diritti fondamentali. L’IA può essere un’arma a doppio taglio. Da un lato aiuta a prevenire frodi e cyberattacchi, dall’altro può essere sfruttata da hacker per sviluppare attacchi sempre più sofisticati, come phishing personalizzati o malware autonomi. Grazie ai cosiddetti deepfake, l’IA è in grado di creare video falsi, ma realistici, di persone che dicono o fanno cose mai accadute. In politica questo può minacciare la democrazia stessa, diffondendo notizie manipolate e screditando candidati o istituzioni. L’automazione intelligente promette di sostituire milioni di posti di lavoro, in particolare nelle mansioni ripetitive e manuali.
Questo solleva domande cruciali: come garantire la transizione dei lavoratori? Quali nuove competenze saranno necessarie? In quest’ottica l’IA non è inclusiva, anzi, rischia di accentuare le disuguaglianze sociali se non si attuano politiche di formazione e inclusione. L’intelligenza artificiale in medicina e nel lavoro non è più un’ipotesi del futuro ma una realtà che sta cambiando il presente. Se da un lato offre strumenti potenti per migliorare diagnosi, efficienza e nuove opportunità professionali, dall’altro pone sfide etiche e regolamentari senza precedenti. Nonostante i rischi, l’IA continua a svilupparsi a un ritmo impressionante; ma l’IA non è “buona” o “cattiva”, dipende da come viene programmata e usata, é la società che deve stabilire limiti e regole; per questo motivo governi ed organizzazioni internazionali stanno cercando di stabilire norme condivise. Ad esempio, l’Unione Europea ha introdotto nel giugno 2024 il primo regolamento al mondo interamente dedicato all’intelligenza artificiale “l’AI Act”, che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti esistenti. Questo regolamento vuole migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme, in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione, in conformità dei valori dell'Unione stessa; esso vuole inoltre promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica ed affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, la protezione contro gli effetti nocivi dei sistemi di IA nell'Unione, nonché la promozione dell'innovazione.
Il regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione ed all'uso di sistemi di IA, salvo espressa autorizzazione. In breve esso classifica i sistemi in base al livello di rischio (minimo, limitato, alto ed inaccettabile), impone requisiti stringenti per i sistemi ad alto rischio (come quelli usati in sanità o nella selezione del personale), proibisce pratiche considerate a rischio inaccettabile (come il social scoring, cioè la classificazione delle persone in base al loro comportamento sociale, o la manipolazione psicologica), prevede multe fino al 7% del fatturato mondiale per chi non rispetta le regole. Così come le aziende devono sottoporsi a controlli fiscali, in futuro sarà sempre più importante introdurre audit etici indipendenti, per verificare che i sistemi di IA rispettino criteri di equità e sicurezza. Infine è necessario anche un lavoro culturale: i cittadini devono essere consapevoli dei rischi e delle opportunità dell’IA, per poterla usare in modo critico. Educazione digitale ed informazione corretta sono armi fondamentali contro manipolazioni ed abusi. Non tutti i Paesi condividono l’approccio europeo. Gli Stati Uniti preferiscono regolamentazioni più flessibili e settoriali, temendo che l’AI Act rallenti l’innovazione. La Cina privilegia un modello centrato sul controllo statale e sulla sicurezza nazionale, considerandolo più funzionale ai propri obiettivi strategici.
L’Europa, con il suo AI Act, ha scelto una strada coraggiosa ed unica, puntando sulla tutela dei diritti e sulla trasparenza. Ma il confronto con Stati Uniti e Cina mostra che il dibattito globale è tutt’altro che concluso. Il futuro dell’IA dipenderà da come riusciremo a bilanciare innovazione, etica e regolamentazione.
Copyright © 2020 FONDAZIONE LA SESIA via Quintino Sella 30, 13100 Vercelli Reg. Imprese VC C.F. 00146700026 - P.IVA IT 00146700026 - R.E.A. VC44243
Powered by Miles 33
Commenti
Condividi le tue opinioni su La Sesia