Nell’aula magna della sede di Riposto dell’istituto Amari-Pantano-Rizzo si è svolto un incontro dedicato al mondo dell’intelligenza artificiale. L’iniziativa, fortemente voluta da Nunziatina Spatafora e realizzata in collaborazione con il Coordinamento delle donne jonico etneo, ha visto come relatrice l’ingegnera Cristina R. Monsone, PhD in Intelligenza artificiale e robotica ed esperto indipendente della Commissione europea, che ha guidato gli studenti in un viaggio tra innovazione tecnologica, applicazioni concrete e implicazioni etiche. Presente la alla presenza della prof.ssa G. Carota.
La conferenza, dal titolo “Intelligenza artificiale: Computer Vision, generativa e Apps”, ha offerto una panoramica chiara e accessibile anche ai più giovani, illustrando come queste tecnologie siano ormai parte integrante della vita quotidiana. L’ingegnera Monsone ha accompagnato i ragazzi attraverso un excursus storico che ha permesso di comprendere le radici profonde dell’IA. Dal celebre contributo di Alan Turing, il cui test resta ancora oggi alla base di strumenti comuni come i CAPTCHA, fino a John McCarthy, che nel 1955 coniò il termine “intelligenza artificiale”, segnando la nascita ufficiale della disciplina, il percorso si è poi soffermato su Frank Rosenblatt e sul suo Perceptron, primo modello di rete neurale, considerato oggi l’antenato dei moderni sistemi come ChatGPT.
Un passaggio fondamentale è stato dedicato alla spiegazione del perché l’intelligenza artificiale sia esplosa proprio negli ultimi anni. Tre i fattori chiave evidenziati: la disponibilità di enormi quantità di dati, l’enorme crescita della potenza di calcolo — in particolare grazie alle GPU — e lo sviluppo di nuove architetture neurali. Senza questa convergenza, ha sottolineato la relatrice, i sistemi attuali semplicemente non esisterebbero. Accanto alle straordinarie potenzialità, non sono mancati i riferimenti ai limiti e ai rischi.
L’ingegnera Monsone ha spiegato come questi modelli possano generare contenuti non veritieri, fenomeno noto come “allucinazione”, e funzionino come veri e propri “pappagalli stocastici”, capaci di costruire frasi plausibili senza una reale comprensione. Tra le criticità affrontate anche il tema dei deepfake, sempre più realistici, e quello della cybersicurezza, con particolare attenzione alle tecniche di ingegneria sociale. Ampio spazio è stato dedicato al problema dei bias. Quando i dati utilizzati per addestrare i sistemi non rappresentano adeguatamente la diversità della società, l’intelligenza artificiale rischia di amplificare pregiudizi già esistenti. Emblematico il caso di un sistema di selezione del personale che penalizzava le candidature femminili, perché costruito su dati storici dominati da una presenza maschile.
Sul fronte normativo, è stato illustrato l’AI Act europeo, primo tentativo organico di regolamentare l’intelligenza artificiale. La normativa introduce una classificazione dei sistemi in base al rischio e prevede restrizioni severe per applicazioni considerate pericolose, come la sorveglianza biometrica di massa o il social scoring.
Nel corso dell’incontro è emerso con chiarezza un messaggio centrale: comprendere l’intelligenza artificiale non è più un’opzione, ma una necessità. Non si tratta di una tecnologia del futuro, bensì di una realtà già presente nelle nostre vite. In questo contesto, la data literacy, ovvero la capacità di comprendere e interpretare i dati, diventa una nuova forma di alfabetizzazione indispensabile per i cittadini di oggi e di domani.In conclusione, l’ingegnera Cristina R. Monsone ha invitato gli studenti a guardare all’intelligenza artificiale non solo come a uno strumento tecnologico, ma come a uno specchio della società. Migliorare questi sistemi significa, inevitabilmente, lavorare anche sui limiti e sulle disuguaglianze del mondo reale.







