PRESENTATA L’INDAGINE CONOSCITIVA DEL GARANTE REGIONALE DELL’INFANZIA E DELL’ADOLESCENZA DELLA BASILICATA E DELL’ASSOCIAZIONE DIPENDENZE TECNOLOGICHE GAP E CYBERBULLISMO O.D.V.

Incontro, presso la sala “Ester Scardaccione” del Consiglio regionale, sull’Intelligenza Artificiale Generativa. Presenti Vincenzo Giuliano, garante regionale dell’Infanzia e dell’Adolescenza della Basilicata,  Daniela Ciorciaro, esperta Di.Te. per la Basilicata, Antonio Mastrandrea, direttore della filiale di Potenza della Banca Monte Pruno, Pasquale Costante referente per la Scuola Digitale dell’Ufficio Scolastico Regionale. Presente, anche, la sociologa e criminologa, Miriam Russo.

I lavori aperti dai saluti del presidente del Consiglio regionale, Carmine Cicala, che ha sottolineato “la bontà del lavoro svolto dall’Uffico del Garante sul territorio, soprattutto con le nuove generazioni. Intelligenza Artificiale – ha detto Cicala – vuol dire nuova rivoluzione, è un ulteriore step dello sviluppo digitale il cui tema va affrontato considerandone come punto di partenza l’etica onde evitare le insidie sempre dietro l’angolo. Occorre intervenire subito – ha concluso – dando un indirizzo preciso ai ragazzi e utilizzando tutta la parte positiva dell’Intelligenza Artificiale, ormai , in virtù di una sua conoscenza approfondita”.

“L’educazione al digitale è una esigenza non più procrastinabile a tutti i livelli. Una programmazione inadeguata da parte degli insegnanti o l’utilizzo in modo errato provoca danni notevoli agli studenti ed ai ragazzi che non devono arrivare impreparati all’appuntamento come accaduto con i social, ma essere spinti da uno spirito critico. Gli insegnanti, pertanto, devono saper colloquiare con l’Intelligenza Artificiale”.

Questo il pensiero del Garante che pone quale obiettivo fondamentale da perseguire in tempi brevissimi la Conoscenza approfondita della Intelligenza Artificiale da utilizzare in modalità Generativa.

“L’Intelligenza Artificiale – ha detto Giuliano – continua ad affermarsi sempre di più come parte integrante del processo educativo. E certamente, non possiamo stare fermi ad aspettare che gli eventi si impossessino di noi, ma prenderne consapevolezza con il cambiare il nostro approccio con l’IA e sollecitare la scuola e gli insegnanti ad essere preparati ai cambiamenti per sfruttarne le potenzialità e per mettere in guardia i ragazzi dai conseguenti rischi. Il Protocollo stipulato con l’Associazione Di.Te. – ha ricordato il Garante – ci ha permesso di far convergere l’attenzione comune su una tematica di grande attualità: l’utilizzo dell’IA nell’ambito dell’istruzione e quanto questa innovazione stia già influenzando anche il settore dell’istruzione. E’ indiscutibile – a parere di Giuliano – che l’IA aiuti gli insegnanti a facilitare l’apprendimento e offrire nuove opportunità agli studenti, ma potrebbe anche rivelarsi l’ennesima tecnologia che espone i ragazzi a dei rischi che, se non debitamente governati, possono avere conseguenze negative a livello individuale e sociale. L’adolescenza – ha rimarcato Giuliano – costituisce un periodo cruciale di crescita e formazione, durante il quale i giovani cercano di consolidare le proprie capacità cognitive, emotive e sociali. In questa delicata fase di transizione, è di vitale importanza – fa notare il Garante – promuovere una profonda riflessione sulle implicazioni e sugli effetti derivanti dall’uso di applicazioni basate su Intelligenza Artificiale”.

“Uno dei principali rischi – ha evidenziato Giuliano – è che gli adolescenti potrebbero non essere pienamente consapevoli delle limitazioni intrinseche dei sistemi di IA che utilizzano, né dei potenziali rischi associati al loro impiego. Nonostante la loro capacità straordinaria di fornire risposte immediate, è essenziale sottolineare che tali sistemi possono essere influenzati da bias che distorcono significativamente i risultati. Il concetto di bias – ha spiegato il Garante – definito come una forma di distorsione causata dal pregiudizio, evidenzia quanto gli adolescenti siano vulnerabili all’esposizione a informazioni distorte discriminatorie. Gli algoritmi e i modelli su cui si basano i motori di IA possono essere soggetti a manipolazioni esterne o a influenze indesiderate, rendendo gli adolescenti particolarmente suscettibili ad essere sedotti da applicazioni di IA, attraverso pubblicità mirate o propaganda politica. Questo fenomeno può incidere profondamente sulla loro percezione del mondo e delle persone che li circondano. Spesso – ha aggiunto Giuliano – si presume, erroneamente, che i risultati ottenuti tramite una semplice ricerca online siano accurati e obiettivi, senza intraprendere un processo critico di valutazione o analisi. Gli algoritmi di IA dipendono fortemente dai dati di addestramento per apprendere e migliorare le loro prestazioni. Tuttavia, se questi dati sono limitati o poco rappresentativi, il modello di IA rischia di essere inefficace o di generalizzare su nuovi dati. Questo problema è particolarmente evidente in applicazioni dove i dati sono scarsi op costosi da ottenere. E’ importante considerare che la mancanza di consapevolezza riguardo al funzionamento ed alle limitazioni dei sistemi di IA può portare gli adolescenti a sviluppare una fiducia eccessiva in essi, affidandosi ciecamente ai loro risultati senza alcun discernimento critico. Tale atteggiamento può portare a decisioni errate o interpretazioni distorte della realtà, che influenzano negativamente il loro processo di apprendimento e crescita”.

“L’integrazione della IA nella scuola – ha sottolineato Giuliano – continuerà ad evolversi ed a suscitare dibattiti significativi. La speranza è che le informazioni raccolte in questa indagine possano essere utili alle decisioni strategiche nel settore dell’istruzione per garantire un utilizzo consapevole ed efficace della IA. E’ fondamentale – ha concluso il Garante – affrontare queste sfide con uno spirito di apertura e collaborazione, lavorando insieme per massimizzare il potenziale dell’IA nell’educazione e assicurare che sia al servizio del benessere e dello sviluppo di ogni studente”.

A Daniela Ciorciaro, il compito di illustrare gli obiettivi e le modalità di svolgimento dell’indagine, senza tralasciare i risultati raggiunti.

“Il progetto di indagine conoscitiva – ha sottolineato – è nato a seguito della sottoscrizione di un Protocollo di Intesa stipulato il 26 giugno 2023 tra il Garante dell’Infanzia e dell’Adolescenza della Basilicata e l’Associazione Dipendenze Tecnologiche, GAP e Cyberbullismo O.d.V., con l’obiettivo congiunto di rivolgere l’attenzione sulla tematica sempre più diffusa della Intelligenza Artificiale, in particolar modo sull’uso della stessa in ambito educativo e didattico. Il sondaggio ha avuto inizio il 15 novembre 2023 con l’invio, a tutte le scuole della regione Basilicata e al Rettore dell’Università degli Studi della Basilicata (Unibas), di una mail contenente la richiesta di partecipazione alla ricerca. Un testo introduttivo formulava le motivazioni connesse sulle quali, il garante Vincenzo Giuliano ed io stessa, in qualità di esperta di dipendenze, miravano alla raccolta dei dati: interpellare gli insegnanti sulla conoscenza ed utilizzo dell’Intelligenza Artificiale Generativa in classe; il ruolo che essa può svolgere nel futuro dell’educazione e se modificherà la mansione degli insegnanti. Faceva seguito un link al quale potersi collegare e poter rispondere ad un questionario online, mediante qualsiasi dispositivo digitale. E’ stato utilizzato – ha specificato Daniela Ciorciaro – un questionario online costruito mediante Google Moduli, strutturato a risposta multipla suddiviso in due sezioni: la prima contenente informazioni generali sui partecipanti come genere, età, ordine di scuola, provincia di insegnamento ed anni di insegnamento; la seconda contenente quattordici domande specifiche suddivise in due sottosezioni. La prima sottosezione con sole due domande chiuse sull’utilizzo degli assistenti virtuali e sulla conoscenza di ChatGPT; la seconda con tutte le altre domande con possibilità di più opzioni di risposta. Tra le due sottosezioni è stata inserita una breve descrizione di ChatGPT come annotazione. Per il testo completo si rimanda al QRCODE”.

“L’adesione – ha continuato – è avvenuta su base volontaria: la fase operativa di rilevazione dei dati è durata fino alla fine di febbraio 2024. Le risposte sono state memorizzate nel database di Google Moduli. L’adesione è stata ampia, raccogliendo un numero totale di 787 partecipanti. Al fine di ottenere una qualità soddisfacente dei risultati del sondaggio, è stato applicato un approccio duplice. Al primo livello, la soluzione software offerta da Google ha garantito una lettura dei risultati in modo semplice e lineare. Al secondo livello, una lettura ragionata ha permesso di approfondire le singole tematiche utilizzando analisi comparative e tabulazioni incrociate filtrando i risultati. La maggior parte delle risposte sono giunte dagli insegnanti degli Istituti Comprensivi e Istituti Superiori delle due province lucane, mentre solo sei, le risposte da parte dei docenti Unibas. Il 61,6 per cento delle risposte sono state fornite da insegnanti della provincia di Potenza e 38,4 per cento da quelli di Matera con prevalenza femminile (82 per cento) rispetto a quella maschile. La composizione del questionario è stata eseguita da insegnanti con età compresa tre i 50 e i 60 anni, a cui fa seguito la fascia 40-50. Degna di nota, con il 12,8 per cento la compilazione del questionario ad opera di insegnanti di età superiore ai 60 anni. Oltre il 42 per cento dei compilanti insegna presso la Scuola Primaria; 32,8 per cento nella Scuola Secondaria di I grado e quasi il 24 per cento nella Scuola Secondaria di II grado, con una anzianità di servizio prevalentemente compresa tra 10 e 20 anni. Quasi il 65 per cento degli insegnanti ha dichiarato di utilizzare ‘assistenti virtuali’ come Alexa, Siri, Tobi, Cortana nella vita quotidiana, ma soltanto il 13, 7 per cento conosce e utilizza ChatGPT. Approfondendo questo dato possiamo notare – ha puntualizzato Ciorciaro – che delle 106 persone totali, 28 sono gli insegnanti di Scuola Primaria che conoscono e utilizzano ChatGPT: 37 quelli della Scuola Secondaria di I grado e 38 della Secondaria di II grado. La metà dei docenti Unibas ad aver compilato il sondaggio (un piccolo campione di 3 persone) lo conosce e lo utilizza per motivi personali. Sono le donne ad usare maggiormente l’Intelligenza Artificiale (74), rispetto agli uomini (32). Larga fetta di insegnati, invece, (49,4 per cento), ne hanno sentito parlare prevalentemente dal web, tg e giornali, ma non lo utilizzano, mentre il 37,1 per cento non lo conosce affatto. Più della metà dei partecipanti (67 per cento) è curioso di saperne di più, per il 36 per cento di questi, aderendo alla proposta di seguire un corso specifico si ChatGPT per gli insegnanti (livello base). La restante percentuale si divide tra farsi un’idea utilizzandolo in prima persona; frequentare un workshop di livello avanzato e, infine, farsi spiegare le funzionalità direttamente dagli alunni in classe. In tutti gli ordini di scuola le risposte seguono questo andamento ordinale. Il rimanente 33 per cento, invece – ha concluso – non è interessato ad approfondire la questione, specificando di non dover utilizzare l’Intelligenza Artificiale a scuola e di non farla utilizzare”.

“L’utilizzo che ne fanno gli insegnanti di ChatGPT è prevalentemente: quello di trovare idee creative per le lezioni; poi per motivi personali; infine per creare esercizi, test e verifiche per la propria disciplina. Quando si parla, invece, dell’utilizzo in classe di ChatGPT, i numeri calano drasticamente. Nessun docente – ha esplicitato l’esperta in Dipendenze – lo utilizza regolarmente nella sua classe. 18 insegnanti, invece, lo utilizzano occasionalmente. Nello specifico, 6 insegnanti della Scuola Primaria lo utilizzano, con feedback di alunni che hanno trovato utile lo strumento. Due docenti che lo utilizzato nella Scuola Secondaria di I grado, riscontrando reazioni contrastanti negli studenti e 10 docenti che lo utilizzano occasionalmente nella Scuola Secondaria di II grado, ricevendo per la maggior parte, feedback contrastanti dagli studenti. In maggioranza, le misure di sicurezza adottate dagli insegnanti nell’utilizzo di ChatGPT è stato l’assicurarsi che gli alunni inserissero i giusti comandi (prompt) e, successivamente, effettuare un controllo attento dei risultati generati. Il suggerimento che i docenti vorrebbero fornire ai coleghi che stanno valutando di utilizzare ChatGPT nella loro pratica didattica, è quello di formarsi sull’uso dello strumento e dopo e averne sondato le potenzialità, valutare attentamente come sfruttarlo per migliorare la qualità del proprio lavoro. Infine, nelle ultime due domande, gli insegnanti si sono espressi sulla loro idea di futuro riguardo insegnamento e Intelligenza Artificiale. Circa il 67 per cento dei partecipanti sostiene che gli insegnanti si avvarranno della I.A. per risparmiare tempo e creare lezioni adatte a tutti gli alunni. Ma più della metà di loro non è sicuro che l’I.A. possa svolgere un ruolo importante nell’educazione del futuro”.

Pasquale Costante, nel trarre le conclusioni, ha parlato di “terza rivoluzione digitale. Da un lato – ha sottolineato – esistono indubbi vantaggi, dall’altro vi è il pericolo della dipendenza e, quindi, si rischia di ricadere in una ‘nuova povertà digitale’. L’intelligenza Artificiale viaggia a velocità stratosferiche e, di certo, non può essere tenuta fuori dalle classi. E’ in forte accelerazione e anche per questo, bisogna essere puntuali sulla formazione, sulle competenze e professionalità, occorre avere un pensiero critico e saper utilizzare le tecnologie in modo consapevole.  E’ necessario accompagnare le scuole in questo processo di trasformazione che, se ben guidato, può essere di grande aiuto al docente. Bisogna invertire la tendenza: capire, cioè, gli algoritmi e non farsi dominare da essi, L’Intelligenza Artificiale non deve superare l’intelligenza umana, la cui importanza non va sminuita, tutt’altro. La strada da indicare e percorrere deve vedere il prevalere della bontà insostitubile delle opportunità e potenzialità umane. L’utilizzo deve essere condiviso nelle metodologie e nelle finalità da raggiungere”.

Leave a Reply

  • (not be published)