STEPHANIE ARNETT/MITTR | GETTY IMAGES

Parlate di intelligenza artificiale ai vostri figli. Ecco 6 cose da dire

I bambini tornano a scuola e l’IA non è solo ChatGPT.

Nell’ultimo anno, bambini, insegnanti e genitori hanno avuto un corso accelerato di intelligenza artificiale, grazie al popolarissimo ChatGPT. 

Con una reazione impulsiva, alcune scuole, come quelle pubbliche di New York, hanno vietato la tecnologia, salvo poi annullare il divieto. Ora che molti adulti hanno preso confidenza con la tecnologia, le scuole hanno iniziato a esplorare modi per utilizzare i sistemi di intelligenza artificiale per insegnare ai bambini aspetti importanti sul pensiero critico.

Ma non sono solo i chatbot di IA che i bambini incontrano nelle scuole e nella loro vita quotidiana. L’intelligenza artificiale è sempre più presente ovunque: ci consiglia spettacoli su Netflix, aiuta Alexa a rispondere alle nostre domande, alimenta i filtri interattivi preferiti di Snapchat e il modo in cui si sblocca lo smartphone.

Anche se alcuni studenti saranno certamente più interessati all’IA di altri, la comprensione delle basi del funzionamento di questi sistemi sta diventando una forma di alfabetizzazione di base, che tutti coloro che finiscono le scuole superiori dovrebbero conoscere, afferma Regina Barzilay, professore al MIT e responsabile della facoltà di IA presso la MIT Jameel Clinic. La clinica ha recentemente organizzato un programma estivo per studenti delle scuole superiori interessati all’uso dell’IA nel settore salute.

I bambini dovrebbero essere incoraggiati a essere curiosi sulle tecnologie che giocano un ruolo sempre più importante nelle nostre vite, afferma l’autrice. “In futuro, si potrebbero creare enormi disparità se solo le persone che vanno all’università e studiano data science e informatica capissero come funziona”, aggiunge.

All’inizio dell’anno scolastico, ecco i sei consigli essenziali di MIT Technology Review per iniziare a dare ai vostri figli una formazione sull’intelligenza artificiale.

1. L’intelligenza artificiale non è vostra amica

Chiacchierare: i chatbot sono costruiti per fare esattamente questo. Il tono amichevole e colloquiale che ChatGPT adotta nel rispondere alle domande può far sì che gli studenti dimentichino facilmente che stanno interagendo con un sistema di intelligenza artificiale, non con un amico fidato. Questo potrebbe rendere le persone più propense a credere a ciò che dicono questi chatbot, invece di trattare i loro suggerimenti con scetticismo. Sebbene i chatbot siano molto bravi a sembrare un essere umano simpatico, non fanno altro che imitare il linguaggio umano a partire da dati estrapolati da Internet, afferma Helen Crompton, docente della Old Dominion University, specializzata in innovazione digitale nell’istruzione.

“Dobbiamo ricordare ai bambini di non fornire a sistemi come ChatGPT informazioni personali sensibili, perché finiscono tutte in un grande database”, afferma l’autrice. Una volta che i vostri dati sono nel database, diventa quasi impossibile rimuoverli. Potrebbero essere utilizzati per far guadagnare di più alle aziende tecnologiche senza il vostro consenso, oppure potrebbero essere estratti dagli hacker.

2. I modelli di intelligenza artificiale non sostituiscono i motori di ricerca

I grandi modelli linguistici sono validi solo se sono validi anche i dati con cui sono stati addestrati. Ciò significa che, sebbene i chatbot siano abili nel rispondere con sicurezza a domande con testi che possono sembrare plausibili, non tutte le informazioni che offrono saranno corrette o affidabili. I modelli linguistici dell’intelligenza artificiale sono anche noti per presentare falsità come fatti. E a seconda di dove sono stati raccolti i dati, possono perpetuare pregiudizi e stereotipi potenzialmente dannosi. Gli studenti dovrebbero trattare le risposte dei chatbot come fanno con qualsiasi tipo di informazione che incontrano su Internet: in modo critico.

“Questi strumenti non rappresentano tutte le persone: ciò che ci dicono si basa su ciò su cui sono stati addestrati. Non tutti sono su Internet, quindi non si rispecchiano”, afferma Victor Lee, professore associato alla Stanford Graduate School of Education che ha creato risorse gratuite di intelligenza artificiale per i programmi delle scuole superiori. “Gli studenti dovrebbero fermarsi a riflettere prima di cliccare, condividere o postare, ed essere più critici nei confronti di ciò che vediamo e crediamo, perché molto potrebbe essere falso”.

Sebbene possa essere allettante affidarsi ai chatbot per rispondere alle domande, non sono un sostituto di Google o di altri motori di ricerca, afferma David Smith, professore di bioscience education presso la Sheffield Hallam University nel Regno Unito, che si sta preparando per aiutare i suoi studenti a orientarsi nell’uso dell’IA nella loro formazione. Gli studenti non dovrebbero accettare tutto ciò che i modelli linguistici di grandi dimensioni dicono come un fatto indiscutibile, dice, aggiungendo: “Qualsiasi risposta vi dia, dovrete verificarla”.

3. Gli insegnanti potrebbero accusarvi di usare un’IA quando non l’avete fatto

Una delle sfide più grandi per gli insegnanti, ora che l’IA generativa è uno strumento di massa, è capire quando gli studenti hanno usato l’IA per fare i loro compiti. Sebbene molte aziende abbiano lanciato prodotti che promettono di rilevare se il testo è stato scritto da un essere umano o da una macchia, il problema è che gli strumenti di rilevamento del testo dell’IA sono piuttosto inaffidabili ed è molto facile ingannarli. Ci sono stati molti esempi di casi in cui gli insegnanti hanno pensato che un saggio fosse stato generato dall’intelligenza artificiale quando in realtà non lo era.

Familiarizzare con le policy sull’IA della scuola di vostro figlio (se esistono) e ricordare a vostro figlio l’importanza di rispettarle è un passo importante, dice Lee. Se vostro figlio è stato accusato ingiustamente di aver usato l’IA in un compito, ricordate di mantenere la calma, dice Crompton. Non abbiate paura di contestare la decisione e chiedete come è stata presa, e sentitevi liberi di indicare la registrazione che ChatGPT conserva delle conversazioni di un singolo utente se dovete dimostrare che vostro figlio non ha prelevato direttamente del materiale, aggiunge.

4. Gli algoritmi di raccomandazione sono progettati per attirare l’utente e potrebbero mostrargli cose negative

È importante capire e spiegare ai bambini come funzionano gli algoritmi di raccomandazione, afferma Teemu Roos, professore di informatica all’Università di Helsinki, che sta sviluppando un programma di studi sull’IA per le scuole finlandesi. Le aziende tecnologiche guadagnano quando le persone guardano le pubblicità sulle loro piattaforme. Per questo motivo hanno sviluppato potenti algoritmi di intelligenza artificiale che raccomandano contenuti, come i video su YouTube o TikTok, in modo che le persone si appassionino e rimangano sulla piattaforma il più a lungo possibile. Gli algoritmi tracciano e misurano attentamente i tipi di video che le persone guardano, per poi raccomandare video simili. Più video di gatti si guardano, ad esempio, più è probabile che l’algoritmo pensi che si vogliano vedere altri video di gatti.

Questi servizi hanno la tendenza a guidare gli utenti verso contenuti dannosi come la disinformazione, aggiunge Roos. Questo perché le persone tendono a soffermarsi su contenuti strani o scioccanti, come la disinformazione sulla salute o le ideologie politiche estreme. È molto facile rimanere bloccati in un loop, quindi è una buona idea non credere a tutto ciò che si vede online. È bene controllare le informazioni su fonti affidabili.

5. Ricordate di usare l’IA in modo sicuro e responsabile

L’intelligenza artificiale generativa non si limita al testo: ci sono molte applicazioni e programmi web gratuiti di deepfake che possono collorare il volto di qualcuno sul corpo di un altro in pochi secondi. Se è probabile che gli studenti di oggi siano stati avvertiti dei pericoli legati alla condivisione di immagini intime online, dovrebbero essere altrettanto cauti nel diffondere i volti degli amici nelle app, soprattutto perché ciò potrebbe avere ripercussioni legali. Per esempio, i tribunali hanno giudicato gli adolescenti colpevoli di diffusione di materiale pedopornografico per aver inviato materiale esplicito su altri adolescenti o persino su se stessi.

“Parliamo con i ragazzi di un comportamento online responsabile, sia per la loro sicurezza sia per non molestare, non diffondere informazioni private e non truffare nessuno, ma dovremmo anche ricordare loro le proprie responsabilità”, dice Lee. “Così come si diffondono le voci cattive, si può immaginare cosa succede quando qualcuno inizia a far circolare un’immagine falsa”.

È inoltre utile fornire a bambini e adolescenti esempi specifici dei rischi legali o di privacy legati all’uso di Internet, invece di imporre regole o linee guida generali, sottolinea Lee. Per esempio, spiegare loro come le app di modifica dei volti tramite intelligenza artificiale potrebbero conservare le foto che caricano, o indicare loro notizie su piattaforme violate, può fare più impressione di un generico avvertimento a “fare attenzione alla privacy”.

6. Non perdetevi quello che l’IA sa fare davvero bene

Sebbene molte delle prime discussioni sull’IA in classe abbiano riguardato il suo potenziale come aiuto per imbrogliare, quando viene usata in modo intelligente può essere uno strumento enormemente utile. Gli studenti che hanno difficoltà a capire un argomento difficile possono chiedere a ChatGPT di spiegarlo passo per passo, di riformularlo in forma di rap o di assumere le sembianze di un esperto insegnante di biologia per consentire loro di mettere alla prova le proprie conoscenze. ChatGPT è anche eccezionalmente bravo a redigere rapidamente tabelle dettagliate per confrontare i pro e i contro di alcuni college, ad esempio, che altrimenti richiederebbero ore di ricerca e compilazione. 
Chiedere a un chatbot i glossari di parole difficili, o di esercitarsi con le domande di storia prima di un quiz, o di aiutare uno studente a valutare le risposte dopo averle scritte, sono altri usi vantaggiosi, sottolinea Crompton. “Se si tiene sempre a mente che un chatbot IA può generare pregiudizi, ha la tendenza alle allucinazioni e alle imprecisioni e richiede per il suo uso un’adeguata alfabetizzazione digitale, è uno strumento fantastico per gli studenti che lo utilizzano nel modo corretto”, dice Crompton. “Lo stiamo capendo tutti man mano”.

Related Posts
Total
0
Share