TEMA IN CLASSE DEL 17 NOVEMBRE - materiali

Il tema di lunedì sarà dedicato all'impatto dell'IA sulle nostre vite. Sarà proposto nella seguente forma: parte introduttiva in cui esponete la questione da trattare seguendo le indicazioni che fornirò, parte argomentativa in cui ragionerete su pro e contro servendovi di due o tre documenti (citazioni da articoli) che fornirò insieme alla traccia. Di seguito trovate alcuni materiali per arricchire le vostre conoscenze sull'argomento generale. 

1) Da Rivista.AI

Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.

L’idea è tanto semplice quanto destabilizzante. Mentre il mondo intero si interroga sulla coscienza dei chatbot, Floridi chiarisce che la questione è mal posta. L’AI non possiede una mente, non comprende, non prova nulla. È pura agency, un’entità capace di operare nel mondo in modo efficiente, senza alcuna forma di intelligenza nel senso umano del termine. Questa prospettiva smonta il sentimentalismo digitale che domina i titoli dei giornali e le conferenze da palco. La macchina non è un soggetto, è un agente. E come ogni agente potente, va regolata, capita e controllata prima che la sua efficienza superi la nostra capacità di comprensione etica e politica.

Il tono di Floridi è chirurgico, mai allarmista ma lucidamente provocatorio. Quando afferma che “l’intelligenza artificiale non pensa, agisce”, mette in discussione non solo la narrativa tecnologica ma anche il nostro bisogno psicologico di specchiarci nelle macchine. Siamo noi, non loro, ad avere fame di significato. Siamo noi a voler credere che il codice contenga coscienza, che l’algoritmo abbia un’intenzione. Floridi ci invita a disintossicarci da questa proiezione. L’AI non pensa perché non ha un “sé”. È un insieme di processi che ottimizzano, calcolano, classificano. Non è viva. È semplicemente efficace. E l’efficacia, come sanno bene gli ingegneri, non è mai neutrale.

Il libro nasce in un momento in cui la confusione semantica intorno al termine “intelligenza” ha raggiunto il suo apice. Aziende, politici e giornalisti parlano di AI come se fosse un soggetto, un’entità dotata di volontà. Floridi rovescia il tavolo: l’AI non sostituisce la mente, ma il braccio. È una forza di azione distribuita, una macchina dell’efficienza che si insinua ovunque. Dalle piattaforme digitali alle istituzioni, dai flussi finanziari ai processi educativi, l’intelligenza artificiale agisce, modifica, decide. Ma lo fa senza sapere cosa sta facendo. È qui la frattura epistemologica che Floridi chiama “la differenza fondamentale”.

Chi si aspettava un libro tecnico rimarrà spiazzato. Floridi non parla ai programmatori ma ai cittadini di una civiltà che ha delegato l’azione alle macchine. Il suo tono è quello di un osservatore inquieto che vede il rischio non nell’AI che pensa troppo, ma in quella che agisce troppo bene. L’efficienza algoritmica, libera da coscienza e responsabilità, è la nuova forma di potere che scivola sotto la soglia della consapevolezza collettiva. È una potenza che lavora dietro le quinte, che struttura il mondo senza bisogno di riflettere su di esso.

La domanda vera, suggerisce Floridi, non è quanto l’intelligenza artificiale sia intelligente, ma quanto noi stiamo diventando superficiali nel definirla. Parlare di AI “pensante” serve più al marketing che alla filosofia. Serve a vendere, a semplificare, a rassicurare. Perché se la macchina pensa, allora possiamo trattarla come un altro essere. Se invece agisce senza pensare, allora ci troviamo di fronte a una creatura completamente diversa, aliena nella sua logica, ma integrata nella nostra quotidianità.

Durante la presentazione a Milano, Floridi ha parlato di “una rivoluzione che riscrive le regole del presente”. Non una rivoluzione romantica, ma una trasformazione strutturale che scorre silenziosa nei processi aziendali, nei protocolli decisionali dei governi, nelle interfacce delle scuole e perfino nelle relazioni affettive. L’AI parla, osserva, suggerisce, decide. Ma non comprende. E questa assenza di comprensione è, paradossalmente, la sua forza più grande. Perché elimina l’errore umano, la lentezza, l’ambiguità. L’AI non si interroga sul senso, produce esiti. Non cerca verità, genera risultati.

È qui che la riflessione di Floridi tocca la questione etica con precisione chirurgica. Se l’AI è agency, chi è allora responsabile delle sue azioni? La catena dell’agire artificiale si compone di progettisti, imprese, utenti e sistemi automatizzati che si influenzano reciprocamente. La responsabilità, in questo scenario, si dissolve. Floridi la chiama “de-responsabilizzazione algoritmica”, una condizione in cui l’efficienza tecnica sostituisce la deliberazione morale. È un problema che nessun regolamento potrà risolvere se prima non cambiamo il modo di pensare l’AI.

C’è un’ironia sottile nella visione di Floridi: più l’intelligenza artificiale avanza, più diventa evidente che l’intelligenza, quella vera, rimane nostra. L’AI agisce, ma non sa perché lo fa. Noi invece lo sappiamo, o almeno dovremmo. Ed è qui che il filosofo affonda la lama nella carne viva del dibattito tecnologico. L’intelligenza artificiale, priva di intenzionalità, è come una forza naturale: utile, pericolosa, neutra solo in apparenza. Il problema non è se penserà mai, ma se noi smetteremo di farlo, abituandoci a delegare troppo.

“Artificial Agency” non è un saggio tecnico, è un manifesto per una nuova alfabetizzazione etica. Floridi ci costringe a riformulare la nostra relazione con la tecnologia, liberandola dalle metafore infantili del robot pensante e riportandola alla concretezza del potere operativo. La sua filosofia è una chiamata alla maturità intellettuale. In un’epoca in cui l’AI scrive testi, compone musica e suggerisce decisioni politiche, credere che stia “pensando” è la più dolce delle illusioni.

Il titolo del libro è una trappola semantica che funziona perfettamente anche come bussola per il futuro. La differenza fondamentale non è tra intelligenza naturale e artificiale, ma tra pensiero e azione, tra comprensione e operatività cieca. La sfida non è costruire macchine che pensano, ma società che pensano prima di agire. Floridi ci lascia con questa provocazione mascherata da filosofia: l’intelligenza artificiale non pensa, ma noi abbiamo smesso di chiederci se lo facciamo ancora davvero.

2) Da Fondazione Leonardo

“L’intelligenza artificiale è disegnata da esseri umani, controllata da esseri umani e le conseguenze positive o negative di questa tecnologia saranno sempre, comunque e soltanto umane”. Abbiamo incontrato Luciano Floridi, professore dell’Università di Yale e presidente della Fondazione Leonardo, a Napoli durante l’evento NextGen AI, il primo summit internazionale sull'intelligenza artificiale nella scuola, promosso dal Ministero dell’Istruzione e del Merito nell’ambito del Campus itinerante “Scuola Futura”.

Professor Floridi, quanto tempo abbiamo per integrare l'intelligenza artificiale in modo efficace nel sistema educativo, secondo lei?

Ad essere ottimisti, abbiamo sempre tempo. Certo, più si ritarda, peggio è. Avremmo dovuto già iniziare, sarebbe bene iniziare da subito. So che ci sono moltissime realtà nel Paese che stanno facendo molto bene, quindi piano con le lamentele. Certo, a livello nazionale si può fare sempre un po' meglio, ma questo evento dimostra l'energia, le capacità, la capacità di migliorare un po' ovunque in tutta la penisola. C'è tempo, possiamo fare molto bene, facciamo in fretta perché il tempo sta correndo.

L'intelligenza artificiale può personalizzare l'apprendimento per ciascuno studente. Questo, secondo lei, non rischia di indebolire la dimensione collettiva e sociale dell'educazione?

Lo può indebolire, insieme all'indebolimento anche degli aspetti più sfidanti: un eccesso di personalizzazione potrebbe anche essere un eccesso di gentilezza, anche a volte lì dove servirebbe magari un voto meno generoso o un commento leggermente più critico. 

È un fattore buono, è qualcosa che dovremmo sfruttare bene, ma non possiamo pensare che l'intelligenza artificiale faccia da sola, così per dire.

È bene che questa taylorizzazione, cioè questa sartorializzazione dell'esperienza didattica, quando c'è e se c'è, sia guidata con intelligenza e quindi non vada a scapito del momento collettivo di condivisione e non sia poi una esagerata attenzione all'individuo e a tutte le sue necessità, senza anche prendere in considerazione i momenti più educativi, che a volte devono anche dare, ahimè, qualche brutta notizia.

In futuro, secondo lei, il docente sarà ancora soprattutto un trasmettitore di conoscenze o diventerà sempre più un facilitatore critico che guida all'uso delle macchine?

Il docente ha sempre più incarichi. Questa, se vogliamo, è la buona e la cattiva notizia al contempo. Serve un docente che è sempre più preparato anche sulle tecnologie nuove, quindi esperto sul tema, che sia biologia o storia, che sia geografia o chimica, in ogni caso che conosca molto bene la materia, perché ovviamente, ricordiamoci, questi strumenti devono essere controllati. Sono anche a volte pieni di errori, le cosiddette “allucinazioni”, ma al contempo un docente che fa anche da regista, da architetto, da architetta, da disegnatore o disegnatrice dell'esperienza basata sull'intelligenza artificiale. Allora, se vogliamo metterla in termini positivi, il docente ha più responsabilità, più esperienza, più capacità, certo un po' più di lavoro, ma a volte anche un lavoro più qualificato, più interessante.

Nel suo ultimo libro “La differenza fondamentale”, lei propone una nuova chiave di lettura. L'IA non va intesa come una forma di intelligenza artificiale, ma come una nuova forma di agency, quindi comunque capace di influenzare l'ambiente circostante. Ecco, quindi qual è la differenza fondamentale?

La differenza fondamentale che noi oggi vediamo è miracolosa, sembra veramente straordinaria, ma non è quella che ci viene “venduta” o proposta dalle grandi aziende, cioè la creazione di una intelligenza non biologica, sintetica che potrebbe presto superare e dominare quella umana. In realtà, la differenza fondamentale è quella tra l'agire e l'intelligere, cioè il comprendere, che noi oggi abbiamo separato. 

Si tratta di un fattore straordinario, altrettanto miracoloso, ma di un miracolo diverso, se lo vogliamo mettere in questi termini, e quindi anche di conseguenze diverse. 

Se pensiamo in termini di intelligenza artificiale “alla vecchia maniera”, saremo preoccupati dalla crescita smodata, sregolata, dominante di una qualsiasi intelligenza che sia una sorta di mostro di Frankenstein, mentre se cominciamo a pensare a strumenti che fanno cose al posto nostro - spesso meglio di noi - in maniera più efficiente, ma che in realtà devono essere guidati, ecco che allora si tratta di una prospettiva più costruttiva, più responsabilizzante. Il problema non è un'intelligenza superiore che ci dominerà come se fosse un'intelligenza marziana; il problema sarà quello della responsabilità umana. Tanto più potenti sono gli strumenti nelle nostre mani, tanto più noi dobbiamo essere in grado di guidarli nel modo migliore e questa guida va fatta attraverso la formazione. Quindi più formazione, più formazione, più formazione.

Commenti

Post popolari in questo blog

PIANO DELLE INTERROGAZIONI DI ITALIANO E PROGRAMMA

PIANO DELLE INTERROGAZIONI DI STORIA E PROGRAMMA

LETTURE (E ALTRO) PER L'ESTATE