L'IA ci impoverirà intellettualmente?
La GenAI ha reso troppo semplice usare la tecnologia IA? Avremo dei benefici che supereranno i costi di quel che dimenticheremo? Quali competenze dovremo sviluppare?
La GenAI ha permesso alla tecnologia IA di diventare pop e accessibile a (quasi) chiunque
Come ogni tecnologia, anche l’IA dovrà essere adottata e inserita nel proprio lavoro e nei processi aziendali. Il tema è lo sforzo cognitivo necessario vs. il beneficio atteso dai singoli individui
Al netto del prompting necessario per interagire con la macchina, gli esseri umani dovranno coltivare sempre la propria capacità critica e intuitiva per non doversi affidare totalmente alla macchina nella formulazione dei pensieri
Ergonomie Cognitive in stile retrò, Dall-E, immagine mia
La grandezza, e il relativo rischio, della GenAI è aver reso la tecnologia IA pop e accessibile al grande pubblico. Tanti ne parlano, altrettanti la usano: poter dialogare con una macchina attraverso il principale software in dotazione a noi umani, il linguaggio, ha sdoganato l’accesso a una tecnologia altrimenti ad alte barriere all’ingresso.
Ne ho parlato con Massimo Lupi, che oltre a essere un collega, è Professore di Learning&Development presso la Statale di Milano e Organizational Behaviour presso il GSOM del Politecnico di Milano. Tra i temi che ci hanno intrattenuto ultimamente, mi ha colpito il concetto di Ergonomia Cognitiva, ovvero la capacità di un oggetto (fisico o virtuale) di essere adottato dal nostro cervello, e quindi usato in maniera efficiente ed efficace.
Nel corso dell’AI Week di quest’anno1, uno dei leitmotiv più comuni era il tema delle nuove competenze sviluppate da e con l’IA e la necessità di cambiamento organizzativo. Qualche anno fa tu avevi scritto un articolo che già affrontava il tema.2 Mi avevano colpito due aspetti: il primo, in una battuta, è che non basta riempirsi di data scientist per diventare un’azienda data-driven (così come non basta riempirsi di tool GenAI per diventare AI-driven); il secondo, puoi avere tutta la tecnologia a disposizione, ma decisioni, scelte e pensieri saranno sempre e comunque influenzati da bias, processi decisionali, competenze mancanti, che sono fattori essenzialmente umani. Partirei da qui.
La prendo un po’ alla lontana: qualsiasi cambiamento tecnologico ha prodotto cambiamenti nel modo in cui le persone lavorano. Se guardiamo la storia dalla rivoluzione industriale in poi, l'arrivo di qualcosa che ha modificato il modo in cui l'essere umano produce qualcosa, sia esso un artefatto, una conoscenza, ha generato un processo di adattamento conseguente, che ogni tanto è sfociato in rivolta e ribellione, altre in normale adattamento
Prendiamo, a titolo di esempio, l’arrivo dei personal computer negli uffici e le sue conseguenze: la prima, lo sviluppo delle abilità necessarie per usare quello specifico strumento; la seconda, la resistenza al cambiamento di chi continuava a fare le cose come prima, in quanto ogni acquisizione di nuove competenze produce fatica nell'essere umano.
Il secondo aspetto da considerare è il beneficio, nelle sue forme di beneficio atteso e beneficio percepito: ad esempio, noi oggi tendiamo a dire che ci attendiamo benefici economici dall'introduzione di una nuova tecnologia, ma non ci domandiamo qual è il beneficio percepito dagli utilizzatori della stessa tecnologia: a loro, che cosa torna?
Vorrei fare una piccola digressione sul tema. Negli ultimi due secoli a questa parte, si è sviluppato un tema di velocità di acquisizione, e quindi di maggiore sforzo cognitivo da parte delle persone? La dico in una battuta: ci sarà anche stato il momento di adozione della ruota migliaia di anni fa, ma sarà stato così lento che la società lo avrà assorbito in modo - quasi - naturale. Ma adesso? La velocità è talmente compressa che lo sforzo cognitivo di superare le barriere all’ingresso sta diventando più stretto temporalmente e, forse, più elevato?
Sì, sicuramente, ma c'è anche un altro tema: dove avvengono i cambiamenti? Noi possiamo individuare due strade: il cambiamento avviene all'interno dell'organizzazione e poi viene esportato nella società, o viceversa. Ad esempio, il computer prima è nato nelle organizzazioni e poi è stato esportato nella società. Il paradosso, secondo me, è che oggi questa cosa è invertita: adesso arriva prima fuori dall'organizzazione (nella società) e poi viene importata nelle organizzazioni. Ad esempio, i social media non sono nati nell'organizzazione, ma è l’organizzazione che ne è stata influenzata.
Concordo: penso alle abitudini nel modo di relazionarsi all'interno dell'organizzazione, cioè di come le abitudini da social siano stati mutuati in una “normale” vita aziendale.
Tornando al tema di quanta fatica si deve fare per adottare un nuovo strumento, penso anche a quanta fatica un individuo vuole fare. Non è un caso che nel grande ambito del design, l’obiettivo converga verso la semplificazione dell’uso degli oggetti (fisici o virtuali): non hai più tempo, non hai più voglia e ti sei disabituato a far fatica a raccogliere dati, informazioni, a sintetizzarle per adottare nuove tecnologie e nuovi strumenti. Ergo, devo semplificarti il più possibile l’accesso per permetterti di adottare nuove soluzioni, processi, abitudini.
E’ il tema dell'ergonomia cognitiva, ovvero rendere sensorialmente facile l’adozione di un oggetto cognitivo (nel nostro caso, una tecnologia) sgravando l’utente dalla fatica. Se pensiamo al primo grande facilitatore di accesso alla tecnologia informatica, è stato il passaggio dalla scrittura in DOS all’icona per aprire un documento: sul desktop vedi una paginetta scritta, e associ quel simbolo al documento Word, clicchi e il computer fa per te tutte le operazioni che dovevi svolgere in precedenza. Quello che succede nella black box, che in quel caso è il computer, a te non interessa. Non ti serve essere un ingegnere informatico per cliccare l'icona di Word: ti serve solo sapere che, se clicco l'icona di Word, si apre un documento di scrittura. Così facendo, si è reso l’utilizzo del pc ergonomico per la nostra capacità cognitiva.
L’IA generativa non ha un po’ portato a questo effetto? Potersi approcciare a una tecnologia profonda e complessa come l’IA attraverso il linguaggio naturale è un po’ la porta d’accesso a quell’ergonomia cognitiva che le icone hanno creato per l’uso dei PC?
In parte. Con l’IA generativa si è aperto il tema del prompting, e quindi: sei in grado di porre la domanda giusta, con i giusti modi, perché l’IA ti restituisca elementi di valore? Si tratta di un tema che richiede un apprendimento, uno sforzo cognitivo, e quindi, di nuovo, quanta fatica devo fare per apprendere l’uso di questo strumento, e quale vantaggio mi procura investire la mia capacità cognitiva nel farlo?
Approfondirei forse il punto dell’utilità. Qual è l’attività più comune che svolgi oggi grazie all’IA generativa? Generazione output di diverse tipologie di creatività (scritto, grafica), interrogazione di database destrutturati e, in generale, documenti e testi scritti. Parliamo del summary di un documento o un libro: i punti chiave vengono estratti dall’IA, e su questo non abbiamo dubbi. Ma la domanda vera è: su quale base estrae i punti chiave, e su quale logica è stato costruito? Perché magari io essere umano trovo una parola, una frase, che mi apre il mondo in due: l’IA è in grado di farlo? Quello che fa è un’operazione statistica, un algoritmo, che probabilmente nella quasi totalità dei casi mi dà una risposta corretta rispetto a un contenuto che le ho fornito. Ma tu ti fideresti?
Sì. O meglio: mi fiderei di quel 90, 95% di probabilità che la risposta sia corretta, tenendo sempre da parte le mie competenze di dominio per comprendere se quanto mi è stato detto è corretto oppure no. Il tema vero è, seguendo il tuo ragionamento, che l’IA non può darmi l'intuizione, ma, “semplicemente”, quel che ritrova all’interno del documento.
E qui arriviamo al tema del decisore irrazionale. Diamo per assodato che lo sforzo cognitivo di apprendere il miglior uso possibile della tecnologia sia stato fatto e che siamo in grado di fare prompting per interrogare database di ottima qualità. Le strade davanti sono due: prendi per vero, assolutamente vero, quello che ti restituisce, e quindi spegni la tua capacità critica e fai solo quello che ti viene indicato, oppure accendi la tua capacità critica. La prima strada è a fatica zero, la seconda a fatica tanta. Un umano, che è programmato in natura per seguire il principio di massima resa con minimo sforzo, quale strada percorrerà?
Proviamo a ragionare per paradossi. Torniamo alla fine degli anni 70 e immaginiamo che Akio Morita, co-fondatore di Sony e inventore del walkman, chieda a un’IA se sia o meno una buona idea creare un prodotto dove le persone possano sentirsi la loro musica in completo isolamento dagli altri. Richiesta di un prodotto simile sul mercato (e relativa esistenza di un prodotto del genere): zero. Basandosi sui dati disponibili, la risposta sarebbe stata “Procedi!” oppure “Sconsiglio l’investimento”? Questo il grosso punto che noi abbiamo: qual è la capacità di un essere a razionalità limitata di dare risposte totalmente innovative rispetto all’esistente, e quindi quanto influirà l’IA sulla nostra capacità di fare innovazione veramente disruptive, su quell'innovazione che è la capacità di creare qualcosa che non esiste, che nessuno chiede, di cui nessuno sta parlando?
Ma infatti volevo arrivare a questo e parlare di rischi. La semplificazione di accesso alla macchina, che di fatto c’è, c’è stato e aumenterà sempre più, non rischia di creare, a livello sistemico, un problema di decisioni, scelte, lettura della realtà, pensiero innovativo? L’“intelligenza” della macchina potrebbe renderci più “stupidi”?
Ni. L'ergonomia è ciò che ti consente di utilizzare un oggetto fisico o cognitivo con meno fatica. Il tema vero è la conoscenza, e quindi relativa accessibilità e utilizzo. L'intelligenza artificiale aiuterà? Certo, perché faciliterà l’accesso a una conoscenza, non solo sotto forma di informazione, ma strutturata per avere un suo possibile utilizzo. Pensiamo a un medico che si affida all’IA per una diagnosi o per accedere al patrimonio mnemonico necessario alla professione: troverà tutto il patrimonio informativo della professione, clusterizzato e strutturato (e restituito sotto forma di linguaggio naturale). Possiamo dire che un medico può essere sostituito da un’IA? Ecco, questo no, perché è nella capacità di astrazione della conoscenza, e nella capacità di affrontare l’imprevisto, che il medico bravo si distingue.
Semplificare troppo l’accesso a un certo tipo di attività o conoscenza, non rischia di addestrare meno il nostro cervello? Per fare un esempio, penso al tema rapporto bambini-device mobili (smartphone, iPad): il motivo per cui è considerato un potenziale male non è tanto lo strumento in sé, ma il fatto che sia estremamente facile da usare, e che abitui quindi a minore sforzo cognitivo per fare determinati pensieri e attività.
Io la vedo un po’ diversamente. Io non credo che non dobbiamo dare l'iPad ai bambini, quanto dargli qualcosa in più. Torniamo al mondo del lavoro. Noi non possiamo prescindere dal fatto che l'intelligenza artificiale generativa arriverà e si diffonderà nei luoghi di lavoro: all'inizio probabilmente saranno operazioni di routine, ma poi ,progressivamente, come è successo con tutti gli strumenti che ci sono arrivati, diventerà sempre più invasiva, si perfezionerà.
Il nostro compito è ricordarci sempre che dobbiamo fornire a noi stessi l'occasione di mantenere attiva quella parte critica, quella parte sospettosa che ci rende umani. In breve, dobbiamo imparare a non affidarci alla macchina.
Questo pensiero lo facciamo noi oggi perché ci troviamo in uno status quo. Ma, per fare un esempio, 20.000 anni fa, saper accendere un fuoco rappresentava la differenza tra la vita e la morte; oggi, è una competenza che è stata completamente eliminata dall’esperienza umana. Magari accadrà lo stesso per tanti aspetti della nostra conoscenza, che quindi abbandoneremo, affidandoci alla macchina come facciamo oggi con l’accensione del fuoco per cucinare?
Parto dall’esempio del fuoco: io, te, nessuno di noi, se si trovasse in un’isola deserta, sapremmo subito accendere un fuoco. Ma sappiamo come poterlo fare, e magari provandoci e riprovandoci riusciremmo anche a crearlo; questo perché è una conoscenza diffusa nella società, che ciascuno di noi ha letto almeno una volta nella vita e può recuperarlo dal proprio bagaglio di conoscenze. Ma se a me non avessero mai raccontato come si accende il fuoco, io non saprei neanche da dove partire. E questo è il patrimonio di conoscenza. Noi dobbiamo per forza crescere, e lo faremo con l’IA come siamo cresciuti con altre tecnologie, con il rischio, però, di dimenticare che la nostra vera forza sta tra le nostre orecchie e non dentro la macchina.
Ma quindi, per concludere, in un eventuale dibattito su cosa insegnare nelle scuole e nelle università, davanti alla possibilità di affidare la conoscenza mnemonica a una macchina facilmente accessibile, noi dovremmo invece supportare l’insegnamento del più alto volume possibile di conoscenza umana per non rischiare di essere totalmente alla mercé di una “intelligenza” che non sempre ci dà risposte giuste e che, soprattutto, non sappiamo fino in fondo come funzioni?
Più che volume di conoscenza, penso che il grande insegnamento debba essere il mantenimento di capacità critica in senso epistemologico. Perché, ripeto, questo è il punto nodale sull’IA: usiamola, ci aiuterà e faciliterà tante attività, snellirà i processi, ma potremo basarci in toto su quello che ci dirà? Allo stato attuale, la risposta è no.
Rimini, 9-10 aprile 2024
Intelligenza umana e artificiale: superare la razionalità limitata, Luca Solari, Massimo Lupi, Valentina Friggi, Persone&Conoscenze, 2019