Prenderemo decisioni migliori grazie all'Intelligenza Artificiale?
Siamo in grado di gestire l'overdose di informazioni? L'IA come sintetizzatore ci può essere d'aiuto? Superemo i nostri bias? Aumenteremo le nostre capacità?
I decisori sono chiamati a sintetizzare sempre più dati e fonti per prendere decisioni corrette
L’umano è preda di bias, ma l’IA non è da meno: sarà possibile oggettivizzare una decisione?
Lo sweet spot tra IA e decisione umana si ritrova laddove l’IA potenzia e aumenta l’umano, senza sostituirvisi
Un filosofo greco che discute con un’IA robotica in stile 300 di Zack Snyder, Midjourney, immagine mia
Prendere decisioni è difficile, e lo sarà sempre di più
Nel 2023 Oracle ha condotto una survey globale su 14.000 persone, tra dipendenti e leader aziendali, dedicata al decision making all’interno delle aziende.1 Alcuni dei punti più interessanti:
74% degli intervistati afferma che la mole di decisioni quotidiane a cui sono chiamati è aumentata di dieci volte negli ultimi tre anni.
L’86% pensa che la complessità sia data dal sovraccarico di dati. 72% ammette che l’immensa quantità di dati e, talvolta, la mancanza di fiducia negli stessi abbiano impedito qualsiasi decisione
L’85% di figure manageriali dichiara di aver sofferto di “decision distress” nell’ultimo anno, rimpiangendo o mettendo in dubbio le proprie scelte
94% degli intervistati ha modificato il proprio approccio decisionale negli ultimi tre anni
97% cerca aiuto nei dati per prendere decisioni migliori. In questa porzione, 44% vuole prendere decisioni migliori, 41% ridurre i rischi, 39% prendere decisioni più rapidamente, 37% generare più ricavi, 29% pianificare meglio rispetto al futuro e all’incertezza
Prendere decisioni è sempre più difficile. O meglio, prenderle bene. Soprattutto per chi ha ruoli di potere.
Nell’edizione del 29 luglio 2023, The Economist titolava The Overstretched CEO, riferendosi alla complessità crescente davanti a cui si trovavano i board (e i loro leader) nel prendere decisioni immersi nel mondo contemporaneo.2 Un CEO deve saper leggere la propria azienda, ma anche contesti esterni, che siano sociali, culturali, politici e geopolitici.
A parziale conferma della riflessione, in un sondaggio dell’IBM Institute for Business Value3, i fattori che compongono gli input decisionali di un CEO sono notevolmente cambiati negli ultimi dieci anni…
… e gli input utilizzati sono sempre di più e sempre più dispersi:
Sottolineo un dato: 54% dei CEO intervistati considera l’esperienza personale una fonte valida per prendere una decisione. In un virgolettato riportato nel report si afferma: “Decision-making based on intuition, common sense, and knowledge is very good and should never be lost. But the more analytic support we have, the better.”
Ma un essere umano è in grado di sintetizzare e prendere decisioni consapevoli su una tale massa di dati e input?
L'IA e gli esseri umani si avvicinano alla decisione in modi diversi. Ad esempio, l'IA tende ad essere estremamente efficace nell'analizzare grandi quantità di dati e identificare schemi e tendenze che potrebbero non essere immediatamente evidenti agli umani. Questo può essere particolarmente utile in settori come la finanza, la medicina o il marketing, dove la capacità di processare rapidamente grandi set di dati può portare a intuizioni preziose.
D'altra parte, la decisione umana è spesso guidata da intuizione, esperienza e una comprensione contestuale che l'IA può non possedere. Gli esseri umani sono in grado di prendere in considerazione fattori come l'etica, i valori culturali e le emozioni, che sono cruciali in molte situazioni decisionali, soprattutto quando le decisioni hanno un impatto diretto sulle persone
Questa è la risposta di ChatGPT alla mia richiesta di opinione.
Come sappiamo, è statisticamente una tra le migliori risposte che la macchina poteva darmi rispetto alla domanda posta e non una riflessione profonda di un robot che si pone domande esistenziali. E’ comunque una risposta di per sé interessante perché solleva una serie di punti fondanti della riflessione: quando un’IA è migliore di noi nel prendere una decisione?
In un paper pubblicato a inizio 20244, i ricercatori di Deepmind hanno definito un framework utile a comprendere il livello attuale dell’AI e dell’AGI (Artificial General Intelligence), ovvero un’intelligenza simil-umana o super-umana capace di dare risposte complesse raccogliendo da input e conoscenze diverse.
Come indica la tabella, siamo ben lontani da un’AGI non solo super-umana, ma addirittura competente, un livello che la pone subito oltre il 50° percentile della popolazione umana skilled (con qualche forma di competenza, come la scrittura, la sintesi e la lettura). Invece, guardando alla cosiddetta Narrow AI, l’intelligenza capace di raggiungere performance super-umane in ambiti molto specifici, si è raggiunta già oggi l’espressione più alta: dalla simulazione di composizione di proteine a partire da molecole, alla capacità di individuare rischi di tumore in un essere umano, a battere il campione del mondo di Go, il celebre gioco cinese che pare abbia un numero di combinazioni di gioco pressoché infinite.
Non è un caso che i giochi (Go o gli scacchi) siano ambienti di test affascinanti per osservare un’IA (Narrow) all’opera: i giochi sono un susseguirsi di scelte strategiche in una cornice regolamentare rigida. In breve: in scenari controllati, dove le combinazioni di possibilità, anche infinite, vengono ricondotte sotto l’egida di strutture rigide, i giochi sono luoghi (immaginari) dove è sempre (o quasi) possibile prendere una decisione migliore di altre per ottimizzare la propria strategia (e i propri risultati).
Bias, efficacia, complementarietà
Quando è nata la behavioural economics, e tra le varie pubblicazioni è emerso l’ultra-citato Pensieri Lenti e Veloci di Daniel Kahnemann5, un grande pilastro della teoria dello studio delle decisioni (soprattutto economiche) è venuto meno: l’idea che l’essere umano massimizzi sempre, e in maniera razionale, un paniere di beni sotto l’egida di un limite di budget. Quel che abbiamo scoperto è un’altra altra, ben più amara, verità: gli esseri umani sono preda della continua ricerca di scorciatoie mentali e bias, nudging più o meno palese, influenza altrui e meme.
Non a caso negli ultimi vent’anni è emerso il concetto di Data-Driven Company: aziende capaci di usare strutturalmente i dati per prendere le proprie decisioni. L’idea non è banale perché richiede un’attività precisa da parte dei decisori (manager, dirigenti, C-level): essere aperti a prendere decisioni che smentiscono le proprie idee, le proprie decisioni passate e il proprio istinto perché i dati conducono su altre strade. In un certo senso, si richiede ai decisori di affidarsi a un artificio (la statistica) per dare una direzione alla comunità su cui si ha un ruolo decisionale. L’IA sarà un po’ la stessa cosa?
Difficile dirlo in poche righe. Un articolo della Harvard Gazette riprende le parole di Michael Sandel in una riflessione sul tema:6
“L’appeal dei processi di decision making basati su algoritmi deriva dall’offerta di un modo oggettivo per superare la soggettività umana, i bias e i pregiudizi. Ma stiamo scoprendo che molti algoritmi […] replicano i bias che esistono già [oggi] nella società” [traduzione mia]
Non è solo un tema di bias. Un’IA in grado di prendere decisioni non supervisionate da un umano non potrà mai tener conto di sensibilità, etica, esperienza come un umano farebbe, e non potrebbe considerare input apparentemente ininfluenti nel crearsi una visione olistica di uno scenario o di una fattispecie. Citando un articolo dell’Harvard Business Review, l’IA può prendere la decisione giusta basandosi sui fatti, ma mancare dell’empatia necessaria per essere parte di quella decisione.7
A seconda di quanto l’IA sia chiamata o meno a svolgere un ruolo in un processo decisionale, Gartner propone tre livelli: Decision Support, Decision Augmentation, Decision Automation.8 Maggiore è il grado di complessità della decisione, maggiore sarà il coinvolgimento dell’IA nel processo decisionale (creare decine o centinaia di scenari economici sulla base di input diversi è molto complesso, soprattutto per la sintesi di dati richiesta), maggiore è, invece, il ruolo che gioca l’umano, maggiore è il ruolo di supporto o augmentation che l’IA ricoprirà.
Opinione personale
Credo che la sfida più grande dell’IA non sia la singola attività che riusciremo a farle fare, ma il rapporto che costruiremo per renderci migliori, almeno come professionisti. Il grande risultato non sarà automatizzare, industrializzare e diminuire costi ed effort di decisioni e attività, ma complementare i limiti umani per aumentare le nostre capacità, nelle scelte che faremo e nelle espressioni cognitive che saremo chiamati a svolgere.
In questo senso sono ottimista. Cambierà il nostro modo di concepire la conoscenza, la capacità di sintesi delle informazioni che ci giungono dai sensi (il mondo che conosciamo intorno a noi) e i dati (il mondo sotto forma di statistiche e modelli), ma cambieremo anche noi, così come siamo cambiati con l’avvento della scrittura, o dell’elettricità o di internet.
The Decision Dilemma, Oracle e Seth Stephen-Davidowitz, 2023. Non trovo la ricerca originale (sul sito Oracle non è accessibile). Tra i report che l’hanno ripresa, consiglio questo: LINK
CEO Decision Making in the Age of AI, IBM Institute for Business Value, Giugno 2023
Levels of AGI: Operationalizing Progress on the Path to AGI, Meredith Ringel Morris, Jascha Sohl-dickstein, Noah Fiedel, Tris Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet, Shane Legg, Deepmind, 2024
Pensieri lenti e veloci, Daniel Kahnemann, ed. originale 2011
The future of decisions, Gartner, 2022