Consulenti: l’AI dei morti viventi (che poi tanto morti non sono)

Pubblichiamo di seguito una lettera inviataci da Serena Torielli Founder e CEO Wealthype, in risposta all’articolo “Consulenti, voci dall’oltretomba“. Vi ricordiamo che potete inviarci le vostre riflessioni a redazione@bluerating.com

Gentile Redazione,

 

leggiamo con interesse – e con un sorriso benevolo e sincero – la nuova lettera del “consulente del futuro” apparsa su Bluerating qualche giorno fa con l’evocativo titolo “Consulenti, voci dall’oltretomba”. Come evocati da una tavoletta ouija, eccoci di nuovo, stimolati a chiarire ulteriormente il nostro punto di vista sui molti temi toccati dal lettore.

 

In realtà, ci sembra che l’autore della lettera confermi quanto da noi scritto in precedenza su molti punti: lo fa, per esempio, quando scrive che “se davvero il ‘valore’ della consulenza oggi si riduce a un’asset allocation base e a qualche parola di conforto nei momenti di volatilità, allora forse è il caso di ripensare tutto il modello”. Non è forse quello che sosteniamo anche noi, quando scriviamo che la vera consulenza (come ha molto ben riassunto la Redazione nel titolo, la volta scorsa) inizia dopo l’asset allocation?

 

Forse non siamo stati sufficientemente chiari sul punto, perciò ci torniamo, proponendo qualche ulteriore spunto di riflessione, che proviamo a suddividere in paragrafi, per fare il giusto ordine.

 

 

C’è prompt e prompt: non tutti funzionano

 

“Chi oggi ha conoscenze di base, spirito critico e sa porre le giuste domande”, scrive il lettore, “non ha più bisogno di un intermediario umano”. Già: ma quanti, oggi, hanno conoscenze di base, spirito critico e sanno porre le giuste domande?

 

I ChatGPT del caso funzionano molto bene quando chi fa il prompt soddisfa due condizioni:

 

  • ne sa abbastanza della materia sulla quale sta interagendo con il LLM (è il caso dell’autore della lettera);
  • sa costruire un prompt decente.

 

Sono due condizioni la cui coesistenza non è così comune.

 

 

Bisogna partire dai dati: ChatGPT non li ha

 

Una consulenza evoluta parte da un’analisi dei bisogni. E per stimare bene i bisogni, ci vogliono dati. ChatGPT non li ha. Inoltre, le cose cambiano: i mercati, le situazioni personali. Non basta un’asset allocation: va monitorato il portafoglio, ribilanciato in funzione di mercati e bisogni differenti.

 

Quanti hanno voglia di ribilanciare, monitorare, aggiornare con costanza il portafoglio a cadenza periodica, per 15, 20, 25 anni? Infine, quanti sapranno mantenersi calmi durante le molte turbolenze della nostra “nuova normalità”? Spoiler: pochi.

 

Difficile tenere il filo ricorrendo a una sorta di “ChatGPT amatoriale”. Serve invece una tecnologia “solidale”. E qui entra in campo il consulente. Quello vero, non il venditore di slide o il nostalgico dei piani anni Novanta, ma nemmeno il “tecnologico” che si affida solo agli ETF suggeriti dalla reazione dell’AI a un prompt, per quanto ben impostato.

 

 

Attenzione alle risposte “di buon senso” dell’AI

 

Con l’esplosione dell’estate, in ufficio alcuni colleghi hanno messo sotto esame il loro girovita e, dopo una rapida valutazione, si sono divertiti a chiedere un piano alimentare e di allenamento a ChatGPT. Hanno anche ottenuto risposte di buon senso. Niente a che vedere, però, con l’esame e il relativo responso che può arrivare da una consulenza medica professionale.

 

Noi riteniamo che con la consulenza finanziaria valga esattamente la stessa cosa: un generico piano di investimento a medio-lungo termine, per quanto di buon senso, non è consulenza. Soprattutto perché gli investitori – anche quelli con “buona conoscenza finanziaria” – non sono macchine razionali.

 

 

Come la mettiamo con i bias cognitivi?

 

E sì, qui tiriamo in ballo la behavioral finance, o finanza comportamentale che dir si voglia. “Non siamo macchine pensanti che si emozionano, ma macchine emotive che pensano”, ha detto il neuroscienziato Antonio Damasio.

 

Siamo persone.

 

E le persone, anche quando sanno leggere e rielaborare bene dati e situazioni, continuano a reagire male nei momenti di mercato più difficili. E, soprattutto, continuano a vagare nel labirinto dei propri bias cognitivi, se non c’è un essere umano al loro fianco che glieli fa notare.

 

Effetto gregge, confirmation bias, activity bias, avversione alle perdite: il nostro hardware naturale – il cervello – è pieno di questi plugin, che in millenni di storia evolutiva hanno esteso le funzionalità dei nostri software di base.

 

È possibile che il bias di conferma abbia giocato un ruolo anche nel prompt inserito dal “consulente del futuro”? L’autore della lettera si aspettava di ricevere una risposta molto ben strutturata che avrebbe validato la sua convinzione preesistente, e cioè che “siamo tutti morti” e, se parliamo, è solo perché “siamo voci dall’oltretomba”? Il nostro dubbio non ci pare fuori luogo.

 

 

Il futuro è di chi sa far lavorare bene insieme uomo e macchina

 

Il consulente del futuro – quello che noi vogliamo supportare – è una figura che usa l’Intelligenza Artificiale mettendo in campo la sua competenza e le sue conoscenze umane. È una guida, un architetto, un facilitatore. È colui/colei che trasforma la tecnologia in un servizio personalizzato, un processo attivo e continuo.

 

È questo il tipo di professionista con cui interagiamo ogni giorno. E per lui/lei sviluppiamo strumenti di Intelligenza Artificiale che – lo ribadiamo – non sostituiscono la relazione, ma la rendono più precisa, scalabile e consapevole.

 

Perché, al netto di ogni ironia, il futuro non appartiene a chi sceglie tra “uomo o macchina”.

 

Appartiene a chi sa farli lavorare insieme.

 

Con rispetto (e zero nostalgia),

Vuoi ricevere le notizie di Bluerating direttamente nella tua Inbox? Iscriviti alla nostra newsletter!