L’intelligenza artificiale negli acquisti
Come gli algoritmi sceglieranno al posto dei consumatori
Il momento in cui te ne accorgi non è durante un grande acquisto. È su una cosa piccola: un caricabatterie, una crema, un paio di scarpe “come quelle viste ieri”.
Cerchi, scorri, ma lo “scaffale infinito” dell’online non sembra mai davvero infinito. In alto ci sono sempre gli stessi dieci, dodici prodotti.
Ti aiutano, certo. Ma ti stanno anche dicendo, con una gentilezza perfetta, dove guardare. E quando qualcuno decide dove guardi, una parte della scelta l’ha già fatta lui.
Lo scaffale che ti guarda
In teoria è solo un servizio. I sistemi di raccomandazione nascono per ridurre il rumore: troppa offerta, troppo tempo perso, troppe alternative.
Il punto è che quel filtro non è neutro, e soprattutto è efficace. Uno studio sperimentale molto citato sull’e-commerce ha mostrato che chi consulta raccomandazioni finisce per scegliere i prodotti consigliati circa il doppio delle volte rispetto a chi non le consulta.
Non significa che siamo “ipnotizzati”. Significa una cosa più concreta: quando l’algoritmo ti propone una scorciatoia, sposta le probabilità. E chi controlla le probabilità spesso controlla gli esiti, senza bisogno di alzare la voce.
Qui l’IA non sostituisce ancora la decisione: la incanala. Decide l’ordine dei risultati, la sequenza delle alternative, la visibilità di ciò che è “compatibile” con te. La scelta finale resta tua, ma avviene dentro un recinto già tracciato, che cambia in base ai clic, ai tempi di permanenza, al dispositivo, a ciò che hai guardato e a ciò che non hai guardato.
La bolla del consumo
C’è poi una conseguenza meno evidente, ma potentissima: la ripetizione. Il consiglio personalizzato tende a diventare una conferma di ciò che hai già mostrato di volere. Una rassegna recente sugli impatti dei sistemi di raccomandazione descrive come le raccomandazioni possano rinforzare preferenze e abitudini, con un effetto “bolla” che riduce la varietà delle esposizioni e restringe l’orizzonte delle scelte. In ambito marketing si osservano dinamiche simili: la personalizzazione rende il consumo più comodo, ma anche più prevedibile, perché l’algoritmo privilegia ciò che ha più probabilità di piacerti subito rispetto a ciò che potrebbe sorprenderti domani.
È una delega graduale. All’inizio ti fa risparmiare tempo. Poi ti risparmia anche l’incertezza. E l’incertezza, nel consumo, è spesso lo spazio in cui nasce il confronto vero: quello in cui non confermi un’abitudine, ma la metti in discussione.
Dal consiglio al pilotaggio
Il passaggio successivo non si gioca soltanto nei dati, ma nel design. Negli ultimi anni la ricerca ha misurato su larga scala i cosiddetti dark patterns: scelte d’interfaccia che beneficiano il servizio spingendo l’utente verso decisioni non desiderate, come aggiunte automatiche al carrello, iscrizioni “facili”, rinunce faticose.
Uno studio diventato riferimento, basato su una scansione di migliaia di siti di shopping e decine di migliaia di pagine prodotto, ha identificato numerosi esempi e una tassonomia delle pratiche ricorrenti.
È qui che “scegliere” comincia ad assomigliare a “cedere”. Non perché l’utente sia ingenuo, ma perché il contesto è progettato per rendere naturale una direzione e scomoda l’altra. Anche le istituzioni lo stanno studiando: un rapporto del governo britannico sull’architettura delle scelte online analizza come default e presentazione delle opzioni possano incidere su decisioni, tempi di acquisto e disponibilità a pagare.
Quando l’IA entra in questo livello, la personalizzazione non riguarda solo cosa ti viene proposto, ma come ti viene proposto: il momento giusto, l’urgenza giusta, il confronto “giusto”. È il nudge che diventa industriale.
Un prezzo diverso per ciascuno
Poi c’è il tema che, appena lo nomini, accende la discussione: i prezzi personalizzati. Non lo sconto per tutti, non la promo del weekend, ma prezzi che cambiano in base al profilo e ai dati. L’OCSE, in un documento dedicato alla personalised pricing nell’era digitale, spiega come l’uso di strumenti automatizzati e dati granulari renda più praticabili forme sofisticate di discriminazione di prezzo e richiama il ruolo delle tutele consumeristiche rispetto ai rischi di pratiche scorrette.
La questione non è solo economica, è psicologica: la stessa cifra può sembrarti “giusta” o “ingiusta” a seconda di ciò che sospetti stia accadendo dietro le quinte. Studi recenti sulla percezione di equità indicano che il pricing personalizzato tende a ridurre la fairness percepita, anche quando alcuni consumatori ne traggono vantaggio.
E quando gli esperimenti diventano pubblici, l’effetto reputazionale può essere immediato: Reuters ha raccontato la decisione di Instacart di interrompere test di prezzi basati su strumenti di ottimizzazione dopo critiche e attenzione regolatoria, con differenze di prezzo mostrate a utenti diversi.
Se l’algoritmo decide “quanto vali” come cliente, la scelta del consumatore diventa una trattativa invisibile, e soprattutto non negoziabile.
Dallo shopping assistito allo shopping delegato
Fin qui, però, stiamo ancora parlando di un consumatore che naviga e si lascia influenzare. La novità più interessante è la delega. Gli assistenti generativi stanno scivolando dentro l’esperienza d’acquisto: non solo suggeriscono, ma cercano, riassumono, comparano, e sempre più spesso puntano a concludere. A gennaio 2026 Axios ha raccontato l’integrazione di funzioni di shopping e checkout direttamente in un assistente conversazionale, con l’obiettivo di trasformare la chat in corsia d’acquisto.
Nel frattempo, il retail vede la domanda crescere: un report di DHL sulle tendenze e-commerce indica che molti consumatori dichiarano di volere funzionalità di shopping basate su AI, dagli assistenti alla ricerca vocale. Anche la letteratura accademica inizia a ragionare sulle “luci e ombre” degli assistenti di shopping generativi e sul loro impatto su motivazioni e comportamenti.
Quando l’assistente diventa il tuo proxy, l’algoritmo non si limita più a scegliere cosa mostrarti: sceglie la sequenza di azioni. E qui la domanda cambia: non è più “mi hanno influenzato?”, ma “chi risponde se l’agente sbaglia, omette, spinge?”.
Le regole che arrivano (e quelle che mancano)
In Europa qualcosa si muove proprio su questi nodi. Il Digital Services Act impone ai fornitori di piattaforme trasparenza sui parametri principali dei sistemi di raccomandazione e sulle opzioni per modificarli.
Per le piattaforme molto grandi, è previsto almeno un sistema di raccomandazione non basato sulla profilazione. E l’EDPB, nelle linee guida del 2025 sull’interazione tra DSA e GDPR, richiama che queste opzioni dovrebbero essere presentate senza spingere gli utenti verso la profilazione e che, quando l’opzione non profilata è attiva, non dovrebbe proseguire la raccolta di dati per profilare.
Sul lato dell’IA, l’AI Act vieta pratiche ritenute inaccettabili, incluse quelle manipolative o che sfruttano vulnerabilità, perché toccano autonomia decisionale e diritti fondamentali.
È un segnale importante: non tutto ciò che è tecnicamente possibile è socialmente accettabile.
Ma la distanza tra principio e quotidianità degli acquisti resta ampia, perché gran parte dell’influenza non passa da un singolo “sistema proibito”, bensì da mille micro-scelte di ranking, design, prezzo, notifiche, tempi.
Chi sceglie, quando scegli tu
Se c’è un rischio vero, non è che l’algoritmo ti tolga la libertà in modo plateale. È che te la lasci, ma te la renda sempre meno utile. Se ogni percorso è ottimizzato per un obiettivo che non coincide con il tuo, la scelta diventa una forma di lavoro: devi difendere attenzione, tempo, lucidità.
Eppure non è solo una storia nera. Gli algoritmi possono anche allargare opportunità: far emergere piccoli produttori, facilitare confronti, aiutare chi ha meno tempo o competenze.
Proprio per questo la domanda non è “IA sì o IA no”, ma con quali regole, con quale trasparenza, con quali possibilità reali di uscire dal tunnel del “consigliato per te”.
Forse la misura più concreta, oggi, è tornare a un gesto semplice: chiedere alternative.
Cercare l’opzione non profilata quando esiste, leggere con attenzione cosa promette la “personalizzazione”, confrontare fuori dalla piattaforma, pretendere spiegazioni quando un prezzo cambia senza un motivo comprensibile.
Perché, nell’economia dell’attenzione, ogni scelta è anche un voto. E se gli algoritmi imparano da noi, allora anche noi, nel nostro piccolo, possiamo insegnare qualcosa: che un consumatore non è solo un bersaglio, ma un soggetto capace di orientare il mercato.
Sabrina Greci
Presidente Foro Nazionale Consumatori









