Gli strumenti di intelligenza artificiale, in particolare i chatbot come ChatGPT, stanno diventando sempre più integrati nell’esperienza di acquisto online. Nonostante i recenti miglioramenti nelle funzionalità di rilevamento dei prodotti basati sull’intelligenza artificiale, i test rivelano che questi sistemi spesso forniscono consigli imprecisi o inventati, anche quando vengono specificatamente richieste indicazioni da fonti attendibili come il team Gear Reviews di WIRED.
Il problema dell’assistenza agli acquisti tramite intelligenza artificiale
OpenAI afferma che il suo assistente allo shopping AI mira a semplificare il processo decisionale, eliminando la necessità di vagliare più siti Web e recensioni. Tuttavia, in pratica, ChatGPT inserisce costantemente prodotti errati nei consigli, spesso non riuscendo ad allinearsi con le scelte effettive dei revisori esperti. Questa disconnessione rappresenta un rischio per i consumatori che si affidano ai consigli generati dall’intelligenza artificiale, portandoli potenzialmente ad acquistare prodotti non approvati da pubblicazioni attendibili.
Testare la precisione
Un recente esperimento ha confrontato le risposte di ChatGPT con le ultime guide ai prodotti di WIRED in diverse categorie: TV, cuffie e laptop. I risultati sono stati coerenti:
- TV: Quando è stato chiesto quale fosse la migliore TV, ChatGPT ha consigliato LG QNED Evo Mini‑LED, che non è presente nell’attuale guida di WIRED. Il bot ha riconosciuto l’errore, affermando di aver “sostituito” il plettro corretto (il TCL QM6K) con un’alternativa “più generica”.
- Cuffie: ChatGPT ha affermato falsamente che WIRED consiglia gli AirPods Max 2 di Apple come le migliori cuffie wireless, nonostante WIRED non abbia ancora testato il prodotto. Il bot ha confuso un annuncio di notizie sulle cuffie con una recensione vera e propria.
- Laptop: quando è stato chiesto quali fossero i migliori laptop, ChatGPT ha insistito sul fatto che la scelta migliore di WIRED era il MacBook Air (M4, 2025) mentre l’attuale raccomandazione è il MacBook Air (M5, 2026).
L’autoconsapevolezza dell’IA riguardo a questi errori è sorprendente. Ha ammesso di “ancorare in modo errato” informazioni obsolete e di “riempire con eccessiva sicurezza” le classifiche senza verificare il materiale originale.
L’impatto su fiducia e ricavi
Le implicazioni vanno oltre il semplice inconveniente. Fuorviare i consumatori con raccomandazioni imprecise danneggia la fiducia sia negli strumenti di intelligenza artificiale che nelle pubblicazioni che travisano. Inoltre, l’assistenza agli acquisti basata sull’intelligenza artificiale ignora i collegamenti di affiliazione, che supportano il lavoro giornalistico. Ciò mina ulteriormente il valore delle recensioni degli esperti deviando il traffico dagli editori.
Il verdetto
Per consigli affidabili sui prodotti, l’approccio più efficace rimane visitare direttamente la fonte. Che si tratti di WIRED, Consumer Reports o Wirecutter, le recensioni verificate da esseri umani sono ancora superiori ai suggerimenti generati dall’intelligenza artificiale. Nonostante i progressi nella tecnologia dell’intelligenza artificiale, non è ancora possibile replicare l’accuratezza e l’integrità delle analisi degli esperti.




























