
È impossibile, oggi, partecipare a una conversazione sul design o sulla tecnologia senza che emerga il tema dell’Intelligenza Artificiale. Il rumore di fondo è tanto, e oscilla tra la promessa di un’efficienza mai vista prima e il timore che si sostituisca alle persone. Ma cosa significa davvero l’AI per chi si occupa, come la nostra agenzia UX, di ricerca utente?
L’AI può analizzare migliaia di feedback in pochi minuti, trascrivere interviste in tempo reale e persino simulare i comportamenti di utenti fittizi. Silenziosamente, ma rapidamente, sta ridisegnando i nostri flussi di lavoro.
Ma, nonostante tutte questi cambiamenti, la comprensione umana rimane un elemento fondamentale della UX Research. L’AI sta cambiando il come facciamo ricerca, ma non il perché. La tecnologia può fornire dati su larga scala, ma l’empatia, l’intuizione e la capacità di cogliere una sfumatura in una pausa durante un’intervista restano, e resteranno, profondamente umane.
Vediamo in cosa consiste questa trasformazione e come stia potenziando il lavoro degli UX researcher.
Questo cambiamento segna l’ingresso in una nuova fase per la UX Research. Se prima il nostro lavoro consisteva nel raccogliere meticolosamente dati per poi passare settimane a sintetizzarli, oggi l’AI promette di accelerare notevolmente questo processo.
L’AI eccelle nell’analisi di grandi volumi di dati (il cosa), liberando tempo prezioso che i ricercatori possono usare per concentrarsi sul contesto e sulla comprensione profonda (il perché).
Non si tratta di risparmiare tempo per fare meno, ma di reinvestire quel tempo per pensare di più. Significa avere finalmente lo spazio per connettere i punti in modo strategico, per dialogare con gli stakeholder e per avere un impatto reale sul prodotto, anziché passare giorni a rielaborare dati.
Quali sono, in concreto, gli strumenti di questa nuova era? Una delle applicazioni più affascinanti (e discusse) sono le simulazioni. I cosiddetti “digital twins” o utenti sintetici sono modelli di AI generativa addestrati per imitare i comportamenti, le preferenze e i pain points di specifici segmenti di utenti. Possiamo intervistarli o chiedere di eseguire un compito su un prototipo, ottenendo feedback istantanei.
Tuttavia, molto importante, le simulazioni AI non sostituiscono i test con utenti reali.
Questo perché un modello AI non ha un corpo, non ha vissuto esperienze, non prova vera frustrazione e non possiede quel contesto culturale e personale che rende ogni utente unico. Non sa cosa significa avere una brutta giornata, essere interrotta da una notifica o provare l’ansia di inserire i dati della propria carta di credito su un sito sconosciuto. Come afferma NN/g, un’AI “non sa cosa si prova ad essere umani“.
Se usate in modo strategico, le simulazioni AI ci aiutano ad esplorare e a preparare il campo per la ricerca con le persone reali. Ci permettono di:
Dobbiamo pensare ai digital twins come a un “allenamento mentale”, un modo per accelerare la fase esplorativa e arrivare più preparati all’incontro reale e insostituibile con le persone.
Se le simulazioni sono ancora una frontiera in fase di esplorazione, gli strumenti di AI per l’analisi sono già una realtà consolidata. Questa è la transizione che stiamo vivendo adesso.
Il mercato è inondato di soluzioni che promettono di ottimizzare il flusso di lavoro del ricercatore. Questi strumenti si concentrano principalmente su alcune aree chiave:
L’AI diventa un assistente di ricerca instancabile. Compiti che richiedevano giorni ora richiedono minuti. Tuttavia, è qui che emerge il rischio. Un algoritmo non possiede pensiero critico.
L’AI può identificare una correlazione (es. “gli utenti che cliccano A, cliccano anche B”), ma non sa spiegare la causazione (il perché lo fanno). Può raggruppare i feedback che menzionano la “lentezza”, ma non coglierà mai il sarcasmo in un commento come: “Certo, la vostra app è velocissima…”.
Senza una guida umana, l’AI produce risultati poco utili o fuorvianti. O peggio, può essere attivamente frustrante.
Uno studio recente di UXtweak sull’uso dell’AI come moderatore automatico nei test di usabilità ha mostrato che, se non guidata, l’AI finisce per porre domande ripetitive, ignorando palesemente ciò che l’utente ha appena detto. Il risultato è che il partecipante si sente inascoltato, si irrita e la qualità dell’intero test crolla.
I ricercatori devono supervisionare, validare e, soprattutto, filtrare. L’AI può aggregare, quantificare i dati e trovare correlazioni, ma solo l’analisi umana sa interpretarli, cogliendo il significato e il contesto che la macchina non vede.
Questo ci porta al cambiamento più significativo: quello che l’AI richiede a noi, come professionisti. Se l’AI si occupa delle parti più meccaniche dell’analisi, il nostro ruolo si evolve. Nella nostra attività, non ci limitiamo a raccogliere dati, ma passiamo il nostro tempo anche a dialogare con l’AI per guidarla.
Il nuovo profilo professionale di UX researcher richiede di:
Come si diventa, quindi, un “ricercatore aumentato”? Non basta comprare un software. L’adozione dell’AI richiede metodo, trasparenza e un approccio critico. Ecco tre buone pratiche fondamentali che abbiamo adottato, frutto della nostra esperienza sul campo.
Non usiamo l’AI perché “è di moda”. La integriamo quando serve a risolvere un problema specifico. Ad esempio: “Abbiamo 2.000 feedback dal customer care e dobbiamo identificare i 3 problemi principali entro domani”. In questo caso, l’AI per l’analisi tematica è una risorsa inestimabile.
Un approccio efficace è usare l’AI (come le simulazioni) per un primo feedback o per analizzare dati quantitativi e generare ipotesi, che poi valideremo con gli utenti reali.
Quando usiamo l’AI, dobbiamo essere trasparenti con il team e con gli stakeholder su come l’abbiamo usata. In particolare, dobbiamo:
Proteggere i dati – È un imperativo non negoziabile. Non inserire mai dati sensibili o PII (Personally Identifiable Information) dei partecipanti in un modello AI pubblico. Usare solo piattaforme sicure e private.
Mitigare i bias – Essere consapevoli che l’AI è addestrata su dati esistenti e può amplificare i bias. Dobbiamo chiederle attivamente di considerare prospettive diverse o esigenze di accessibilità.
Essere trasparenti – Includere una nota nei nostri report che specifichi che l’analisi è stata assistita dall’AI e validata dall’interpretazione umana.
La trasparenza non è solo etica, è la base della buona ricerca scientifica.
Torniamo alla domanda iniziale. L’AI sta davvero cambiando la UX Research?
Sì, in modo profondo. Sta eliminando la fatica dell’analisi su larga scala, sta aprendo nuove vie per la simulazione e sta spingendo chi fa ricerca a diventare più strategico, più critico e più curioso.
L’Intelligenza Artificiale è bravissima a generare, riassumere e classificare dati. Ma solo l’intelligenza umana, o meglio, l’intelligenza empatica, può capire una smorfia, cogliere un’esitazione, connettere un comportamento a un bisogno emotivo e, infine, dare un significato a tutto quel flusso di informazioni.
L’AI amplifica le nostre capacità, non agisce come un sostituto. Siamo noi a guidare il processo, a porre le domande giuste e a cogliere le sfumature. Il futuro della UX Research non è artificiale; è aumentato.
Questo ci libera dalla complessità dell’analisi di grandi quantità di dati per restituirci alla complessità, ben più affascinante, delle persone e delle loro esperienze.

