Il lavoro che viene prima del modello
I modelli AI migliorano ogni trimestre. I risultati dei progetti AI in azienda, no.
È un pattern che osserviamo da mesi nelle aziende con cui lavoriamo e ci confrontiamo. Investono, scelgono piattaforme, ingaggiano partner competenti — e la maggior parte non riesce a dimostrare un impatto finanziario misurabile. La reazione è sempre la stessa: serve un modello migliore, una piattaforma diversa, un partner più bravo. "Abbiamo provato, ma non ha funzionato. Cosa sbagliamo?" — è una domanda che riceviamo spesso. La nostra risposta: il problema non è dove pensate.
Il motivo è nel modo in cui la tecnologia funziona. Ogni volta che un modello AI lavora — che risponda a una domanda, scriva un'email o analizzi un documento — lo fa a partire da una finestra di contesto: l'insieme delle informazioni che riceve in quel momento. Quella finestra è tutto ciò che il modello "sa." Non ha accesso indipendente alla realtà della tua azienda. Non può chiedere in giro, non impara dai colleghi, non deduce che quel documento è obsoleto o che quel processo ha quindici eccezioni non scritte. Se le informazioni nella finestra sono frammentate o incomplete, il risultato lo sarà altrettanto. E questo non si risolve con un modello più potente — è come funziona la tecnologia.
Tre mondi diversi, stessa conclusione
Nelle ultime settimane abbiamo letto tre cose che ci sembrano collegate, anche se arrivano da mondi completamente diversi.
Dharmesh Shah, CTO di HubSpot — una delle piattaforme CRM più diffuse al mondo — ha scritto un post dove introduce quello che chiama CQ, Context Quotient. La sua tesi: non basta l'intelligenza del modello (l'IQ), serve il contesto dell'organizzazione. La frase che colpisce: "The smartest person in the room is useless if they just walked in." Il modello più intelligente del mondo è inutile se è appena entrato nella stanza — non sa chi sei, cosa fai, come lavori, cosa è andato storto l'ultima volta. Shah ragiona da CTO di una piattaforma CRM: vede il contesto come dati da strutturare e connettere. Ma il punto va oltre il CRM.
Pochi giorni dopo, Ethan Mollick — professore a Wharton, uno che studia organizzazioni, non tecnologia — ha scritto che i sistemi agentici falliranno senza org design, cioè senza ripensare il modo in cui si organizzano ruoli, processi e flussi decisionali intorno all'AI. Ci ha colpito: un accademico di teoria organizzativa che guarda l'AI e ci vede un problema che conosce da decenni. Ha preso tre concetti dalla sua disciplina e li ha applicati ai sistemi AI: spans of control, boundary objects, coupling. I boundary objects sono il pezzo più interessante — oggetti strutturati, come prototipi o specifiche, che trasferiscono significato tra gruppi diversi. Oggi gli agenti AI si passano testo grezzo, senza struttura. Per Mollick è come se in un'azienda i reparti comunicassero solo a voce, senza documenti condivisi. La sua conclusione: "the issue won't just be how good the model is, it will be org design choices."
Colpisce che i boundary objects di Mollick siano, in sostanza, il contesto frammentato di Shah visto da un'altra angolazione. Un CTO parla di dati, un accademico parla di struttura organizzativa — stanno guardando lo stesso problema.
In parallelo, Anthropic — il lab che sviluppa Claude — ha formalizzato un passaggio che dice molto. Fino a poco fa, il lavoro di chi usa l'AI si concentrava sul prompt — la domanda o l'istruzione che dai al modello. Formula la domanda giusta, ottieni la risposta giusta. Anthropic sposta il focus: non basta la domanda giusta, serve il contesto giusto. Lo chiamano context engineering. La finestra di contesto di un modello è limitata — non puoi dargli tutto. Devi scegliere cosa metterci. E poche informazioni rilevanti battono molte informazioni generiche.
Tre angoli — una tech company, un accademico di organizzazione, un lab di ricerca AI — stessa direzione: il collo di bottiglia è il contesto. Quando voci indipendenti convergono sullo stesso punto, di solito c'è qualcosa di strutturale sotto. E il fatto che nessuno dei tre stia proponendo una soluzione pronta dovrebbe dirci qualcosa.
Cosa succede davvero dentro le aziende
La conoscenza di un'azienda esiste in tre forme, e solo una è visibile.
C'è quella esplicita — documenti, procedure, database. Esiste, sulla carta. Ma è dispersa: il documento definitivo in 6 versioni su 3 piattaforme diverse, il CRM aggiornato a metà, il wiki che nessuno consulta più da quando Maria ha cambiato reparto.
Poi c'è quella implicita — i processi che funzionano ma che nessuno sa spiegare dall'inizio alla fine. Come si gestisce un ordine complesso. Come si risolve un reclamo delicato. Come si decide a chi dare priorità quando tutto è urgente. Chi chiamare quando un fornitore ritarda e il cliente ha fretta. Funziona perché le persone compensano, adattano, improvvisano. Ma non è scritto da nessuna parte — e se chiedi a due persone di descrivere lo stesso processo, otterrai due versioni diverse.
E c'è quella tacita — nelle teste di poche persone. Le tre colleghe che "sanno come funziona davvero." Quando una va in pensione o cambia azienda, si porta via un pezzo dell'organizzazione. Il reparto dove "ordine" significa una cosa e nel reparto accanto significa un'altra — e nessuno se ne accorge finché un sistema AI non tratta le due come se fossero la stessa cosa.
Un modello AI non compensa. Non intuisce, non chiede al collega, non "sa" che quel file è obsoleto. Ha bisogno che il contesto esista in forma strutturata. Altrimenti fallisce — e il fallimento sembra tecnologico, ma non lo è.
Questo spiega un paradosso che vediamo spesso: aziende con molti dati e molti sistemi faticano quanto quelle che ne hanno pochi. E non per mancanza di lavoro sui dati — ci sono aziende che fanno data pipeline, data quality, data governance. Fanno un lavoro reale: puliscono, strutturano, connettono le informazioni nei sistemi. Ma i dati sono una parte del contesto, non sono il contesto. I dati sono l'informazione strutturata che vive nei sistemi. Il contesto include anche la conoscenza implicita nei processi, quella tacita nelle teste delle persone, il significato che quei dati hanno quando serve prendere una decisione. Chi lavora sulle data pipeline risolve il problema dell'accessibilità. La domanda "quale conoscenza ci serve e dove vive" viene prima.
Un esempio. Prendi un team commerciale. Il CRM è pieno di dati: aziende, contatti, opportunità, storico ordini. Tutto documentato. Poi provi a usare un assistente AI per aiutare i venditori a preparare le trattative. Il risultato è generico, inutilizzabile. Perché il CRM non sa che il cliente X compra sempre a giugno ma va contattato a marzo. Non sa che il listino "standard" ha dodici eccezioni che tutti i venditori conoscono a memoria ma nessuno ha mai scritto. Non sa che quando un'opportunità è segnata come "in stallo", nel 70% dei casi significa che il decisore è cambiato e nessuno ha aggiornato il contatto. I venditori lo sanno. Il modello no — e nessun aggiornamento del modello risolverà questo problema.
Per decenni le persone hanno compensato — chiedevano al collega, improvvisavano, ricordavano. L'AI cambia l'equazione: la conoscenza che non è stata esplicitata diventa inutilizzabile.
Il punto cieco di chi ti vende qualcosa
Se il lavoro sul contesto è così rilevante, perché nessuno ne parla? Perché non esiste un servizio riconosciuto, un nome condiviso, qualcuno che lo fa per mestiere?
La risposta è negli incentivi — e nessuno dei soggetti coinvolti è in malafede. Il conflitto è strutturale, non intenzionale.
Chi costruisce e implementa soluzioni AI guadagna sulla complessità del progetto. Più è grande, lungo e custom, più fattura. Se il lavoro sul contesto rivelasse che basta uno strumento da 20 euro al mese, non ci sarebbe nulla da costruire. Per la stessa ragione, le grandi società di consulenza trattano la fase decisionale come un apripista per il progetto vero — un assessment che finisce sempre con un progetto da vendere non è un assessment, è un preventivo travestito. Il lavoro sul contesto è troppo piccolo e troppo onesto per questi modelli di business.
Dall'altra parte, i vendor di piattaforme AI assumono che il contesto si risolva con il loro prodotto — la piattaforma gestisce il contesto che esiste, non crea quello che manca. E chi vive di urgenza e formazione ha bisogno che tu senta di essere in ritardo: "fermati e mappa prima di muoverti" non fa titoli, non vende corsi, non riempie aule.
Il risultato è lo stesso: nessuno fa il lavoro sul contesto, perché nessuno ci guadagna.
Anche noi siamo parte di questo mercato. La differenza è nel modello: il nostro non dipende dal vendere implementazione. Possiamo dire "non ti serve" senza andare contro il nostro interesse.
Chi ti vende la soluzione non può aiutarti a decidere se ti serve.
Prima del modello
Prima di scegliere qualsiasi tecnologia, prima di lanciare qualsiasi progetto AI, tre domande.
Cosa sappiamo? Non solo "quali dati abbiamo" — ma cosa sa l'organizzazione e in che forma. Conoscenza documentata, processi che nessuno ha mai scritto, competenze nelle teste delle persone.
Dove vive? Mappa delle sorgenti e della frammentazione. Documenti, sistemi, persone. Dove l'informazione si blocca, dove si perde, dove si duplica. Spesso la risposta è "un po' ovunque" — il che significa "da nessuna parte in modo utilizzabile."
Cosa manca? Gap, contraddizioni, conoscenza che "tutti sanno" ma nessuno ha mai formalizzato. Le cose che scopri solo quando qualcuno se ne va o quando un sistema AI le cerca e non le trova.
Il risultato di questo lavoro non è un sistema AI. È una mappa che cambia il brief del progetto. A volte lo rende più chiaro. A volte lo rende più semplice. A volte lo capovolge. A volte rivela che il primo progetto non è tecnologico — è di documentazione, di allineamento interno, di decisioni rimandate.
Quando qualcuno fa questo lavoro — anche in pochi giorni, anche in modo imperfetto — le priorità si spostano. Opzioni che nessuno aveva considerato diventano visibili. Il progetto AI che sembrava urgente si ridimensiona, o si trasforma in qualcosa di diverso e più utile. Non perché la tecnologia sia cambiata — perché il contesto è diventato leggibile.
Il lavoro che viene prima del modello è quello che decide se il modello funzionerà.
Qode Republic è uno studio indipendente di AI. Aiutiamo manager e imprenditori a fare le scelte giuste sull'AI — prima di scegliere la tecnologia.
Facciamo il primo passo, insieme.
Una conversazione breve, prima di qualsiasi soluzione.
© 2026 Qode Republic. Tutti i diritti riservati.