Dopo le prime settimane arriva quasi sempre la stessa cosa.
La fase della disillusione.
All’inizio gli agenti sembrano incredibili. Fai una domanda e rispondono in pochi secondi. Scrivono testi, sintetizzano documenti, producono analisi. È difficile non rimanere colpiti.
Poi le risposte iniziano a sembrare generiche. Alcune analisi sono superficiali, altre sbagliate. A volte l’agente produce qualcosa che sembra corretto ma che, a uno sguardo più attento, si rivela fragile come carta bagnata.
In realtà stanno semplicemente scoprendo qualcosa che diventa evidente solo con l’esperienza: gli agenti non funzionano da soli. Devono essere allenati.
Ho passato un pomeriggio intero a riscrivere lo stesso prompt in sedici modi diversi perché il risultato non era quello che volevo. Non era sbagliato, capisci — era solo non abbastanza preciso. Non abbastanza mio. Aveva la forma giusta ma il tono di qualcun altro.
Il problema era mio, non del sistema. Non avevo spiegato bene cosa volevo. Avevo dato un input vago e mi aspettavo un output preciso. È come dire a un collaboratore “scrivi qualcosa su questo tema” senza dargli contesto, obiettivo, tono, lunghezza, pubblico di riferimento — e poi lamentarsi che non ha indovinato.
La qualità delle risposte dipende quasi interamente dal contesto che ricevono: dalle istruzioni, dagli esempi, dai materiali su cui lavorano.
Una parte crescente del lavoro non consiste più nel produrre direttamente un contenuto. Consiste nel preparare il contesto in cui quel contenuto verrà generato.
È uno spostamento sottile ma radicale. Non stai più scrivendo. Stai progettando le condizioni in cui la scrittura avviene.
I modelli diversi non sono intercambiabili. Non è solo una questione di velocità o di costo. Hanno personalità diverse, punti di forza diversi, modi diversi di interpretare le richieste ambigue.
Claude tende a ragionare per sfumature, va bene per testi lunghi e complessi, a volte è troppo cauto. ChatGPT è più diretto, più disposto a osare, ma a volte prende una piega che devi correggere. Perplexity è il migliore per capire velocemente un tema che non conosci. Manus è impressionante per i task autonomi ma è ancora imprevedibile. DeepSeek mi ha sorpreso più volte su ragionamenti tecnici.
Nessuno di loro è “il migliore”. Ognuno è il migliore per alcune cose specifiche.
Lavorare bene con gli agenti richiede di sapere già molto bene cosa vuoi.
Non in termini generici. In termini precisi. Con esempi. Con un’idea chiara del risultato finale.
Se non sei abituato a scomporre un problema, a definire obiettivi chiari, a capire quando un risultato è buono e quando no — la macchina non ti salva. Ti dà tanto materiale con cui non sai cosa fare.
Lavorare con questi strumenti mi ha reso molto più bravo a fare domande precise. È diventato un esercizio continuo di chiarezza mentale. Ogni prompt è una piccola verifica di quanto ho capito davvero il problema che sto cercando di risolvere. Se la risposta è vaga, quasi sempre è perché la domanda era vaga.
La settimana prossima: i crediti che finiscono nel momento sbagliato, la bulimia da pubblicazione, e la sensazione reale — e pericolosa — di avere i superpoteri.



