Negli ultimi mesi i social si sono riempiti di post contrariati sull’intelligenza artificiale. ChatGPT che “scrive male”, Gemini che “non capisce il contesto”, risposte giudicate superficiali o addirittura sbagliate. Il verdetto è spesso rapido e definitivo: l’AI non è poi così intelligente.
A mio avviso, il punto, quasi sempre, è un altro. E riguarda meno la tecnologia e molto di più il modo in cui viene utilizzata.
Molti utenti si avvicinano all’AI come se fosse un motore di ricerca potenziato o una mente autonoma capace di interpretare intenzioni implicite. Si formula una richiesta generica, si preme invio e si attende una risposta brillante. Quando questa non arriva, la frustrazione è immediata. Eppure l’AI non sta sbagliando: sta semplicemente lavorando con il materiale che le viene fornito.
In informatica esiste un principio tanto semplice quanto implacabile: Garbage in – Garbage out. Se l’input è confuso, incompleto o povero di contesto, l’output non può che riflettere quella stessa qualità. Non è un limite dell’intelligenza artificiale, è una conseguenza logica.
Un equivoco comodo: cercare una colpa generazionale
In questo dibattito si tende spesso a cercare un colpevole facile. Si parla di età, di generazioni, di presunta incapacità ad adattarsi al nuovo. Ma è una semplificazione che non regge.
Non esiste una generazione incapace di usare l’AI. Esiste semmai una differenza netta tra chi affronta gli strumenti digitali con metodo e chi li usa in modo reattivo.
Si vedono professionisti giovani produrre prompt confusi quanto quelli dei colleghi più esperti, così come manager con decenni di esperienza impostare richieste estremamente precise. L’abilità nell’usare l’intelligenza artificiale non dipende dall’anno di nascita, ma dal livello di consapevolezza operativa.
Attribuire il problema a una generazione serve solo a evitare la domanda più scomoda: sto davvero sapendo cosa chiedo?
Domande deboli, risposte deboli: il lamento social
Un prompt come “Scrivimi un post sul marketing” non è una richiesta, è un’assenza di istruzioni. L’AI non sa per chi stai scrivendo, con quale obiettivo, su quale canale, con quale tono. Non conosce il tuo settore, né il tuo posizionamento. Il risultato, inevitabilmente, sarà generico.
Qui nasce il corto circuito più diffuso: si attribuisce all’intelligenza artificiale una responsabilità che in realtà è dell’utente. Si pretende profondità da una domanda superficiale. Si chiede visione strategica senza aver dichiarato alcuna strategia.
L’AI non improvvisa, non colma i vuoti. Li replica.
Quando il prompt smette di essere una frase buttata lì
La qualità delle risposte cambia nel momento in cui il prompt smette di essere una domanda estemporanea e diventa una presa di posizione. Non serve scrivere prompt lunghi o complessi. Serve chiarire il contesto in cui l’AI deve muoversi.
Dire “scrivi un testo” è diverso dal dire “ragiona come un professionista che deve risolvere questo problema, per questo pubblico, con questo obiettivo“. Nel secondo caso non si sta delegando il lavoro, si sta impostando un perimetro decisionale.
È in quel perimetro che l’AI inizia a produrre risultati utili, perché non è più costretta a scegliere a caso tra infinite possibilità.
Ora prendiamo lo stesso esempio, ma trattiamo l’AI come uno strumento configurabile, non come una scorciatoia.
“Agisci come un digital strategist con esperienza in SEO e ADV. Scrivi un post per Instagram destinato a imprenditori italiani over 40 che diffidano dell’intelligenza artificiale.
Obiettivo: spiegare perché l’AI non è una minaccia ma uno strumento operativo.
Tono: professionale, concreto, senza slogan.
Lunghezza: massimo 1.200 caratteri.
Evita frasi motivazionali.”
Stessa AI. Output completamente diverso.
Non perché “oggi è più intelligente”, ma perché ora ha un contesto, un ruolo, un vincolo e un obiettivo.
Questo è il vero salto di qualità: passare dal chiedere “fammi qualcosa” al progettare un sistema di istruzioni.
Lo stesso errore, forme diverse
Nel lavoro quotidiano l’AI viene spesso usata per accelerare attività che non sono state pensate. Si chiedono email, presentazioni, documenti, senza aver chiarito cosa debbano realmente ottenere. L’output è formalmente corretto, ma raramente risolutivo.
Prompt vaghi producono testi che “suonano bene”, ma non hanno un punto di vista. Mancano di posizionamento, di attrito, di scelta. Non sono sbagliati, sono irrilevanti. Ed è un problema che non si risolve cambiando modello o piattaforma.
Nel lavoro sui dati, l’illusione è più sottile. Si chiede all’AI di trovare insight senza aver definito una domanda di business, una metrica critica, un contesto decisionale. L’analisi può apparire sofisticata, ma resta scollegata dalle decisioni reali. Non perché sia errata, ma perché non è stata progettata per servire a qualcosa.
Progettare un prompt è un atto di chiarezza
Usare bene l’intelligenza artificiale non significa conoscere trucchi o formule segrete. Significa sapere cosa si sta cercando e cosa no. Un buon prompt non accumula informazioni, le seleziona. Non racconta tutto, delimita.
Chi ottiene risultati migliori dall’AI, nella pratica, è chi ha già fatto il lavoro più difficile: chiarire il problema prima di chiedere una soluzione. L’AI arriva dopo, come acceleratore, non come sostituto del pensiero.
E questo vale indipendentemente dall’età, dal ruolo o dal livello di seniority.
Un mio ultimo pensiero
L’intelligenza artificiale non divide le persone in competenti e incompetenti, né in giovani e meno giovani. Divide chi pensa prima di chiedere da chi spera che sia lo strumento a fare chiarezza al posto suo.
Garbage in – Garbage out non è una critica, è una diagnosi.
L’AI restituisce ciò che trova: metodo o confusione, direzione o ambiguità. E forse il disagio che emerge in molte critiche all’AI nasce proprio da qui, dal fatto che oggi non è più possibile nascondere domande mal poste dietro risposte vaghe.
L’intelligenza artificiale non ci rende automaticamente migliori. Ma ci costringe, nel bene e nel male, a essere più espliciti. E questa, più che una sfida tecnologica, è una sfida culturale.
