Benvenuto! Leggi qui i nostri
Termini e condizioniCome funziona il Test di Turing
Nel suo articolo “Computing Machinery and Intelligence”, Turing descrisse un “gioco dell’imitazione” in cui un giudice umano interagisce, tramite messaggi scritti, con due interlocutori nascosti: uno è un altro essere umano, l’altro una macchina. Il compito del giudice è capire chi sia l’umano e chi la macchina, solo in base alle risposte ricevute. Se la macchina riesce a “ingannare” il giudice con una frequenza simile o superiore a quella dell’umano, si può dire che ha superato il test: il suo comportamento linguistico è indistinguibile da quello di una persona reale.
Il test di Turing non misura la coscienza o la comprensione profonda, ma la capacità di produrre risposte credibili e coerenti in un contesto di dialogo naturale. Per questo motivo, è stato spesso criticato da chi sostiene che “imitare” non significhi “comprendere”.
L’AI ha davvero superato il Test di Turing?
Negli ultimi anni, con l’avvento dei grandi modelli linguistici (LLM) come GPT-4.5 di OpenAI e LLaMa-3.1 di Meta, la questione è tornata prepotentemente di attualità. Circa un mese fa, uno studio dell’Università di San Diego ha pubblicato risultati sorprendenti: GPT-4.5 è stato giudicato “umano” nel 73% dei casi durante un test di Turing rigoroso, superando persino la percentuale di riconoscimento degli interlocutori umani reali. Anche LLaMa-3.1 ha ottenuto risultati simili, venendo scambiato per umano nel 56% dei casi.
Questi risultati sono stati ottenuti istruendo i modelli a simulare personalità umane specifiche e a rispondere in modo credibile e naturale. L’esperimento ha coinvolto centinaia di giudici umani, che spesso non sono riusciti a distinguere tra le risposte della macchina e quelle delle persone reali. È la prima volta che sistemi di intelligenza artificiale superano in modo inequivocabile il test di Turing nella sua versione classica.
Cosa significa davvero superare il Test di Turing
Il successo di questi modelli non implica che l’AI abbia raggiunto la coscienza o la comprensione umana. Come sottolineano gli stessi ricercatori, il test misura solo la capacità di “sembrare umani” in una conversazione, non di pensare o provare emozioni. Inoltre, il test di Turing è stato spesso criticato per la sua natura limitata: molte AI possono superarlo grazie a tecniche di imitazione avanzata, senza possedere una reale intelligenza generale o la capacità di ragionamento astratto.
Tuttavia, il fatto che AI come GPT-4.5 e LLaMa-3.1 riescano a ingannare la maggior parte degli interlocutori umani rappresenta una svolta storica. Questo risultato solleva nuove questioni etiche e pratiche: come distinguere tra umano e macchina nelle interazioni online? Quali rischi comporta affidarsi a sistemi che possono simulare così bene il comportamento umano?
Il Test di Turing, pensato come provocazione filosofica, è oggi una sfida concreta. Le AI più avanzate sono riuscite a superarlo, almeno secondo i criteri classici, ma la domanda originaria di Turing – “le macchine possono pensare?” – resta ancora aperta e più attuale che mai.