15 Luglio 2024
Milano, 29°

Scienza e tecnologia, Sicurezza

Peccare è solamente umano?

26.06.2024

Siamo davvero “obsoleti” di fronte all’Intelligenza artificiale? Le ricerche confermano che non sia ancora in grado di dare risposte razionali. Nei fatti, resta una “intelligenza” del tutto artefatta.

Il mondo è in fermento per l’inarrestabile ascesa dell’Intelligenza Artificiale, sempre più sofisticata e in grado di fornire all’umanità servigi la cui precisione, affidabilità e attendibilità diventa mese dopo mese sempre maggiore. Al netto degli evidenti vantaggi del fenomeno, però, diverse categorie lavorative sono in apprensione: la tecnologia rischia, in un giorno non lontano, di superare addirittura l’uomo stesso rendendolo “obsoleto”? Una domanda che si è trasformata in uno studio universitario in piena regola, e la cui risposta è al momento (ancora) negativa.
A prendersi in carico la questione è stato un gruppo di ricercatori dell’University College di Londra, che comprende anche l’italiano Mirco Musolesi. Il loro studio si è concentrato sulla resa di programmi di IA generativo, come ChatGPT o Bard, e sulla loro capacità di superare test cognitivi. Ebbene: i risultati suggeriscono che, in questo specifico tipo di prova, l’Intelligenza Artificiale non è in grado di dare risposte razionali. Dimostrandosi, di conseguenza, nei fatti ancora “artificiale” a tutti gli effetti.

La questione non sembra in questo caso riguardare l’affidabilità dell’Intelligenza Artificiale, visto che le loro percentuali di errore sono nel concreto molto simili a quelle degli esseri umani. Ciò che veniva a mancare era invece la capacità di calarsi nel contesto delle domande o addirittura di carpire il senso generale delle parole che componevano il test.
A fare chiarezza sulle difficoltà delle IA generative è stato Mirco Musolesi in persona: «I loro passaggi logici sono abbastanza strani e difficilmente comprensibili. Di fatto c’è un senso nelle singole proposizioni, che però si perde facendo un’analisi complessiva del test. Il motivo è che le risposte sono il solo frutto di schemi di probabilità, mentre manca qualsiasi riferimento al contesto generale».
È giusto rimarcare come questi dati non si accompagnino a un’incapacità dell’Intelligenza Artificiale di affrontare e anche superare le prove a cui sono sottoposte. Lo dimostrano i risultati in particolare di ChatGPT 4, in grado di rispondere correttamente al 90% dei test. Un risultato eccellente, dovuto però all’altissimo livello di addestramento del programma a rispondere a delle domande. A ciò si aggiunge anche la sua abilità, estremamente sofisticata, di confrontare tool paralleli ricavandone la giusta risposta. Parlando in parole povere: la macchina funziona, ma ragiona da macchina. Manca la componente “umana”.

Una realtà che sembra incontrare la fantasia di qualche decennio fa, superandola. Basti pensare a Uno, in seguito Andrew, il robot positronico inventato da Isaac Asimov e divenuto protagonista del film L’uomo bicentenario, grazie a una magistrale interpretazione di Robin Williams. Qui l’automa era capace di svolgere quasi ogni compito in maniera esponenzialmente più efficace rispetto all’uomo, ma all’inizio della storia non era in grado di formulare né capire una semplice barzelletta. Solo all’inizio, però. Che anche questa parte della storia possa tramutarsi, un giorno, nella nostra vita reale?

Condividi