21 Ottobre 2024
Milano, 16°

Cronaca, Scienza e tecnologia

Il vigile di ChatGPT ora ha un nome

01.07.2024

Il maestro digitale, che dicono rappresenti un significativo progresso nella riduzione degli errori complessi, si chiama CriticGPT. Ed è progettato per supportare i formatori di intelligenza artificiale umana, valutando e confrontando le risposte di ChatGPT per determinare quelle migliori.

Abbiamo inventato l’intelligenza artificiale per superare la nostra fallibilità, ma la notizia adesso è che serve un’altra intelligenza per correggere quella che non avrebbe dovuto sbagliare mai. O quasi, appunto, perché Open Ai – dopo che ChatGPT è diventato uno dei modelli linguistici più utilizzati al mondo grazie alla capacità di generare risposte simili a quelle umane su una vasta gamma di argomenti – ha scoperto che il suo oracolo algoritmico prende qualche cantonata.

La scoperta, insomma, è che le risposte generate possono contenere imprecisioni, al punto che è stata aggiunta a molti risultati la dicitura «ChatGPT potrebbe commettere errori. Valuta la possibilità di verificare informazioni importanti». Tutto logico, a ben pensarci, visto che la cosiddetta intelligenza non pensa in realtà, ma scandaglia in pochi secondi tutto lo scibile umano presente sul web, compreso quello errato. Ma a Sam Altman e i suoi la cosa non è parsa vero per arrivare con un nuovo prodotto chiamato Critic GPT, un modello progettato per identificare e correggere gli errori nelle risposte di ChatGPT. Basato sul modello GPT-4, il maestro digitale rappresenta un significativo progresso (dicono) nella riduzione degli errori complessi. Non si sa se segnati con la matita rossa o quella blu.

Il ruolo principale di CriticGPT è praticamente quello di supportare i formatori di intelligenza artificiale umana, professionisti che utilizzano il metodo dell’apprendimento per rinforzo dal feedback umano. In pratica valutando e confrontando le risposte di ChatGPT per determinare quelle migliori. Tuttavia, man mano che il sistema diventa più preciso, rilevare errori sottili diventa una sfida crescente, e così ecco entrare in scena il correttore automatico che identifica errori nascosti e fornisce critiche dettagliate che evidenziano le imprecisioni. OpenAI ha addestrato CriticGPT facendogli analizzare e criticare un ampio numero di risposte contenenti errori. Alcuni sono stati inseriti deliberatamente da esseri umani, mentre altri sono stati identificati come bug dai formatori. Questo processo di addestramento ha permesso alla macchina di affinare la sua capacità di rilevare errori in modo accurato e l’integrazione di CriticGPT ha dimostrato un notevole miglioramento nella qualità delle risposte generate. Però non è finita qui, perché nonostante i progressi, anche CriticGPT non è immune dai problemi tipici dell’intelligenza artificiale. Le chiamano infatti le allucinazioni, e possono il processo di etichettatura delle risposte. OpenAI è consapevole di questi limiti e sta lavorando per superarli, sviluppando metodi che aiutino i formatori a comprendere e valutare compiti lunghi e complessi, e l’obiettivo è rendere CriticGPT più efficiente e accurato nel rilevare errori in una gamma più ampia di risposte. Non è detto che per farlo interverrà in futuro una nuova intelligenza artificiale che correggerà l’intelligenza artificiale che già corregge l’intelligenza artificiale…

Condividi