OpenAI è impegnata in una nuova iniziativa per sviluppare un’intelligenza artificiale con capacità di ragionamento simili a quelle umane, secondo quanto riportato da Reuters. Questo progetto, noto come Strawberry (Fragola), rappresenta un’evoluzione del controverso Q* (Q star).
La scoperta di Strawberry proviene dall’analisi di documenti interni condotta dall’agenzia britannica. Descritto come un “lavoro in corso”, Strawberry permetterebbe ai prodotti AI di esplorare autonomamente e con affidabilità le informazioni disponibili sul web, pianificando attività complesse senza l’ausilio di risorse esterne. Questa capacità è definita “deep research” o ricerca approfondita.
In molti aspetti, Strawberry ricorda Self-taught Reasoner (Star), un approccio sviluppato nel 2022 dall’Università di Stanford. Noah Goodman, uno dei creatori di Star, spiega che questa tecnica consente a un modello di AI di migliorare autonomamente, generando nuovi dati di addestramento.
Strawberry, precedentemente noto come Q*, è in grado di risolvere problemi matematici e scientifici a livello di uno studente delle elementari, dimostrando capacità di ragionamento simili a quelle umane. Questa abilità è stata rivelata per la prima volta da The Information alla fine dello scorso anno.
Un portavoce di OpenAI ha dichiarato a Reuters: “Vogliamo che i nostri modelli di intelligenza artificiale vedano e comprendano il mondo in modo più simile a noi. La ricerca di nuove capacità per questa tecnologia è una pratica comune nel settore, basata sulla convinzione che questi sistemi miglioreranno la loro capacità di ragionamento nel tempo“. Tuttavia, non ha risposto direttamente alle domande su Strawberry.
La scorsa settimana, OpenAI ha presentato un sistema di classificazione per valutare i progressi e il livello di sofisticazione delle sue AI. Il metodo copre cinque livelli, dal livello 1, con AI in grado di interagire in linguaggio colloquiale, al livello 5, con modelli in grado di svolgere le funzioni di un’intera organizzazione. Attualmente, i sistemi di OpenAI rientrano nel primo livello, ma stanno per passare al secondo, dove le AI possono risolvere problemi di base con l’efficienza di un dottorato di ricerca, senza strumenti aggiuntivi.
Brad Lightcap, direttore operativo di OpenAI, ha dichiarato in un’intervista al Financial Times che la prossima generazione di modelli AI sarà in grado di risolvere “problemi complessi” attraverso il ragionamento. “Inizieremo a vedere che l’IA può gestire compiti più difficili in modo più sofisticato. Stiamo solo iniziando a scalfire la superficie della capacità di ragionamento di questi modelli“, ha spiegato Lightcap. Nonostante siano efficaci nei compiti singoli, i modelli AI hanno ancora difficoltà a elaborare informazioni non presenti nel loro addestramento.
A maggio, OpenAI ha confermato di aver iniziato l’addestramento di un nuovo modello di AI, che dovrebbe inaugurare “il prossimo livello di capacità” verso l’intelligenza artificiale generale, equiparabile a quella umana.
Gli analisti prevedono che le capacità di ragionamento integrate in Strawberry segneranno una svolta significativa nell’AI, consentendo alla tecnologia di esprimere giudizi, ragionare, comunicare in linguaggio naturale e imparare dall’ambiente. Tuttavia, ci sono preoccupazioni per i rischi legati all’uso e alla commercializzazione di algoritmi avanzati senza garanzie adeguate. Per Goodman si tratta sì di un’opportunità entusiasmante, ma allo stesso tempo “terrificante”, che ci mette davanti a “questioni serie su cui riflettere“.