Operazionalizzare i progressi nel percorso verso l'AGI un quadro DeepMind

Il viaggio verso l'AGI è simile a scalare una montagna dove la vetta non è solo un singolo punto ma un altopiano di diverse altitudini e complessità L’ultimo articolo di DeepMind propone un quadro per mappare questa ascesa, classificando lo sviluppo dell’AGI in livelli distinti simili alle gradazioni della guida autonoma Questo framework mira a fungere da linguaggio universale per valutare i modelli di intelligenza artificiale, valutare i rischi e documentare i progressi verso l'AGI

Cos'è l'AGI

L'AGI, spesso impantanata nel discorso filosofico, è un’intelligenza artificiale che rispecchia le capacità umane nella maggior parte delle attività Il quadro di DeepMind suggerisce che l’evoluzione dell’IA verso l’AGI è passata da una congettura filosofica alla praticità immediata Ad esempio, alcuni ipotizzano che gli attuali modelli linguistici di grandi dimensioni LLM mostrino "scintille" di AGI

I sei principi

Il team di DeepMind ha distillato sei principi per un'ontologia AGI efficace, sottolineando capacità rispetto ai meccanismi, riconoscendo compiti cognitivi e metacognitivi e concentrandosi sul potenziale piuttosto che sull’implementazione effettiva Sostengono la misurazione del viaggio dell'AGI piuttosto che uno stato finale definitivo, insistendo su parametri di riferimento ecologicamente validi per la valutazione

Livelli di AGI

DeepMind introduce un sistema di livellamento a matrice per classificare lo sviluppo dell'AGI, con "prestazione" indica la profondità delle capacità e "generalità" l'ampiezza I livelli vanno da “AGI emergente”, che supera appena le capacità umane non qualificate, a “AGI sovrumana”, che supera tutti gli esseri umani La tassonomia chiarisce la posizione dei sistemi attuali come ChatGPT e DALLE-2 e il documento suggerisce che la documentazione come le schede modello dovrebbero dettagliare i livelli di prestazione per chiarezza

AGI Benchmarks and Risks

Benchmarking L’AGI è fondamentale ma complessa e richiede un’ampia gamma di compiti che rappresentano diverse capacità cognitive Inoltre, man mano che le capacità dell’AGI si evolvono, aumentano anche i rischi associati, dall’uso improprio agli sconvolgimenti strutturali nelle industrie http//wwwunorologicom , la valutazione del rischio deve evolversi con i livelli AGI, un approccio che DeepMind allinea con la politica di dimensionamento responsabile di Anthropic

Interazione uomo-intelligenza artificiale

È interessante notare che il documento presuppone che i rischi e l'utilità dell'AGI siano non solo sulle capacità ma anche sul contesto di implementazione Presentano una scala di “autonomia” a sei livelli per l’interazione uomo-intelligenza artificiale, indicando che capacità più elevate sbloccano più livelli di autonomia Tuttavia, la modalità di interazione preferita deve bilanciare capacità, sicurezza e utilità

Considerazioni finali

Il framework di DeepMind offre una lente solida per visualizzare l'evoluzione di AGI, sottolineando l'importanza della misurazione delle capacità e della valutazione del rischio e modelli di interazione Questo approccio sfumato non solo definisce una direzione per la ricerca sull'intelligenza artificiale, ma sottolinea anche le considerazioni etiche e pratiche man mano che i sistemi di intelligenza artificiale diventano sempre più capaci

Iscriviti a DDIntel qui

Avere una storia unica da raccontare condividere Invia a DDIntel qui

Unisciti al nostro ecosistema di creatori qui

DDIntel cattura i pezzi più importanti dal nostro sito principale e dalla nostra popolare pubblicazione DDI Medium Vieni a trovarci per scoprire il lavoro più approfondito della nostra community

Canale Telegram ufficiale DDI https//tme/ tafUp6ecEys4YjQ1

Seguici su LinkedIn, Twitter, YouTube e Facebook