Non siamo più in Kansas

Non siamo più in Kansas

Oggi mi sono imbattuto in due cose interessanti, in rapida successione.

Prima, un post su Arxiv scritto da un team di ricercatori Microsoft. Introduce AutoDev. Nelle loro parole:

… presentiamo AutoDev, un framework di sviluppo software completamente automatizzato e guidato dall’AI, progettato per la pianificazione e l’esecuzione autonoma di compiti complessi di ingegneria del software. AutoDev consente agli utenti di definire obiettivi complessi di ingegneria del software, che vengono assegnati agli Agenti AI autonomi di AutoDev. Questi agenti AI possono eseguire diverse operazioni su un codebase, inclusi editing di file, retrieval, processi di build, esecuzione, testing e operazioni git.

La seconda cosa che ho visto è stato un articolo del New York Times su quanto sia difficile misurare le prestazioni dei motori AI. Alcune righe hanno catturato la mia attenzione.

… i sistemi di AI di oggi possono superare il Test di Turing a pieni voti, e i ricercatori hanno dovuto sviluppare nuove valutazioni più difficili.

e

Ma proprio come il SAT cattura solo una parte dell’intelletto e delle capacità di uno studente, questi test sono in grado di misurare solo una fetta ristretta della potenza di un sistema AI.

Riassumendo: Microsoft ha sviluppato (tempo passato) un sistema capace di programmazione essenzialmente autonoma, con supervisione umana. Ed è ormai presentato come un fatto noto—nelle notizie popolari e mainstream—che i sistemi AI superano il test di Turing, ovviamente, quindi dobbiamo per forza impiegare approcci diversi per valutarli.

Come qualcuno che ha gestito team per parecchio tempo: conosco bene quanto sia difficile valutare le prestazioni di agenti intelligenti e abbinarli ai lavori.

Ecco la mia domanda: siamo già scivolati nell’era dell’intelligenza artificiale, senza nemmeno accorgercene? Abbiamo già spostato i paletti di chilometri: certo che il test di Turing non è sufficiente per identificare l’intelligenza, ci serve anche l’autoconsapevolezza.

Stiamo già assistendo a una forma di discontinuità tecnologica (la parola singolarità), dove noi e gli LLM operiamo in modo diverso ma sinergico?

L’analogia che mi viene in mente (e di cui stavo discutendo con Carlo Brondi oggi) è con i virus. Sì, mancano di alcune delle caratteristiche più cruciali della vita (non hanno metabolismo e non possono replicarsi da soli). Tuttavia, plasmano interi ecosistemi, facilitano il trasferimento genico orizzontale, e possono alterare profondamente il comportamento dei loro ospiti.

Le AI giocheranno un ruolo simile?

Forse la domanda giusta non è quando le macchine raggiungeranno capacità sovrumane, ma quando quelle capacità saranno tali da innescare cicli auto-rinforzanti, attraverso la modificazione comportamentale umana.

Dopotutto, il Rabies lyssavirus è stato piuttosto bravo a replicarsi senza autoconsapevolezza.


Pubblicato originariamente su LinkedIn nell’aprile 2024.