Non è più nemmeno una notizia: l’intelligenza artificiale, dopo aver avocato a sé i più svariati compiti di tipo ripetitivo, automatizzabili, e quindi di “basso livello”, è progressivamente ascesa a presidiare attività più complesse e articolate — dalle diagnosi mediche alla guida di veicoli — e intellettualmente raffinate fino a scrivere testi non solo di senso compiuto ma gradevoli, persino indistinguibili da quelli composti da un autore umano. Da ultimo, l’AI ha imparato a programmare, e a farlo traducendo in codice il linguaggio naturale: questo ufficialmente già dall’agosto dello scorso anno, quando è stato presentato Codex, il software sviluppato da OpenAI, la società di ricerca sull’AI fondata da Elon Musk (cui si deve tra l’altro GPT-3, l’intelligenza artificiale che produce i testi di cui sopra).
E allora, perché interessarsi di AlphaCode, il nuovo sistema “automatico” per il coding il cui rilascio è stato appena annunciato da DeepMind? Perché il programma ideato dalla società che si occupa di intelligenza artificiale all’interno di Alphabet/Google non solo genera codice funzionante, ma apparentemente lo fa utilizzando abilità di problem solving e capacità di pensiero critico. Presentando AlphaCode, Deepmind ha evidenziando la capacità del sistema di competere – posizionandosi oltre la metà classifica – nelle gare di programmazione, molto diffuse e popolari tra i developers, dove per affermarsi non basta riutilizzare codice già scritto. Un passo in più, quindi, rispetto al patchwork di GPT- 3, che pesca dal Web parole e frasi per combinarle in maniera sensata, addirittura elegante; ma anche rispetto a quello di Codex, che pesca linee di codice dal repository GitHub in risposta ai comandi impartiti a voce.
A dirla tutta, un mezzo passo, visto che – come ha sottolineato Cnbc – il posizionamento ottenuto da AlphaCode secondo alcuni si spiegherebbe alla luce della presenza nelle classifiche di studenti e altri concorrenti digiuni, in tutto o in parte, di rudimenti di programmazione, e non sarebbe poi così lusinghiero. Anche senza voler ingenerosamente minimizzare il risultato ottenuto, tuttavia, siamo ancora una volta di fronte a una ottima soluzione per problemi specifici, non a un sistema in grado di farsi carico della responsabilità del funzionamento di un software da esso programmato. Per fornire la sua risposta alla richiesta di software da scrivere, AlphaCode ha bisogno di un quesito formulato in maniera estremamente corretta e precisa, nonché di un numero esorbitante di esempi di codice già programmato da esaminare, testare e scartare – fino a 10 elevato alla 60esima per un programmino scolastico di 200 righe di codice, secondo Ernest Davis, docente di computer science alla New York University.
Più che ritornare alle origini del percorso che ha condotto allo sviluppo odierno dell’intelligenza artificiale, partendo dal problema del ragionamento simbolico, sembriamo più vicini al noto teorema delle scimmie instancabili, che premendo per un tempo infinito sulla tastiera di un PC potrebbero quasi certamente comporre qualsiasi testo, perfino l’Amleto. Moltissimi tentativi, moltissimi errori, e tra questi inevitabilmente qualche soluzione: una descrizione non troppo inaccurata per sistemi di supporto all’operatività umana, come AlphaCode, ma ingenerosa per l’umana intelligenza – compresa quella dei programmatori, che da questi sistemi potranno sempre farsi aiutare, ma mai sostituire.
*Start Magazine 13/02/2022
**Esperta di competenze digitali,coordinatrice scientifica dell’Istituto per la Cultura dell’Innovazione