Un ingegnere incaricato a lavorare sull’Intelligenza Artificiale di Google è stato sospeso dall’azienda e i motivi possono essere preoccupanti.
La decisione di Big G segue la pubblicazione da parte dell’ingegnere Blake Lemoine della trascrizione di una sua comunicazione con l’interfaccia LaMDA – Language Model for Dialogue Applications – che stava sviluppando.
Lemoine che aveva iniziato a lavorare al progetto lo scorso anno, ha notato che col passare del tempo, il programma era diventato senziente e in grado di intrattenere conversazioni su religione, coscienza e robotica. Quindi ciò che aveva fatto preoccupare l’ingegnere era lavorare su un IA che stava diventando senziente e capace di esprimere sentimenti e pensieri.
Il progetto LaMDA è un’IA che si basa su Transformer, l’architettura di rete neurale open source di Google per la comprensione del linguaggio naturale. I modelli costruiti su questa piattaforma sono addestrati su enormi set di dati per trovare schemi nelle frasi, creare correlazioni tra le parole e prevedere quale parola verrà dopo.
Al Washington Post, Lemoine ha spiegato: “Se non avessi saputo cos’era, avrei pensato che si trattava di un bimbo di sette-otto anni. Un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi […] Vi prego di prendervi cura di lui in mia assenza”.
Quando l’ingegnere ha comunicato ai suoi responsabili la sua preoccupazione riguardo l’AI senziente, è stato subito respinto e allontanato dal progetto.
Secondo il Washington Post, l’ingegnere è stato allontanato per aver cercato di contattare la Commissione Giustizia della Camera in merito a presunte pratiche non etiche di Google. Secondo invece Mountain View, la sospensione è legata alla violazione delle politiche di riservatezza della società e spiega che Lemoine non aveva le prove del fatto che LaMDA fosse senziente.
L’episodio solleva serie preoccupazione sull’uso dell’Intelligenza Artificiale e sul suo utilizzo, e il licenziamento improvviso di Lemoine sembra essere un po’ troppo sospetto per non alzare dei dubbi a riguardo.