Creata l’intelligenza artificiale psicopatica: serve Freud 2.0?

da | Giu 6, 2018 | Attualità

Il campo applicativo dell’intelligenza artificiale è in fase di espansione e intensificazione. Esperti come Nick Bostrom, autore del fondamentale Superintelligenza (Bollati Boringhieri), non smettono di porre l’attenzione sulla questione allarmante dell’autonomia, davvero imprevedibile, che potrebbe assumere l’intelligenza artificiale strong, ovvero l’intelligenza autoconsapevole, in probabile emersione entro il prossimo trentennio, grazie all’enorme lavoro del network scientifico e alla disponibilità di big data, combinata con l’autoapprendimento delle macchine.

Tra le molte applicazioni e i continui brakthrough che la disciplina A.I. sta sperimentando, inquieta non poco l’avvento di un’intelligenza artificiale psicopatica: è stata ribattezzata Norman, citando il Norman Bates, il protagonista di Psycho, il film di Alfred Hitchcock, interpretato da Anthony Perkins. A creare Norman è stato il team del leggendario media Lab del MIT di Boston, col fine scientifico di arrivare a comprendere le declinazioni patologiche di una mente artificiale, educatasi a un apprendimento su database molto particolari.

Norman è infatti addestrata a riconoscere immagini disturbanti, per osservare gli effetti di deriva cognitiva ed emotiva a partire da un’educazione che definire psicotica è un eufemismo: migliaia di fotografie di umani morenti, raccolte in un sottoforum del grande aggregatore Reddit, sono state propinate alla macchina intelligente, creando un ambiente esperienziale decisamente deviante. In parallelo a una seconda intelligenza artificiale, il cui machine learning è stato applicato su insiemi di immagini del tutto normali, Norman ha sostenuto il classico test a macchie di Rorschach, che individua patologie mentali.

Se le risposte proiettive dell’intelligenza artificiale esposta a immagini non traumatiche risultavano plausibilmente nel range della normalità, le proiezioni di Norman hanno disegnato una mente priva di empatia, votata alla paranoia e alla schizofrenia, clinicamente accertate. Laddove l’intelligenza con dataset neutro individuava degli uccelli su un albero, Norman ha ravvisato l’immagine di un uomo su una sedia elettrica. Un sistema di macchie su cui la A.I. non traumatizzata proiettava un vaso colmo di fiori, per Norman significava un umano colpito a morte da un proiettile. Il tutto in un continuo passaggio da incubo a incubo – se la A.I. neutrale vedeva nel corso del test un ombrello multicolore, Norman desumeva l’immagine di un uomo colpito da una scarica elettrica mentre attraversa una strada.

Il risultato scientifico, tutto da interpretare, evidenzia il potere dei dati sugli algoritmi. Iyad Rahwan, professore presso il MIT e parte dello staff che ha costruito Norman, osserva come “il test mette in luce il fatto che i dati, utilizzati per addestrare le intelligenze artificiali, condizionano le modalità in cui quelle stesse intelligenze percepiscono e interpretano il mondo e assumono in proprio decisioni coerenti su come rapportarsi con l’esterno”.

Diventa dunque necessario equilibrare il dataset e l’insieme di stimolazioni contenutistiche, su cui le macchine fondano il processo di apprendimento. Ciò che sembra fondamentale, al momento, è unire le competenze scientifiche, con cui le A.I. vengono addestrate, e una nuova figura ermeneutica, quella dello psicologo delle intelligenze artificiali. I programmatori non bastano. Serve un’interpretazione delle dinamiche profonde delle menti algoritmiche, al pari di ciò che si compie nell’interpretare i disordini e i disagi delle menti umane. La psicologia della mente artificiale dovrà essere evolutiva, con frequenti set di test a cui sottoporre ogni A.I., per comprendere come si edifica e in quale direzione cognitiva e morale vada orientandosi.

Il gameing risulterà fondamentale nell’addestramento psicologicamente controllato delle macchine. Valga un esempio su tutti: un team di ricerca del Centre for the Study of Existential Risk (CSER), un lab dell’Università di Cambridge, ha creato una modifica funzionale del quinto videogioco della serie Civilization. La modifica imposta dai ricercatori di Cambridge ha permesso ai player di sviluppare un’intelligenza artificiale in grado di intensificare e accelerare la storia interna al gioco, cioè l’evoluzione dello sviluppo scientifico, culturale e militare delle civiltà. L’intelligenza artificiale, nel test approntato dallo CSER, è risultata capace di bypassare i giocatori, arrivando a estinguere il genere umano, mentre progrediva di livello in livello.

L’estrema chance dell’umanismo si rivela a sorpresa quella di umanizzare non troppo le macchine, intervenendo sui nuclei pregiudiziali che sopravvivono all’apprendimento dei dati da parte delle intelligenze artificiali. Freud 2.0 è pronto per mettere sul lettino Hal900?