“Hai idea di cosa potrebbe fare questo robot? Potrebbe distruggere la fiducia umana nella robotica.” (‘Io, Robot’, 2004 – Alex Proyas)
Il termine robot deriva da una commedia dello scrittore ceco Karel Capek, nel quale si immaginava la creazione tecnologica di corpi artificiali umani senz’anima, in grado di svolgere i compiti più odiosi ai loro padroni: collegata dunque al concetto di lavoro, l’idea del robot è sempre stata legata alla riflessione sulla condizione umana e alle imprevedibili potenzialità insite nell’avanzamento tecnologico.
Ma dalla letteratura, i temi di riflessione si sono spostati ora sulla realtà: gli sviluppi recenti della robotica e dell’intelligenza artificiale prefigurano cambiamenti rivoluzionari nelle interazioni tra gli esseri umani e le macchine.
Aprendo alle possibilità di impiego di sistemi robotici e dell’IA come assistenti degli esseri umani (compiti di cura, di lavoro domestico, di selezione di informazioni in rete, di risoluzione cooperativa di problemi), si prefigurano nuove problematiche attinenti all’etica applicata.
Intendendo, ad esempio, questioni attinenti alla dignità, identità e sicurezza della persona umana, responsabilità individuale o collettiva, accesso equo alle risorse tecnologiche e libertà di ricerca.
Cominciamo l’analisi dal sistema di IA per il ruolo di “assistente educatore“, attualmente in fase di sviluppo presso il Media Laboratory del MIT.
Tale sistema è stato approntato per facilitare il processo di apprendimento dello studente, facendo leva sulle sue motivazioni e reazioni emotive. Il sistema identifica gli indizi non verbali connessi alle sensazioni provate, attraverso la rilevazione di dati biometrici considerati attinenti a determinate emozioni: l’esame dei gesti, della postura e di altri comportamenti manifesti (come la pressione esercitata sul mouse del calcolatore).
Esaminati tali nozioni, il sistema determina se un soggetto è interessato all’argomento di studio, se si sta distraendo, se è abbattuto per gli errori commessi oppure è soddisfatto per i progressi compiuti. In base a tali risultati intermedi, il sistema opta per una forma specifica di interazione con l’utente, per facilitare l’assimilazione dello studio.
Sviluppando tali dinamiche, alcuni studenti potrebbero provare una forma di attaccamento nei confronti di un tale sistema, dovuto alla sua capacità immediata di decifrare gli stati emotivi. Da qui ad ipotizzare un uso improprio del sistema, con la finalità di manipolarne scelte e risposte emotive, il passo è molto breve.
Analoghe questioni, seppure in misura più attenuata, emergono analizzando tipologie simili di agenti IA. Come gli assistenti personali alla navigazione in rete: in base a gusti, preferenze, conoscenze e interessi attribuiti agli utenti, questi sistemi selezionano siti da visitare, oppure adattano i contenuti dei siti prescelti allo scopo di facilitarne la fruizione. Anche in questo caso, risulta manifesto l’uso di informazioni che possono essere impiegate per influenzare le scelte delle persone.
Una diversa forma d’interazione tra esseri umani e macchine intelligenti (nel senso di macchine ‘adattative’) coinvolge i sistemi robotici progettati per svolgere compiti di servizio, di assistenza o anche di intrattenimento. Questa classe di sistemi comprende numerosi prototipi, anche umanoidi, progettati per il lavoro domestico o l’assistenza a soggetti non autosufficienti, o anche congegni per il semplice svago, come il cane robotico AIBO (prodotto e venduto dalla Sony).
Svolgono compiti di supporto ad attività umane, anche se in ambienti meno benevoli, i sistemi robotici che cooperano con gli esseri umani nella pianificazione e nello svolgimento di compiti di salvataggio, o di azioni belliche. Anche queste applicazioni sollecitano varie questioni di etica applicata, in maniera differente rispetto al coinvolgimento emotivo umano ed alla sua attitudine a una potenziale manipolazione.
In un gruppo decisionale a composizione mista di uomini e robot, chi è responsabile delle azioni intraprese e degli effetti da queste derivanti? Fino a che punto è lecito sollecitare cambiamenti cognitivi nell’essere umano, in ambito di simulazione della realtà?
Si considerino infine le forme di interazione invasiva tra uomo e robot, esplorate nel settore della bionica. A questa tipologia appartengono gli arti artificiali che si interfacciano con il sistema nervoso periferico. Queste ricerche si propongono di ripristinare funzioni fisiche perdute. Ma in questo contesto di ricerca si sviluppano anche sistemi che non sono volti a recuperare funzionalità assenti del corpo umano, bensì a potenziare apparati che già funzionano, più o meno regolarmente. In che modo i sistemi bionici per il potenziamento possono modificare l’identità della persona? È nella nostra disponibilità intervenire sull’identità personale attraverso il potenziamento bionico?
In conclusione, è opportuno notare che i sistemi ai quali si è fatto cenno cominciano da poco a varcare la soglia dei laboratori di ricerca. Quindi, occorre cominciare adesso a porsi domande di questo genere; per non rischiare che, un domani, il rapido progresso di un settore scientifico o tecnologico metta in evidenza situazioni di elaborazione non adeguata o, addirittura, di vuoto concettuale.