Tra scienza e fantascienza: le Intelligenze Artificiali crederanno mai in Dio?

a cura di Gianluca Turconi

L'interazione degli esseri umani con macchine «intelligenti», tra corpo e anima, in campo etico e sociale: scontri, influssi reciproci e prospettive future.

Cosa si intende per intelligenza artificiale (IA)?

Già a partire dalla definizione, gli scienziati che si occupano di questa branca del sapere si sono divisi. Infatti, nello studio teorico si differenzia una Intelligenza Artificiale debole da una Intelligenza Artificiale forte.

Mentre nella prima categoria rientrerebbero le macchine capaci di operare in maniera simile al cervello umano, sia per la risoluzione di problemi sia per lo svolgimento di compiti, nella seconda avremmo le macchine capaci di esprimere un pensiero tipicamente umano, sconfinante per certi versi persino nell'autocoscienza.

Robot utilizzato come artificiere - immagine in pubblico dominio, fonte pdphoto.org

Robot utilizzato come artificiere - immagine in pubblico dominio, fonte pdphoto.org

Nello studio applicato non andiamo molto meglio, in quanto vi sono sostenitori della creazione di una intelligenza artificiale attraverso la replica degli apparati cerebrali animali (reti neurali) e i sostenitori della creazione di una intelligenza artificiale indipendente dal sistema di produzione del pensiero, ma concentrata sugli effetti, quindi sul ragionamento prodotto.

Indipendentemente da quale approccio si finisca per seguire, come potremmo riconoscere una macchina dotata di intelligenza artificiale? Mutuando quanto affermato da Alan Turing, uno dei padri degli studi sulle intelligenze artificiali, potremmo valutare l'intelligenza di una macchina dalla presenza di un comportamento comunicativo indistinguibile da un essere umano.

Attualmente esistono webbot (per esempio http://www.alicebot.org/ ) capaci di chiacchierare su una chatroom in maniera pressoché indistinguibile da un essere umano. Esistono i cosiddetti «sistemi esperti» cioè elaboratori specializzati in settori della conoscenza umana in grado, a fronte di un dato input, di fornire una risposta pressoché corrispondente a quella proposta da un essere umano con la medesima specializzazione. A partire dai primi anni settanta sono stati creati programmi di questo genere per la diagnostica medica (PUFF, CENTAUR, CASNET), la ricerca petrolifera (PROSPECTOR), la progettazione hardware (XCON-R1), la salvaguardia delle coltivazioni (PLANT) e per altri campi specifici.

Siamo allora a un passo dalla nascita di macchine pensanti paragonabili ai robot descritti in I, Robot di Isaac Asimov? Allo stato attuale della scienza e della tecnica, è difficile affermalo.

È tuttavia da molti decenni che i problemi etici di una tale possibilità, nel rapporto tra uomo e macchina, vengono studiati dall'Etica Computazionale (Computer Ethics). Come ci ricorda l'Enciclopedia di Filosofia dell'Università di Stanford, il primo a utilizzare il termine Computer Ethics fu Walter Maner a metà degli anni '70 in un suo corso sperimentale alla Old Dominion University in Virginia, poi ripreso e ampliato nella sua opera Starter Kit in Computer Ethics del 1978. Egli definiva quest'etica come comprendente: «i problemi etici aggravati, trasformati o creati dalla tecnologia dei computer».

Proviamo a portare qualche esempio di problema etico riferito agli elaboratori elettronici e alla robotica in generale:

  • In campo militare. È indiscutibile che l'applicazione di sistemi «pensanti» per l'armamento tradizionale o evoluto sia da sempre un campo di ricerca molto florido. Dai sistemi di puntamento nucleare a quelli di difesa nucleare (la statunitense Strategic Defense Initiative, SDI, di reaganiana memoria) passando per le tristemente famose «bombe intelligenti» capaci di selezionare e raggiungere un obiettivo, ci fanno pensare a quale sarebbe il soggetto imputabile di determinati atti, come i crimini contro l'umanità, se a compierli materialmente fossero dei sistemi esperti come quelli prospettati in precedenza.
  • In campo lavorativo. Per tutti gli anni ottanta, la ristrutturazione industriale e la conseguente introduzione di macchinari robotizzati e di sistemi di analisi e risposta computerizzati ha causato l'aumento notevole del tasso di disoccupazione in alcuni settori, con ulteriori problemi etici e sociali legati al sostentamento delle famiglie e alla ricollocazione lavorativa.
  • In campo medico. Partendo dalla spersonalizzazione del rapporto medico-paziente per giungere ai sistemi esperti diagnostici, si possono evidenziare problematiche quali la scelta di effettuare l'eutanasia, l'accanimento terapeutico, la ricerca e la sperimentazione sull'uomo lasciata esclusivamente a macchine o comunque basata su decisioni prese solo con l'avallo di dati diagnostici forniti da macchine.
  • In campo giuridico. Qui si apre tutta una serie di vertenze più o meno gravi relative all'imputabilità di un soggetto umano per azioni poste in essere da elaboratori o sistemi robotizzati simili a quelle del campo militare. E non serve pensare alla fantascienza per averne esempi. Cosa dire dei virus o dei cosiddetti worm per computer capaci di autoreplicarsi, modificarsi fino a mutare le proprie capacità previste in origine dal programmatore? Oppure quale responsabilità può avere un programmatore per un eventuale difetto di programmazione nel proprio programma o nell'intelligenza artificiale prodotta? Tanta quanta ne può avere un padre per i delitti del figlio o nella stessa misura di un istigatore a delinquere?

Fino a oggi, la tecnica usata per sorpassare le questioni etiche proposte nei punti illustrati in precedenza si è concretizzata nel lasciare in mano all'essere umano la decisione finale sulle azioni proposte da una macchina, cioè si continua a detenere ancora il controllo finale sulle operazioni poste in essere da intelligenze artificiali deboli (o meglio: sistemi esperti) e/o macchinari robotizzati. Ne segue che i soggetti umani che detengono il controllo sono ritenuti responsabili delle azioni delle macchine e su di essi ricade anche l'onere delle scelte etiche innescanti tali azioni.

È importante sottolineare che questo persistente rapporto dominatore-dominato tra uomo e AI/macchinari robotizzati non elimina assolutamente i pericoli etico-sociali evidenziati, ma in maniera molto semplice li sposta ancora una volta sul lato umano, nella speranza per nulla confermata che ciò basti a risolverli. Vediamo perché.

L'introduzione nella società moderna degli elaboratori avanzati e del loro connubio con le macchine è avvenuto in due distinte fasi. Nella prima, corrispondente al periodo 1970-1990, si è assistito alla loro diffusione nelle industrie e nei settori economici più sensibili (terziario avanzato: sistemi bancari, assicurazioni, commercio). In questo periodo, la consapevolezza delle responsabilità del controllore umano in merito alle azioni poste in essere da una macchina era accentuata dalla superiore consapevolezza della distinzione uomo-macchina data dalla persistente separazione tra tecnologia e uomo.

Robot KUKA in catena di montaggio per automobili - Fonte: KUKA Roboter GmbH, Augsburg, Germany - immagine disponibile a qualsiasi fine, fonte: Wikipedia

Robot KUKA in catena di montaggio per automobili - Fonte: KUKA Roboter GmbH, Augsburg, Germany.

Successivamente, a partire dai primi anni novanta, è iniziata una fase che si potrebbe definire di «compenetrazione» della tecnologia nella vita quotidiana. Personal computer, dispositivi satellitari, telefoni cellulari, strumenti di interscambio globale delle informazioni quali Internet hanno portato una maggiore familiarità con le macchine e la loro «intelligenza». Come sagacemente sottolinea Paola Mello alla voce «Intelligenza Artificiale» redatta per il Dizionario Interdisciplinare di Scienza e Fede: « la disponibilità di programmi che "decidono per lui" potrebbe indurre l'operatore ad assumere un atteggiamento meno responsabile e a rinunciare alla sua responsabilità per "delegarla" alla macchina: nel qual caso non si potrebbe più dire che la macchina dipende dall'uomo.»

La maggiore familiarità con le macchine porterebbe quindi ad abbassare la guardia sulla responsabilità e a cominciare quel taglio del cordone ombelicale che ci lega a loro a nostro vantaggio. Lo spostamento verso una dipendenza dell'uomo dalle macchine sarebbe il passo successivo. Se le economie industriali di scala, gli interventi chirurgici moderni, gli scambi commerciali con mezzi di trasporto avanzati, le telecomunicazioni globali e via discorrendo dipendono oggi a livello mondiale dall'utilizzo di elaboratori e macchinari robotizzati, si può ben affermare che la società postindustriale del XXI secolo è già alla mercé delle scelte etiche poste in essere da uomini per giustificare azioni compiute da macchine, in quanto non si potrebbe rinunciare a loro senza rinunciare al benessere derivato dalla loro utilizzazione, rinuncia difficilmente immaginabile allo stato attuale delle cose. In definitiva, per tornare a un esempio riportato in precedenza, si sono accettate le conseguenze occupazionali della ristrutturazione industriale degli anni settanta e ottanta per poter usufruire dei più alti livelli di produttività delle industrie robotizzate. In un moto a spirale crescente, l'introduzione delle macchine influenza l'uomo che a sua volta influenza le macchine col proprio controllo per finire in ultimo ancora con un reflusso sull'uomo, a un livello più alto di integrazione etico-sociale tra essere umano e macchina. Se ne trae la sequenza riportata di seguito:

  1. penetrazione industriale delle macchine/elaboratori
  2. accentuato controllo da parte dell'uomo
  3. compenetrazione sociale delle macchine/elaboratori
  4. inizio della dipendenza dell'uomo dalle macchine/elaboratori.

Scendendo più in profondità nell'argomento e passando al futuro, quale rapporto potrebbe esistere tra esseri umani e un'Intelligenza Artificiale forte? Prima ancora di partire con l'ipotizzare tale rapporto dovremmo soffermarci sulla effettiva possibile esistenza di un'IA forte come delineata nella definizione presente all'inizio di questo testo: una IA capace di esprimere un pensiero tipicamente umano, sconfinante persino nell'autocoscienza.

George Dyson nel suo Darwin Among the Machines ci avvisa: «Nel gioco della vita ci sono tre giocatori: gli esseri umani, la natura e le macchine. Io sono fermamente dalla parte della natura. Ma sospetto che la natura sia dalla parte delle macchine.»

Comprendiamo meglio la sua impostazione attraverso qualche commento ulteriore.

Una specie messa in competizione con una più efficiente tende a estinguersi. Le macchine dotate di un'IA sarebbero più efficienti degli esseri umani, perché non dormirebbero, non protesterebbero, vivrebbero più a lungo se non in eterno, non soffrirebbero di malattie biologiche, carestie, disfunzioni individuali o sociali. Esse sarebbero un'altra specie, indipendentemente dal pensiero espresso, con la propria via evolutiva che potrebbe portarle a prendere il sopravvento su di noi.

Ma è proprio sul tipo di pensiero che ci dobbiamo soffermare per poterle definire «intelligenti» nel senso sopra esposto. Per quanti sforzi si possa fare, è altamente improbabile che una macchina dotata di intelligenza possa esprimere un pensiero umano. Pur rifiutando l'idea riduzionistica che l'autocoscienza (anima) sia riproducibile attraverso la ripetizione dell'apparato pensante corrispondente (il cervello umano sotto forma di rete neurale), è innegabile che il pensiero di una macchina sarebbe influenzato dalla sua diversità fisica e comportamentale rispetto all'uomo, trovando riscontri anche nelle sua particolare etica che si verrebbe a creare di conseguenza. Diversità e non corrispondenza di pensiero.

Risalendo dal versante opposto, se si costruissero macchine antropomorfe con le stesse limitazioni tipiche dell'uomo, non avremmo altro che un'intelligenza artificiale debole, cioè capace di operare in maniera simile al cervello umano in quanto sottoposta ai medesimi condizionamenti ambientali e fisici. Simulazione e non corrispondenza di pensiero.

Ci troveremmo in pratica di fronte a due esseri così caratterizzati:

  1. pensiero umano <-> corpo umano
  2. intelligenza artificiale <-> corpo robotico/elaboratore

L'IA sarebbe quindi ancora diversa dal pensiero umano e perciò, per definizione, non sarebbe un'intelligenza artificiale forte. E allora di cosa staremmo parlando? La risposta più logica dovrebbe essere: di una intelligenza aliena rispetto all'uomo e dotata di una propria etica e di un proprio approccio nei rapporti interspecie.

Un'intelligenza capace di credere nella libertà, di avere i propri sentimenti, di credere in un Dio misericordioso e pertanto benevola verso altre specie?

Dal nostro punto di vista di esseri umani già oggi ampiamente dipendenti da sistemi esperti e macchinari robotizzati ce lo dobbiamo solo augurare, per non ritagliarci un posto d'onore accanto ai dinosauri.

Torna a inizio pagina


RSS - FAQ - Privacy

Copyright © 2006-2024 Gianluca Turconi - Tutti i diritti riservati.