Nota
importante: una breve bibliografia sull’argomento oggetto delle seguenti
considerazioni è indicata al termine delle stesse.
Domande
senza risposta?
Al termine della mia riflessione su “meglio sapere, o
saper fare o, ancora… saper essere?” (si può leggere il contenuto su https://giuseppesbardella.blogspot.com/2022/02/meglio-sapere-o-saper-fare-o-ancora.html
) mi sono chiesto se l’Intelligenza Artificiale (di seguito la chiamerò IA) potrà
mai rispondere a domande come queste:
a) quale è il senso della mia vita?
b) perché sento che una mia scelta
personale, nonostante si presenti ragionevole sulla base dei dati che ho raccolto,
non mi soddisfa pienamente nel mio intimo?
c) quando è che mi sento pienamente
realizzato?
d) che risposta do a questo mio
senso del mistero, dell’infinito, del sacro, che mi trascende?
e) l’amore (sia sensuale che non),
l’amicizia, l’ empatia sono solo reazioni fisico / chimiche del mio corpo o
c’entra qualcos’altro?
E ancora:
f) come fare a distinguere il bene
dal male?
g) quali sono i valori ai quali non
potrò mai rinunciare se non al costo di non considerarmi più un uomo?
La risposta che mi do è No, molto
difficilmente l’IA potrà rispondere a domande come queste (e altre potrebbero
essere aggiunte da qualche lettore…), comunque sempre riguardanti l’ambito
della metafisica o dell’etica.
Domande
con risposta da parte dell’IA
L’IA sarà invece in grado, prima o poi, di rispondere,
più velocemente e esaurientemente, dell’uomo, a domande che possano essere
risolte tramite:
1) la raccolta delle informazioni necessarie;
2) il successivo loro collegamento rivolto ad elaborare una risposta logica.
Ma cosa vuol dire raccogliere informazioni, collegarle fra loro ed elaborarle
in una risposta se non ragionare e, ragionando, dare una risposta toh!
“ragionevole”?
Maggiore è il numero di informazioni da trovare, collegare ed elaborare,
maggiore è l’efficacia della IA rispetto all’ intelligenza umana.
E’ estremamente importante da sottolineare che, a parte le domande poste
nell’ambito metafisico e/o morale, tutte le altre potranno molto probabilmente ottenere
risposte più rapide e precise dalla IA.
Non solo, occorre tener presente che l’IA, allo stato attuale del suo sviluppo,
può anche riflettere sulle proprie risposte, farsi domande conseguenti e
trovare le relative risposte. Già esistono computer che si rendono conto dei
propri limiti di elaborazione e si ristrutturano in maniera autonoma (ovvero
senza l’intervento umano) per superare
tali limiti (ad esempio creando nuovo software al loro interno).
Praticamente, con la solita eccezione dell’ambito metafisico / etico, già in
larga parte l’area della memoria e della razionalità è stata espropriata all’uomo a favore
dell’informatica e ancor più della IA.
Per restare su aspetti semplici, basta notare quante volte andiamo sui motori
di ricerca per trovare una informazione ( la data di un evento storico, il nome
di un personaggio…) o, ancora, quante volte facciamo una domanda, anche
complessa e articolata, sui motori di ricerca e questi ultimi ci danno velocemente
una risposta esatta.
Senza dimenticare il sostegno che l’IA offre allo sviluppo della scienza e di
soluzioni scientifiche all’avanguardia. Alzi la mano chi è convinto che l’IA
non abbia contribuito in maniera determinante alla velocità con la quale sono
stati trovati i vaccini MRNA per combattere il Covid 19!
Tutto
facile allora?
Se la IA risolve i problemi di ordine logico molto più
velocemente ed esattamente di noi, se offre un contributo determinante allo
sviluppo scientifico, vuol dire che può solo facilitarci la vita?
Forse non è proprio così.
Non sarà forse che con l’avanzare della IA nel campo della razionalità e della
memoria quantitativa e meccanica, si ritrarrà lo spazio della razionalità e
della memoria umana?
Quanti di noi usano già l’app “calcolatrice” del proprio smartphone per
effettuare calcoli anche facili che fino a due decenni fa era normale
effettuare a mente sulla base delle famigerate “tabelline” scolastiche e
dell’uso delle facoltà cerebrali di computo?
Quanti di noi, per andare in automobile in un posto lontano o anche vicino ma
sconosciuto sono ancora soliti andare a cercare questa location su mappe
cartacee o (e qui già entra in campo l’informatica) su google maps o app
similari invece di affidarsi direttamente al “navigatore” installato sulla
propria autovettura o sul proprio smartphone?
Quanti di noi, per scegliere o acquistare una automobile o una casa (o
qualsiasi altro oggetto di valore), si affidano ad un programma software (ad
esempio, nella maniera più semplice, un foglio Excel approntato da noi stessi
o, meglio, già predisposto) nel quale inserire (o trovare già inseriti) i
criteri per orientare la scelta tra le diverse alternative (ad esempio, nel
caso di una automobile, la casa di produzione, la velocità, il consumo, il tipo
di energia che usa, il cambio ecc.) dando a ciascun criterio un peso per
giungere ad una valutazione ponderata della scelta fra le diverse alternative?
Ci siamo chiesti come avremmo fatto due decenni fa e come molti noi ancora
fanno? Forse avremmo usato la nostra capacità di memoria e di ragionamento!
Magari avremmo attivato i nostri amici e parenti, ci saremmo consultati con
loro invece che… con il computer!
Certo, l’informatica in generale e, più in particolare l’IA sta riducendo i
tempi di elaborazione delle nostre scelte personali; ma sta anche riducendo i
tempi trascorsi ad utilizzare le nostre facoltà cerebrali e, attenzione! non
sta forse atrofizzando, a causa del
loro non uso, parte di tali facoltà cerebrali?
E ancora, non sta forse diminuendo la nostra capacità di socializzazione,
l’attitudine ad attivare ed a consolidare costruttivi rapporti interpersonali?
Sarebbe interessante chiedere, su questo aspetto, il parere di quanti stanno
già spendendo molto del loro tempo di lavoro in smart-working.
Fra dieci anni saremo ancora in grado fare un calcolo semplice senza usare
l’app “calcolatrice”, andare in un luogo lontano sulla base di una mappa
rinunciando all’uso del “navigatore”, fare scelte personali di acquisto senza
ricorrere all’aiuto dell’informatica, uscire di casa per incontrare fisicamente
gli amici e/o i colleghi di lavoro?
Ma, soprattutto, saremo capaci di fare scelte personali o l’IA le farà in
effetti al posto nostro illudendoci del contrario?
Questo è il grosso rischio, più l’IA aumenta il suo spazio nell’ambito della
realtà materiale suscettibile di razionalizzazione, più diminuisce nello stesso
ambito lo spazio riservato all’uomo e alla sua intelligenza.
Una
umanità teleguidata?
Se l’attività di analisi di dati, di loro valutazione,
di scelta dell’opzione migliore è svolta in maniera più veloce ed efficace da
parte dell’IA che da parte dell’uomo, non potrebbe accadere di trovarsi di fronte ad
una totale resa dell’uomo nell’ambito delle realtà fisiche e materiali e ad un suo
rifugiarsi nell’ambito di quelle più intime o di quelle spirituali?
Non potremmo assistere ad una umanità teleguidata in toto da un superpotere
dell’IA tramite lo strumento della manipolazione mediatica?
Se l’IA è in grado di conoscere tutto di noi stessi (dati personali, preferenze
di ogni tipo, capacità di spesa, simpatie politiche…) cosa potrebbe impedirle
di usare queste informazioni per dirigere la nostra vita in una direzione e
verso obiettivi propri dei pochi che riescono a governare l’IA? Non abbiamo già
avuto esempi di come la manipolazione mediatica riesca ad influenzare scelte
elettorali (gli esempi abbondano) o scelte collettive di consumo (addirittura
diversificando i prezzi sulla base della capacità individuale di spesa e della
propensione al consumo)?
L’IA non potrebbe essere lo strumento per attuare, da parte di pochi, una dittatura
informatica tramite la manipolazione mediatica?
Ritenete che si tratti di domande puramente teoriche, di astruserie di persone
che si divertono con elucubrazioni mentali?
Forse chi avrà voglia di leggere i testi citati nella piccola bibliografia
indicata alla fine di queste considerazioni, potrebbe avere l’opportunità di condividere
questo timore.
Come
imporre una dittatura informatica?
Quale potrebbe essere una strategia per creare questa
situazione nella quale, attraverso un uso spregiudicato (ma mirato…) della IA
si possa pervenire ad influenzare pesantemente il comportamento di milioni di
persone?
Come pervenire a instaurare quella che più sopra abbiamo definito una “dittatura
informatica”?
La strategia probabilmente si dovrebbe strutturare
attraverso tre precise serie di azioni.
1. In
primo luogo la raccolta di dati.
Occorre che vengano reperiti, tracciati e quindi raccolti (al fine di poterli
elaborare) i dati personali del maggior numero possibile di persone, generalità
individuali (data di nascita, residenza, stato civile, situazione familiare),
preferenze di consumo, disponibilità finanziarie, simpatie politiche, tipo e
qualità delle amicizie…
Si giungono così a creare innumerevoli (miliardi?) di profili individuali e a
catalogare e classificare tali profili in blocchi che comprendano profili con
caratteristiche abbastanza omogenee fra di loro.
2. In
secondo luogo la costruzione e diffusione di quelle che
semplicisticamente vengono definite “fake news”.
In realtà non si tratta di costruire e diffondere notizie interamente false,
bensì anche notizie parzialmente false oppure di bloccare la diffusione di
notizie vere ma che potrebbero far aprire gli occhi su precedenti o
contemporanee informazioni false.
E’ una vera e propria azione di falsificazione delle realtà trasmessa con una
carica psicologica tale da restare impressa, più che nella parte cerebrale, in
quella emotiva, nella cosiddetta “pancia” delle persone[1].
3. In
terzo luogo la creazione di nuovi paradigmi, ovvero nuovi
schemi di riferimento mentali.
Tutti noi usiamo questi schemi, ovvero facciamo (in maniera pressoché
automatica) una ricerca veloce nella nostra memoria per ricordare come ci siamo
comportati in un certo frangente similare e tendiamo a ripetere quel comportamento,
particolarmente se quel tipo di comportamento ci ha permesso di conseguire
risultati positivi (ci diciamo internamente “ha funzionato bene”
Ogni volta in più che implementiamo quello stesso comportamento tendiamo, con
questa continua ripetizione, a consolidare un preciso schema di riferimento.
Può però capitare che quel certo comportamento, che più volte ha funzionato in
maniera ottima, dimostri la sua inattitudine a “funzionare” in una situazione
che ci pareva uguale ad altre verificatesi in precedenza e che invece era solo
apparentemente uguale ma, in effetti alquanto diversa.
E’ quello che accade allorché un paradigma, uno schema di riferimento mentale,
si trasforma in una “distorsione cognitiva”, ovvero pensiamo di conoscere
una determinata situazione, mentre in effetti la situazione è diversa.
Sulla base delle informazioni in nostro possesso “leggiamo” una situazione in
un determinato modo e applichiamo a quella situazione uno schema di riferimento
che, nelle volte precedenti, ha funzionato benissimo sfruttando al meglio a
nostro favore le potenzialità offerta da quel particolare contesto.
Che accade però se le informazioni che abbiamo raccolto non sono vere o,
peggio, sono state falsificate da altri proprio per modificare il nostro
comportamento? Accade che il nostro comportamento, implementato in base una
visione distorta della realtà, risulta inadeguato agli scopi prefissi.
Ricapitolando i punti precedenti, possiamo dedurre che
una “entità” (politica o economica), che sia pienamente a conoscenza
delle nostre caratteristiche personali (peculiarità fisiche, dati logistici,
familiari e finanziari, preferenze di gusti, opinioni culturali e politiche…)
può, inviandoci false informazioni, attivare in noi determinate distorsioni
cognitive e condizionare
pesantemente il nostro comportamento senza che noi ne siamo consapevoli.
Ma può una “entità” essere in grado di fare questo a livello mondiale, può
raccogliere i dati di miliardi di persone, elaborarli creando profili sia
personali che diversificati per tipologia di persone, può mirare e veicolare le
informazioni false in maniera da differenziare le stesse in funzione delle
diverse persone e delle diverse tipologie, può praticamente orientare il
comportamento del mondo intero?
Non so se già questo sia possibile ma certamente lo sviluppo della IA lo
renderà possibile. Sarà invero possibile imporre una “dittatura informatica” a
livello globale attraverso la manipolazione mediatica delle menti delle persone.
Come
difenderci?
Come difenderci, a livello individuale, dal rischio
che la nostra mente possa essere mediaticamente manipolata e, di conseguenza,
il nostro comportamento, essere condizionato e indirizzato verso fini prescelti
da altri?
Quando ero poco più che ventenne e avevo in animo di fare la mia tesi di laurea
sui valori della democrazia, mi capitò di leggere “I fondamenti della
democrazia” di Hans Kelsen[2].
Kelsen, giurista e sociologo di rilievo mondiale, appartenente alla Scuola di
Vienna, sostiene, in questo libro, che il fondamento della democrazia (o, per
meglio chiamarla, della liberaldemocrazia) è la cultura del “dubbio”.
Se non ho dubbi, argomentava Kelsen, se penso di avere ragione, di possedere
pertanto la “verità” su un determinato argomento, se penso, di
conseguenza, che la mia verità non possa che essere sinonimo di bene sia per me
che per gli altri (altrimenti non sarebbe “verità”…), quali remore dovrei avere
non solo a proporla, ma addirittura ad imporla agli altri... per il loro bene?
A rifletterci, è questo il principio implicito nella dottrina della maggior
parte delle religioni a sostegno della loro attività missionaria. Convertire
diventa sinonimo di imporre all’altro l’adesione ad una certa fede perché in
tal modo realizzerà il suo bene.
Secondo Kelsen solo se mi pongo in un atteggiamento di dubbio, sono capace di
presentare la mia opinione all’altro, di ascoltare serenamente la sua e, in uno
spirito di ascolto reciproco ( di “dialogo”…), camminare insieme verso
la ricerca della verità.
Nel corso della mia vita talvolta ho avuto la forza (perché non è facile…) di
assumere questa cultura del dubbio e mi sono chiesto, in certe situazioni in
cui avevo espresso una opinione o adottato un comportamento che altre volte era
stato giusto; “se invece avessi torto?”, “se quello che dice il mio
interlocutore fosse vero?”, “non è che sto insistendo a seguire la mia idea per
ostinazione o, peggio, per pigrizia?”.
Ebbene, quando ho avuto questa forza sovente mi è capitato di cambiare la mia
opinione, di accettare in tutto o, più spesso, parzialmente, quella del mio
interlocutore.
Avere questa cultura del dubbio può essere il primo passo per
l’acquisizione di una maggiore libertà di giudizio rispetto alle informazioni
che cerchiamo e troviamo autonomamente o che ci piovono addosso da altri.
Ma vivere con questa cultura del dubbio non deve sfociare nell’abbracciare uno
scetticismo estremo, bensì nell’evitare di accettare acriticamente informazioni
infondate e, invece, nel diventare capaci di valutarle e di discernere, nel
mare di informazioni nel quale nuotiamo, quelle vere e utili da quelle false o
inutili.
Una volta acquisita una sana cultura del dubbio, il passo successivo per
combattere le distorsioni cognitive consiste nel saper ragionare correttamente
e soprattutto nel confrontarsi costantemente con altri.
Leggere molto, leggere, con mente aperta, sia testi in linea con le nostre
opinioni che testi discordanti e riportanti opinioni diverse, leggere
attentamente notando come le persone articolano e motivano i loro ragionamenti,
leggere acquisendo un ampio bagaglio informativo, permette di ampliare non solo
le nostre informazioni ma soprattutto la nostra capacità di ragionare ed
esprimere giudizi corretti.[3]
Ma non è ancora sufficiente.
Un altro e ultimo passo deve essere quello di confrontare le nostre opinioni, i
nostri giudizi con quelli di persone che stimiamo (e che magari hanno opinioni
e giudizi diversi) in un dialogo in cui la serenità, la sincerità, la
assertività e, soprattutto, la voglia di ascoltarsi reciprocamente
rappresentino caratteristiche comuni.
Coltivare sempre il dubbio, leggere (o vedere…) acquisendo il maggior numero
possibile di informazioni, classificare, collegare e articolare queste ultime
sulla base di ragionamenti corretti, mettere alla prova le nostre conclusioni
in confronto e dialogo con amici che partono da conclusioni diverse, tutto ciò
dovrebbe permettere di raggiungere un certo livello di capacità mentale e
intellettiva sufficiente per riconoscere una gran parte delle informazioni
false e fuorvianti e per limitare l’influenza della nostre distorsioni
cognitive.
Ultima virtù da coltivare è l’umiltà,
ovvero la capacità di essere consapevole che, nonostante tutti i tentativi che
possiamo mettere in atto, la nostra imperfezione innata di essere umani non ci
consentirà mai di essere sicuri di essere completamente liberi da potenziali
manipolazioni (di qualsiasi tipo esse siano).
Roma 04/03/2022 Giuseppe Sbardella
Di seguito una breve bibliografia sulla
intelligenza artificiale (IA)
1. M.
Tegmark “Vita 3.0”, Raffaele Cortina editore 2018
2. L
Floridi, F. Cabitza, “Intelligenza Artificiale”, Bompiani 2021
3. L.
Floridi “Il verde e il blu”, Raffaele Cortina editore 2020
[1] E’
assodato che le emozioni negative (dolore, rabbia, antipatia…) hanno un carica
tre volte superiore alle emozioni positive. Pertanto non per caso spesso le
fake news sono mirate a suscitare emozioni negative.
[2] Hans
Kelsen “I fondamenti della democrazia” edizioni Il Mulino 1966
[3] Quando
scrivo “leggere” in effetti metto in evidenza una mia distorsione cognitiva.
Per persone più giovani lo stesso effetto si può raggiungere, più che leggendo
testi, “vedendo” video ferme restando le altre condizioni già esposte nel caso
di lettura.
Nessun commento:
Posta un commento