Pagine

venerdì 4 marzo 2022

Libertà dalla manipolazione mediatica?

 E’ possibile liberarsi della manipolazione mediatica?

Nota importante: una breve bibliografia sull’argomento oggetto delle seguenti considerazioni è indicata al termine delle stesse.

Domande senza risposta?

Al termine della mia riflessione su “meglio sapere, o saper fare o, ancora… saper essere?” (si può leggere il contenuto su https://giuseppesbardella.blogspot.com/2022/02/meglio-sapere-o-saper-fare-o-ancora.html ) mi sono chiesto se l’Intelligenza Artificiale (di seguito la chiamerò IA) potrà mai rispondere a domande come queste:
a) quale è il senso della mia vita?
b) perché sento che una mia scelta personale, nonostante si presenti ragionevole sulla base dei dati che ho raccolto, non mi soddisfa pienamente nel mio intimo?
c) quando è che mi sento pienamente realizzato?
d) che risposta do a questo mio senso del mistero, dell’infinito, del sacro, che mi trascende?
e) l’amore (sia sensuale che non), l’amicizia, l’ empatia sono solo reazioni fisico / chimiche del mio corpo o c’entra qualcos’altro?
E ancora:
f) come fare a distinguere il bene dal male?
g) quali sono i valori ai quali non potrò mai rinunciare se non al costo di non considerarmi più un uomo?
La risposta che mi do è No, molto difficilmente l’IA potrà rispondere a domande come queste (e altre potrebbero essere aggiunte da qualche lettore…), comunque sempre riguardanti l’ambito della metafisica o dell’etica.

Domande con risposta da parte dell’IA

L’IA sarà invece in grado, prima o poi, di rispondere, più velocemente e esaurientemente, dell’uomo, a domande che possano essere risolte tramite:
1) la raccolta delle informazioni necessarie;
2) il successivo loro collegamento rivolto ad elaborare una risposta logica.
Ma cosa vuol dire raccogliere informazioni, collegarle fra loro ed elaborarle in una risposta se non ragionare e, ragionando, dare una risposta toh! “ragionevole”?
Maggiore è il numero di informazioni da trovare, collegare ed elaborare, maggiore è l’efficacia della IA rispetto all’ intelligenza umana.
E’ estremamente importante da sottolineare che, a parte le domande poste nell’ambito metafisico e/o morale, tutte le altre potranno molto probabilmente ottenere risposte più rapide e precise dalla IA.
Non solo, occorre tener presente che l’IA, allo stato attuale del suo sviluppo, può anche riflettere sulle proprie risposte, farsi domande conseguenti e trovare le relative risposte. Già esistono computer che si rendono conto dei propri limiti di elaborazione e si ristrutturano in maniera autonoma (ovvero senza l’intervento umano)  per superare tali limiti (ad esempio creando nuovo software al loro interno).
Praticamente, con la solita eccezione dell’ambito metafisico / etico, già in larga parte l’area della memoria e della razionalità è stata espropriata all’uomo a favore dell’informatica e ancor più della IA.
Per restare su aspetti semplici, basta notare quante volte andiamo sui motori di ricerca per trovare una informazione ( la data di un evento storico, il nome di un personaggio…) o, ancora, quante volte facciamo una domanda, anche complessa e articolata, sui motori di ricerca e questi ultimi ci danno velocemente una risposta esatta.
Senza dimenticare il sostegno che l’IA offre allo sviluppo della scienza e di soluzioni scientifiche all’avanguardia. Alzi la mano chi è convinto che l’IA non abbia contribuito in maniera determinante alla velocità con la quale sono stati trovati i vaccini MRNA per combattere il Covid 19!

Tutto facile allora?

Se la IA risolve i problemi di ordine logico molto più velocemente ed esattamente di noi, se offre un contributo determinante allo sviluppo scientifico, vuol dire che può solo facilitarci la vita?
Forse non è proprio così.
Non sarà forse che con l’avanzare della IA nel campo della razionalità e della memoria quantitativa e meccanica, si ritrarrà lo spazio della razionalità e della memoria umana?
Quanti di noi usano già l’app “calcolatrice” del proprio smartphone per effettuare calcoli anche facili che fino a due decenni fa era normale effettuare a mente sulla base delle famigerate “tabelline” scolastiche e dell’uso delle facoltà cerebrali di computo?
Quanti di noi, per andare in automobile in un posto lontano o anche vicino ma sconosciuto sono ancora soliti andare a cercare questa location su mappe cartacee o (e qui già entra in campo l’informatica) su google maps o app similari invece di affidarsi direttamente al “navigatore” installato sulla propria autovettura o sul proprio smartphone?
Quanti di noi, per scegliere o acquistare una automobile o una casa (o qualsiasi altro oggetto di valore), si affidano ad un programma software (ad esempio, nella maniera più semplice, un foglio Excel approntato da noi stessi o, meglio, già predisposto) nel quale inserire (o trovare già inseriti) i criteri per orientare la scelta tra le diverse alternative (ad esempio, nel caso di una automobile, la casa di produzione, la velocità, il consumo, il tipo di energia che usa, il cambio ecc.) dando a ciascun criterio un peso per giungere ad una valutazione ponderata della scelta fra le diverse alternative? Ci siamo chiesti come avremmo fatto due decenni fa e come molti noi ancora fanno? Forse avremmo usato la nostra capacità di memoria e di ragionamento! Magari avremmo attivato i nostri amici e parenti, ci saremmo consultati con loro invece che… con il computer!
Certo, l’informatica in generale e, più in particolare l’IA sta riducendo i tempi di elaborazione delle nostre scelte personali; ma sta anche riducendo i tempi trascorsi ad utilizzare le nostre facoltà cerebrali e, attenzione! non sta forse atrofizzando, a causa del loro non uso, parte di tali facoltà cerebrali?
E ancora, non sta forse diminuendo la nostra capacità di socializzazione, l’attitudine ad attivare ed a consolidare costruttivi rapporti interpersonali? Sarebbe interessante chiedere, su questo aspetto, il parere di quanti stanno già spendendo molto del loro tempo di lavoro in smart-working.
Fra dieci anni saremo ancora in grado fare un calcolo semplice senza usare l’app “calcolatrice”, andare in un luogo lontano sulla base di una mappa rinunciando all’uso del “navigatore”, fare scelte personali di acquisto senza ricorrere all’aiuto dell’informatica, uscire di casa per incontrare fisicamente gli amici e/o i colleghi di lavoro?
Ma, soprattutto, saremo capaci di fare scelte personali o l’IA le farà in effetti al posto nostro illudendoci del contrario?
Questo è il grosso rischio, più l’IA aumenta il suo spazio nell’ambito della realtà materiale suscettibile di razionalizzazione, più diminuisce nello stesso ambito lo spazio riservato all’uomo e alla sua intelligenza.
 

Una umanità teleguidata?

Se l’attività di analisi di dati, di loro valutazione, di scelta dell’opzione migliore è svolta in maniera più veloce ed efficace da parte dell’IA che da parte dell’uomo,  non potrebbe accadere di trovarsi di fronte ad una totale resa dell’uomo nell’ambito delle realtà fisiche e materiali e ad un suo rifugiarsi nell’ambito di quelle più intime o di quelle spirituali?
Non potremmo assistere ad una umanità teleguidata in toto da un superpotere dell’IA tramite lo strumento della manipolazione mediatica?
Se l’IA è in grado di conoscere tutto di noi stessi (dati personali, preferenze di ogni tipo, capacità di spesa, simpatie politiche…) cosa potrebbe impedirle di usare queste informazioni per dirigere la nostra vita in una direzione e verso obiettivi propri dei pochi che riescono a governare l’IA? Non abbiamo già avuto esempi di come la manipolazione mediatica riesca ad influenzare scelte elettorali (gli esempi abbondano) o scelte collettive di consumo (addirittura diversificando i prezzi sulla base della capacità individuale di spesa e della propensione al consumo)?
L’IA non potrebbe essere lo strumento per attuare, da parte di pochi, una dittatura informatica tramite la manipolazione mediatica?
Ritenete che si tratti di domande puramente teoriche, di astruserie di persone che si divertono con elucubrazioni mentali?
Forse chi avrà voglia di leggere i testi citati nella piccola bibliografia indicata alla fine di queste considerazioni, potrebbe avere l’opportunità di condividere questo timore.

Come imporre una dittatura informatica?

Quale potrebbe essere una strategia per creare questa situazione nella quale, attraverso un uso spregiudicato (ma mirato…) della IA si possa pervenire ad influenzare pesantemente il comportamento di milioni di persone?
Come pervenire a instaurare quella che più sopra abbiamo definito una “dittatura informatica”?

La strategia probabilmente si dovrebbe strutturare attraverso tre precise serie di azioni.

1.     In primo luogo la raccolta di dati.
Occorre che vengano reperiti, tracciati e quindi raccolti (al fine di poterli elaborare) i dati personali del maggior numero possibile di persone, generalità individuali (data di nascita, residenza, stato civile, situazione familiare), preferenze di consumo, disponibilità finanziarie, simpatie politiche, tipo e qualità delle amicizie…
Si giungono così a creare innumerevoli (miliardi?) di profili individuali e a catalogare e classificare tali profili in blocchi che comprendano profili con caratteristiche abbastanza omogenee fra di loro.

2.     In secondo luogo la costruzione e diffusione di quelle che semplicisticamente vengono definite “fake news”.
In realtà non si tratta di costruire e diffondere notizie interamente false, bensì anche notizie parzialmente false oppure di bloccare la diffusione di notizie vere ma che potrebbero far aprire gli occhi su precedenti o contemporanee informazioni false.
E’ una vera e propria azione di falsificazione delle realtà trasmessa con una carica psicologica tale da restare impressa, più che nella parte cerebrale, in quella emotiva, nella cosiddetta “pancia” delle persone[1].

3.     In terzo luogo la creazione di nuovi paradigmi, ovvero nuovi schemi di riferimento mentali.
Tutti noi usiamo questi schemi, ovvero facciamo (in maniera pressoché automatica) una ricerca veloce nella nostra memoria per ricordare come ci siamo comportati in un certo frangente similare e tendiamo a ripetere quel comportamento, particolarmente se quel tipo di comportamento ci ha permesso di conseguire risultati positivi (ci diciamo internamente “ha funzionato bene”
Ogni volta in più che implementiamo quello stesso comportamento tendiamo, con questa continua ripetizione, a consolidare un preciso schema di riferimento.
Può però capitare che quel certo comportamento, che più volte ha funzionato in maniera ottima, dimostri la sua inattitudine a “funzionare” in una situazione che ci pareva uguale ad altre verificatesi in precedenza e che invece era solo apparentemente uguale ma, in effetti alquanto diversa.
E’ quello che accade allorché un paradigma, uno schema di riferimento mentale, si trasforma in una “distorsione cognitiva”, ovvero pensiamo di conoscere una determinata situazione, mentre in effetti la situazione è diversa.
Sulla base delle informazioni in nostro possesso “leggiamo” una situazione in un determinato modo e applichiamo a quella situazione uno schema di riferimento che, nelle volte precedenti, ha funzionato benissimo sfruttando al meglio a nostro favore le potenzialità offerta da quel particolare contesto.
Che accade però se le informazioni che abbiamo raccolto non sono vere o, peggio, sono state falsificate da altri proprio per modificare il nostro comportamento? Accade che il nostro comportamento, implementato in base una visione distorta della realtà, risulta inadeguato agli scopi prefissi.

Ricapitolando i punti precedenti, possiamo dedurre che una “entità” (politica o economica), che sia pienamente a conoscenza delle nostre caratteristiche personali (peculiarità fisiche, dati logistici, familiari e finanziari, preferenze di gusti, opinioni culturali e politiche…) può, inviandoci false informazioni, attivare in noi determinate distorsioni cognitive e condizionare pesantemente il nostro comportamento senza che noi ne siamo consapevoli.
Ma può una “entità” essere in grado di fare questo a livello mondiale, può raccogliere i dati di miliardi di persone, elaborarli creando profili sia personali che diversificati per tipologia di persone, può mirare e veicolare le informazioni false in maniera da differenziare le stesse in funzione delle diverse persone e delle diverse tipologie, può praticamente orientare il comportamento del mondo intero?
Non so se già questo sia possibile ma certamente lo sviluppo della IA lo renderà possibile. Sarà invero possibile imporre una “dittatura informatica” a livello globale attraverso la manipolazione mediatica delle menti delle persone.

Come difenderci?

Come difenderci, a livello individuale, dal rischio che la nostra mente possa essere mediaticamente manipolata e, di conseguenza, il nostro comportamento, essere condizionato e indirizzato verso fini prescelti da altri?
Quando ero poco più che ventenne e avevo in animo di fare la mia tesi di laurea sui valori della democrazia, mi capitò di leggere “I fondamenti della democrazia” di Hans Kelsen[2].
Kelsen, giurista e sociologo di rilievo mondiale, appartenente alla Scuola di Vienna, sostiene, in questo libro, che il fondamento della democrazia (o, per meglio chiamarla, della liberaldemocrazia) è la cultura del “dubbio”.
Se non ho dubbi, argomentava Kelsen, se penso di avere ragione, di possedere pertanto la “verità” su un determinato argomento, se penso, di conseguenza, che la mia verità non possa che essere sinonimo di bene sia per me che per gli altri (altrimenti non sarebbe “verità”…), quali remore dovrei avere non solo a proporla, ma addirittura ad imporla agli altri... per il loro bene?
A rifletterci, è questo il principio implicito nella dottrina della maggior parte delle religioni a sostegno della loro attività missionaria. Convertire diventa sinonimo di imporre all’altro l’adesione ad una certa fede perché in tal modo realizzerà il suo bene.
Secondo Kelsen solo se mi pongo in un atteggiamento di dubbio, sono capace di presentare la mia opinione all’altro, di ascoltare serenamente la sua e, in uno spirito di ascolto reciproco ( di “dialogo”…), camminare insieme verso la ricerca della verità.
Nel corso della mia vita talvolta ho avuto la forza (perché non è facile…) di assumere questa cultura del dubbio e mi sono chiesto, in certe situazioni in cui avevo espresso una opinione o adottato un comportamento che altre volte era stato giusto; “se invece avessi torto?”, “se quello che dice il mio interlocutore fosse vero?”, “non è che sto insistendo a seguire la mia idea per ostinazione o, peggio, per pigrizia?”.
Ebbene, quando ho avuto questa forza sovente mi è capitato di cambiare la mia opinione, di accettare in tutto o, più spesso, parzialmente, quella del mio interlocutore.
Avere questa cultura del dubbio può essere il primo passo per l’acquisizione di una maggiore libertà di giudizio rispetto alle informazioni che cerchiamo e troviamo autonomamente o che ci piovono addosso da altri.
Ma vivere con questa cultura del dubbio non deve sfociare nell’abbracciare uno scetticismo estremo, bensì nell’evitare di accettare acriticamente informazioni infondate e, invece, nel diventare capaci di valutarle e di discernere, nel mare di informazioni nel quale nuotiamo, quelle vere e utili da quelle false o inutili.
Una volta acquisita una sana cultura del dubbio, il passo successivo per combattere le distorsioni cognitive consiste nel saper ragionare correttamente e soprattutto nel confrontarsi costantemente con altri.
Leggere molto, leggere, con mente aperta, sia testi in linea con le nostre opinioni che testi discordanti e riportanti opinioni diverse, leggere attentamente notando come le persone articolano e motivano i loro ragionamenti, leggere acquisendo un ampio bagaglio informativo, permette di ampliare non solo le nostre informazioni ma soprattutto la nostra capacità di ragionare ed esprimere giudizi corretti.[3]
Ma non è ancora sufficiente.
Un altro e ultimo passo deve essere quello di confrontare le nostre opinioni, i nostri giudizi con quelli di persone che stimiamo (e che magari hanno opinioni e giudizi diversi) in un dialogo in cui la serenità, la sincerità, la assertività e, soprattutto, la voglia di ascoltarsi reciprocamente rappresentino caratteristiche comuni.
Coltivare sempre il dubbio, leggere (o vedere…) acquisendo il maggior numero possibile di informazioni, classificare, collegare e articolare queste ultime sulla base di ragionamenti corretti, mettere alla prova le nostre conclusioni in confronto e dialogo con amici che partono da conclusioni diverse, tutto ciò dovrebbe permettere di raggiungere un certo livello di capacità mentale e intellettiva sufficiente per riconoscere una gran parte delle informazioni false e fuorvianti e per limitare l’influenza della nostre distorsioni cognitive.
Ultima virtù da coltivare è l’umiltà, ovvero la capacità di essere consapevole che, nonostante tutti i tentativi che possiamo mettere in atto, la nostra imperfezione innata di essere umani non ci consentirà mai di essere sicuri di essere completamente liberi da potenziali manipolazioni (di qualsiasi tipo esse siano).

Roma 04/03/2022                                                                              Giuseppe Sbardella

 

Di seguito una breve bibliografia sulla intelligenza artificiale (IA)

1.     M. Tegmark “Vita 3.0”, Raffaele Cortina editore 2018

2.     L Floridi, F. Cabitza, “Intelligenza Artificiale”, Bompiani 2021

3.     L. Floridi “Il verde e il blu”, Raffaele Cortina editore 2020

S. Quintarelli “Capitalismo immateriale”, Bollati Boringhieri 2019




[1] E’ assodato che le emozioni negative (dolore, rabbia, antipatia…) hanno un carica tre volte superiore alle emozioni positive. Pertanto non per caso spesso le fake news sono mirate a suscitare emozioni negative.

[2] Hans Kelsen “I fondamenti della democrazia” edizioni Il Mulino 1966

[3] Quando scrivo “leggere” in effetti metto in evidenza una mia distorsione cognitiva. Per persone più giovani lo stesso effetto si può raggiungere, più che leggendo testi, “vedendo” video ferme restando le altre condizioni già esposte nel caso di lettura.

 

Nessun commento: