La vera moralità – Parshat Noach

 In Parashà della Settimana

di Rabbino Lord Jonathan Sacks zt”l

tradotto ed adattato da David Malamut

SOMMARIO:

La malvagità dell’uomo porta Dio a scatenare il Diluvio. Solo Noè viene ritenuto giusto. Gli viene comandato di portare la sua famiglia e gli animali in un’arca. Da soli, sopravvivono al Diluvio.

 

Dopo che le acque si sono ritirate, Noè emerge e offre un sacrificio a Dio. Dio stringe quindi un patto, tramite Noè, con tutta l’umanità, stabilendo comandamenti fondamentali e giurando di non distruggere mai più il mondo con il diluvio. Noè pianta una vigna, produce vino e si ubriaca. Una nuova generazione di esseri umani aspira a costruire una città la cui torre raggiungerà il cielo. Dio scombina e sconvolge il loro piano confondendo la loro lingua.

 

La parasha si conclude con una genealogia che ripercorre le dieci generazioni tra Sem, figlio di Noè, e Abramo.

 

Esiste una base oggettiva della moralità? Per un certo periodo, negli ambienti laici, l’idea è sembrata assurda. La moralità è ciò che scegliamo che sia. Siamo liberi di fare ciò che vogliamo, purché non danneggiamo gli altri.

 

I giudizi morali non sono verità, ma scelte. Non c’è modo di passare dall’ “essere” al “dover essere“, dalla descrizione alla prescrizione, dai fatti ai valori, dalla scienza all’etica. Questa era la saggezza ricevuta in filosofia per un secolo, dopo che Nietzsche aveva sostenuto l’abbandono della moralità, che considerava un prodotto dell’ebraismo, in favore della “volontà di potere“.

 

Recentemente, tuttavia, una base scientifica completamente nuova è stata data alla moralità da due direzioni sorprendenti: il neodarwinismo e la branca della matematica nota come Teoria dei Giochi. Come vedremo, la scoperta è intimamente legata alla storia di Noè e all’alleanza stipulata tra Dio e l’umanità dopo il Diluvio.

 

La teoria dei giochi fu inventata da una delle menti più brillanti del XX secolo, John von Neumann (1903-1957). Egli si rese conto che i modelli matematici utilizzati in economia erano irrealistici e non rispecchiavano il modo in cui vengono prese le decisioni nel mondo reale. La scelta razionale non è semplicemente una questione di soppesare alternative e decidere tra di esse. Il motivo è che l’esito della nostra decisione dipende spesso da come reagiscono gli altri, e di solito non possiamo saperlo in anticipo. La teoria dei giochi, inventata da von Neumann nel 1944, fu un tentativo di produrre una rappresentazione matematica della scelta in condizioni di incertezza. Sei anni dopo, produsse il suo paradosso più famoso, noto come Dilemma del Prigioniero.

 

Immaginate due persone arrestate dalla polizia perché sospettate di aver commesso un reato. Non ci sono prove sufficienti per condannarle per un’accusa grave; ce ne sono solo sufficienti per condannarle per un reato minore. La polizia decide di incoraggiarle a denunciare l’una contro l’altra. Le separa e fa a ciascuna la seguente proposta: se testimoniate contro l’altro sospettato, voi sarete liberati e lui sarà incarcerato per dieci anni. Se lui testimonia contro di voi e voi rimanete in silenzio, sarete condannati a dieci anni di carcere e lui sarà libero. Se testimoniate entrambi l’uno contro l’altro, riceverete una condanna a cinque anni ciascuno. Se rimanete in silenzio, sarete condannati per l’accusa minore e dovrete scontare una pena di un anno.

 

Non ci vuole molto per capire che la strategia ottimale per entrambi è quella di denunciare l’altro. Il risultato è che entrambi saranno incarcerati per cinque anni. Il paradosso è che il risultato migliore sarebbe che entrambi rimanessero in silenzio. Rischierebbero quindi solo un anno di prigione. Il motivo per cui nessuno dei due opta per questa strategia è che essa si basa sulla collaborazione. Tuttavia, poiché nessuno dei due è in grado di sapere cosa sta facendo l’altro, non c’è comunicazione tra loro, non possono correre il rischio di rimanere in silenzio. Il dilemma del prigioniero è notevole perché dimostra che due persone, entrambe che agiscono razionalmente, produrranno un risultato negativo per entrambi. Alla fine, si è trovata una soluzione. La ragione del paradosso è che i due prigionieri si trovano in questa situazione solo una volta. Se si verificasse ripetutamente, alla fine scoprirebbero che la cosa migliore da fare è fidarsi l’uno dell’altro e cooperare.

 

Nel frattempo, i biologi si confrontavano con un fenomeno che lasciava perplesso Darwin. La teoria della selezione naturale, comunemente nota come la sopravvivenza del più adatto, suggerisce che gli individui più spietati di qualsiasi popolazione sopravviveranno e trasmetteranno i propri geni alla generazione successiva. Eppure, quasi tutte le società osservate valorizzano gli individui altruisti, che sacrificano il proprio vantaggio per aiutare gli altri. Sembra esserci una contraddizione diretta tra questi due fatti.

 

Il dilemma del prigioniero suggerì una risposta. L’interesse personale individuale spesso produce risultati negativi. Qualsiasi gruppo che impari a cooperare, invece di competere, sarà avvantaggiato rispetto agli altri. Ma, come dimostrò il dilemma del prigioniero, questo richiede ripetuti incontri, il cosiddetto “dilemma del prigioniero iterato (= ripetuto)“. Alla fine degli anni ’70, fu indetto un concorso per trovare il programma per computer che meglio si comportasse nel giocare il dilemma del prigioniero iterato contro se stesso e altri avversari.

 

Il programma vincente fu ideato dal canadese Anatole Rapoport e si chiamava “Tit-for-Tat” (un atto di ritorsione o vendetta, in cui qualcuno risponde a un’azione negativa con un’azione simile). Era di una semplicità abbagliante: iniziava con la cooperazione e poi ripeteva l’ultima mossa dell’avversario. Funzionava secondo la regola “Quello che hai fatto a me, lo farò io a te“, ovvero “misura per misura“. Era la prima volta che veniva fornita una prova scientifica di un principio morale.

 

Ciò che affascina di questa catena di scoperte è che rispecchia esattamente il principio centrale del patto stipulato da Dio con Noè:

 

Chiunque sparge il sangue dell’uomo,

dall’uomo il suo sangue sarà sparso;

perché a immagine di Dio, Dio ha fatto l’uomo.

 

Questa è misura per misura [in ebraico, middah keneged middah], o giustizia retributiva: come fai, così ti sarà fatto. In effetti, a questo punto la Torah fa qualcosa di molto sottile. Le sei parole in cui è enunciato il principio sono l’una l’immagine speculare dell’altra:

[1] Chi sparge [2] il sangue

[3] dell’uomo, [3a] dall’uomo

[2a] il suo sangue [1a] sarà sparso.

Questo è un perfetto esempio di stile che riflette la sostanza: ciò che ci viene fatto è un’immagine speculare di ciò che facciamo. Il fatto straordinario è che il primo principio morale enunciato nella Torah è anche il primo principio morale ad essere mai stato scientificamente dimostrato. Il “occhio per occhio” è l’equivalente informatico della giustizia (retributiva):

 

Chiunque sparge il sangue dell’uomo, dall’uomo il suo sangue sarà sparso.

 

La storia ha un seguito. Nel 1989, il matematico polacco Martin Nowak produsse un programma che superava il Tit-for-Tat. Lo chiamò Generous. Superava una debolezza del Tit-for-Tat, ovvero il fatto che quando si incontra un avversario particolarmente cattivo, si viene trascinati in un ciclo di ritorsioni potenzialmente infinito e distruttivo, il che è negativo per entrambe le parti. Generous evitava questo problema dimenticando casualmente ma periodicamente l’ultima mossa del suo avversario, permettendo così alla relazione di ricominciare. Ciò che Nowak aveva prodotto, in realtà, era una simulazione al computer del perdono.

 

Ancora una volta, il collegamento con la storia di Noè e del Diluvio è diretto. Dopo il Diluvio, Dio giurò: “Non maledirò più la terra a causa dell’uomo, sebbene l’immaginazione del cuore umano sia malvagia fin dalla sua adolescenza; né distruggerò più ogni essere vivente come ho fatto“. Questo è il principio del perdono divino.

 

Pertanto, i due grandi principi del patto noachide sono anche i primi due principi ad essere stati stabiliti tramite simulazione al computer. Dopotutto, la moralità ha una base oggettiva. Essa si basa su due idee chiave: giustizia e perdono, o ciò che i Saggi chiamavano middat ha-din e middat ha-rachamim. Senza queste, nessun gruppo può sopravvivere a lungo termine.

 

In una delle prime grandi opere della filosofia ebraica, Sefer Emunot ve-Deot (Il Libro delle Credenze e delle Opinioni), R. Saadia Gaon (882-942) spiegò che le verità della Torah potevano essere stabilite dalla ragione. Perché allora la rivelazione era necessaria? Perché l’umanità impiega tempo per giungere alla verità, e lungo il cammino si incontrano molti errori e insidie.

 

Ci vollero più di mille anni dopo R. Saadia Gaon perché l’umanità dimostrasse le verità morali fondamentali che stanno alla base dell’alleanza di Dio con l’umanità: che la cooperazione è necessaria quanto la competizione, che la cooperazione dipende dalla fiducia, che la fiducia richiede giustizia e che la giustizia stessa è incompleta senza perdono. La moralità non è semplicemente ciò che scegliamo che sia. È parte del tessuto fondamentale dell’universo, rivelatoci dal Creatore dell’universo molto tempo fa.

Post recenti
Salta al contenuto