NOACH
- sinagoga17
- 20 de out.
- 5 min de leitura
Atualizado: 22 de out.
NOACH
Moralidade Verdadeira
Existe algo como uma base objetiva para a moralidade? Por algum tempo, nos círculos seculares, essa ideia pareceu absurda. Moralidade é o que escolhemos que ela seja. Somos livres para fazer o que quisermos, desde que não prejudiquemos os outros.
Julgamentos morais não são verdades, mas escolhas. Não há como ir do "é" ao "deveria", da descrição à prescrição, dos fatos aos valores, da ciência à ética. Essa foi a sabedoria popular na filosofia por um século após Nietzsche defender o abandono da moralidade – que ele via como produto do judaísmo – em favor da "vontade de poder".
Recentemente, porém, uma base científica inteiramente nova foi dada à moralidade a partir de duas direções surpreendentes: o neodarwinismo e o ramo da matemática conhecido como Teoria dos Jogos. Como veremos, a descoberta está intimamente relacionada à história de Noach e à aliança feita entre D-s e a humanidade após o Dilúvio.
A teoria dos jogos foi inventada por uma das mentes mais brilhantes do século XX, John von Neumann (1903-1957). Ele percebeu que os modelos matemáticos usados em economia eram irrealistas e não refletiam a forma como as decisões são tomadas no mundo real. A escolha racional não é simplesmente uma questão de ponderar alternativas e decidir entre elas. A razão é que o resultado da nossa decisão frequentemente depende de como outras pessoas reagem a ela, e geralmente não podemos saber isso com antecedência. A teoria dos jogos, invenção de von Neumann em 1944, foi uma tentativa de produzir uma representação matemática da escolha em condições de incerteza. Seis anos depois, produziu seu paradoxo mais famoso, conhecido como o Dilema do Prisioneiro.
Imagine duas pessoas presas pela polícia sob suspeita de cometer um crime. Não há provas suficientes para condená-las por uma acusação grave; há provas suficientes apenas para condená-las por um delito menor. A polícia decide incentivar cada uma a denunciar a outra. Elas as separam e fazem a cada uma a seguinte proposta: se você testemunhar contra o outro suspeito, você será libertado e ele ficará preso por dez anos. Se ele testemunhar contra você e você permanecer em silêncio, você será condenado a dez anos de prisão e ele ficará livre. Se ambos testemunharem um contra o outro, cada um receberá uma pena de cinco anos. Se ambos permanecerem em silêncio, cada um será condenado pela acusação menor e enfrentará uma pena de um ano.
Não demora muito para perceber que a estratégia ideal para cada um é denunciar o outro. O resultado é que cada um ficará preso por cinco anos. O paradoxo é que o melhor resultado seria ambos permanecerem em silêncio. Eles então enfrentariam apenas um ano de prisão. A razão pela qual nenhum dos dois optará por essa estratégia é que ela depende da colaboração. No entanto, como cada um é incapaz de saber o que o outro está fazendo – não há comunicação entre eles – eles não podem correr o risco de permanecer em silêncio. O Dilema do Prisioneiro é notável porque mostra que duas pessoas, ambas agindo racionalmente, produzirão um resultado ruim para ambas. Eventualmente, uma solução foi descoberta. A razão para o paradoxo é que os dois prisioneiros se encontram nessa situação apenas uma vez. Se isso acontecesse repetidamente, eles acabariam descobrindo que a melhor coisa a fazer é confiar um no outro e cooperar.
Enquanto isso, os biólogos lutavam com um fenômeno que intrigava Darwin. A teoria da seleção natural – popularmente conhecida como a sobrevivência do mais apto – sugere que os indivíduos mais implacáveis em qualquer população sobreviverão e transmitirão seus genes para a próxima geração. No entanto, quase todas as sociedades já observadas valorizam indivíduos altruístas: aqueles que sacrificam sua própria vantagem para ajudar os outros. Parece haver uma contradição direta entre esses dois fatos.
O Dilema do Prisioneiro sugeriu uma resposta. O interesse próprio individual frequentemente produz resultados ruins. Qualquer grupo que aprenda a cooperar, em vez de competir, estará em vantagem em relação aos outros. Mas, como o Dilema do Prisioneiro demonstrou, isso requer encontros repetidos – o chamado "Dilema do Prisioneiro Iterado (= repetido)". No final da década de 1970, foi anunciada uma competição para encontrar o programa de computador que melhor se saísse em jogar o Dilema do Prisioneiro Iterado contra si mesmo e outros oponentes.
O programa vencedor foi idealizado pelo canadense Anatole Rapoport e se chamava Tit-for-Tat. Era incrivelmente simples: começava com a cooperação e depois repetia o último movimento do oponente. Funcionava com base na regra "O que você fez comigo, eu farei com você", ou "medida por medida". Esta foi a primeira vez que se obteve prova científica de qualquer princípio moral.
O que é fascinante sobre essa cadeia de descobertas é que ela reflete precisamente o princípio central da aliança que D-s fez com Noach:
Quem derramar sangue humano, pelo homem seu sangue será derramado; pois D-s fez o homem à imagem de D-s.
Isto é medida por medida [em hebraico, middah keneged middah], ou justiça retributiva: Como você faz, assim será feito a você. De fato, neste ponto a Torá faz algo muito sutil. As seis palavras em que o princípio é declarado são uma imagem espelhada uma da outra: [1] Quem derrama [2] o sangue [3] do homem, [3a] pelo homem [2a] seu sangue [1a] será derramado. Este é um exemplo perfeito de estilo refletindo substância: o que é feito para nós é uma imagem espelhada do que fazemos. O fato extraordinário é que o primeiro princípio moral estabelecido na Torá é também o primeiro princípio moral a ser demonstrado cientificamente. Tit-for-Tat é o equivalente computacional da justiça (retributiva):
Quem derramar sangue de homem, pelo homem seu sangue será derramado.
A história tem uma continuação. Em 1989, o matemático polonês Martin Nowak produziu um programa que supera o Tit-for-Tat. Ele o chamou de Generoso. Ele superou uma fraqueza do Tit-for-Tat, ou seja, que quando você encontra um oponente particularmente desagradável, você é arrastado para um ciclo de retaliação potencialmente interminável e destrutivo, o que é ruim para ambos os lados. O Generoso evitou isso esquecendo aleatória, mas periodicamente, o último movimento do oponente, permitindo assim que o relacionamento recomeçasse. O que Nowak havia produzido, na verdade, era uma simulação computacional de perdão.
Mais uma vez, a conexão com a história de Noach e o Dilúvio é direta. Após o Dilúvio, D-s jurou: “Nunca mais amaldiçoarei a terra por causa do homem, embora a inclinação do coração do homem seja má desde a sua juventude; nem tornarei a destruir todos os seres vivos, como fiz.” Este é o princípio do perdão Divino.
Assim, os dois grandes princípios do Pacto Noaíta são também os dois primeiros princípios a serem estabelecidos por simulação computacional. Afinal, existe uma base objetiva para a moralidade. Ela se baseia em duas ideias-chave: justiça e perdão, ou o que os Sábios chamavam de middat ha-din e middat rachamim. Sem estes, nenhum grupo pode sobreviver a longo prazo.
Em uma das primeiras grandes obras da filosofia judaica – Sefer Emunot ve-Deot (O Livro das Crenças e Opiniões) – R. Saadia Gaon (882-942) explicou que as verdades da Torá poderiam ser estabelecidas pela razão. Por que, então, a revelação era necessária? Porque a humanidade leva tempo para chegar à verdade, e há muitos deslizes e armadilhas ao longo do caminho.
Levou mais de mil anos após R. Saadia Gaon para que a humanidade demonstrasse as verdades morais fundamentais que fundamentam a aliança de D-s com a humanidade: que a cooperação é tão necessária quanto a competição, que a cooperação depende da confiança, que a confiança requer justiça e que a própria justiça é incompleta sem o perdão. A moralidade não é simplesmente o que escolhemos que seja. Ela faz parte da estrutura básica do universo, revelada a nós pelo Criador do universo há muito tempo.
Texto original “True Morality” por Rabbi Lord Jonathan Sacks zt’l
