“Non si è mai visto niente del genere!”

Potremmo parlare quasi di una legge di natura. Più si va avanti negli anni, più la probabilità di pronunciare una frase come questa – o una delle sue varianti – cresce fino ad aumentare in maniera esponenziale in vecchiaia.

Apparentemente, ci troviamo di fronte a una espressione innocua, banale, ordinaria. Una espressione che serve a esprimere sgomento, incredulità, sorpresa di fronte a un accadimento. Ma anche sconcerto, perplessità, timore, confusione, imbarazzo. Ciò che vuole dire è semplicemente che vediamo per la prima volta ciò che stiamo vedendo in quel momento. Nulla di più, apparentemente.

La pronunciamo quando siamo testimoni di atti di maleducazione “inaudita”, quando assistiamo in televisione al racconto di un crimine efferato o di una catastrofe naturale, quando siamo di fronte a una invenzione rivoluzionaria dagli effetti dirompenti sulla nostra esistenza, quando il marito della nostra migliore amica decide di abbandonarla dopo quaranta anni di matrimonio, quando un personaggio di spicco non si conforma alle norme sociali del momento.

Eppure, una frase come questa nasconde più di quanto dica. Il “si” impersonale ammicca a un “noi” generalizzato e molto personale. Lo sgomento, la sorpresa lo sconcerto, la confusione di chi parla sono lo sgomento, la sorpresa lo sconcerto, la confusione dell’umanità intera. Opportunamente riformulata, “Non si è mai visto niente del genere!” ambisce a significare “Nessuno – né io, né tu, né nessun altro – ha mai visto una cosa del genere in vita sua”. In questo modo, chi parla elegge sé stesso a misura del mondo e il suo ego, che pure gioca a nascondino con il “si” impersonale, sconfina, fagocitandoli, in quelli di tutti gli altri. Così facendo, giudica il mondo sulla base delle sue esperienze, relazioni, accadimenti. Ciò che il parlante non vede, nessuno ha mai visto; ciò che il parlante non sente, nessuno ha mai sentito. La maleducazione che offende i suoi valori offende i valori di tutti. Ciò che sorprende la sua sensibilità stupisce la sensibilità di tutti. La sua esperienza si tramuta nell’esperienza di tutti. Ne è prova il fatto che, quando si pronuncia questa frase in compagnia, ci si aspetta comprensione e solidarietà dagli altri, i quali sono tacitamente invitati ad annuire la propria condivisione con un cenno del capo o con una frase complementare di circostanza (“È proprio così!”).

Basterebbe riflettere un po’ per ricordare che delitti efferati come quello che commentiamo sono già avvenuti in passato, che invenzioni rivoluzionarie si succedono a ritmi vorticosi, che, un tempo, si verificavano atti di maleducazione perfino peggiori, che di divorzi come quelli della nostra migliore amica è pieno il mondo e che sono tanti i politici, gli uomini d’affari, gli attori e le star della televisione che suscitano scandalo.

Niente di nuovo sul fronte Occidentale, insomma. E, allora, “Non si è mai visto niente del genere” potrebbe essere semplicemente una iperbole. Le persone amano le iperboli, adorano esagerare perché esagerare permette di catturare l’attenzione e di apparire più interessanti agli occhi degli altri. Inoltre, suscita coinvolgimento, curiosità, eccitazione, enfasi, condivisione.

Ma la verità è che dietro questa frase apparentemente innocua e iperbolica si nasconde qualcosa che la psicologia ci insegna da tempo e, cioè, che gli esseri umani sono fondamentalmente egocentrici. Attenzione: egocentrici non egoisti!

Sebbene sia usato nella vita quotidiana quasi come un sinonimo di “egoismo”, il concetto di “egocentrismo” non è di tipo morale, come “egoismo”, e fa riferimento alla tendenza psicologica, spesso inconsapevole, degli esseri umani a adoperare i propri valori, giudizi, gusti, opinioni, pensieri come parametri di conoscenza e valutazione degli altri e del mondo. Ad esempio, se commettono un’azione vergognosa, gli individui ritengono di poter essere immediatamente scoperti quasi fossero trasparenti; se credono in un’idea, pensano che molte più persone credano nella stessa idea; se parlano una determinata lingua, tendono a ritenere l’apprendimento di quella lingua più facile di quanto non sia; se hanno un certo stile di vita, pensano che ci siano molte persone che lo adottano; se fanno esperienza di essere traditi dal proprio partner sentimentale, credono che il tradimento sia universalmente diffuso e, se rimangono sbigottiti da qualcosa che hanno visto, credono che tutti debbano avere la medesima reazione.

Insomma, l’egocentrismo è soprattutto un’innata tendenza a fare di sé il modello di valutazione del mondo.

Ne era consapevole molti anni fa, lo psicologo ginevrino Jean Piaget (1896-1980), il quale riteneva che nella fase evolutiva che va dai tre ai sei anni, il pensiero dei bambini sia fondamentalmente egocentrico e, dunque, incapace di differenziare il proprio punto di vista da quello degli altri. In questa fase, “io” è il pronome preferito e il gioco è «un’assimilazione deformante del reale all’io» (Piaget, 1967, p. 31). Così, i bambini di quella fascia d’età tendono a pensare che il sole sorge per svegliarci, che la luna è lì per darci la luce di notte e che lo spigolo del tavolo è cattivo perché li ha colpiti intenzionalmente. È tutto un trionfo dell’ego, un mondo che gira intorno al proprio sé.

Quello che Piaget aveva trascurato – forse inconsapevolmente – è che una buona dose di egocentrismo permane anche negli adulti, generando tutta una serie di distorsioni cognitive. Una di queste è la tendenza fortissima a generalizzare a partire dalle proprie esperienze, valori, credenze e situazioni come se fossero le esperienze, i valori, le credenze e le situazioni di tutti. Come se tutto il mondo fosse paese. 

E, in effetti, chi confessa esterrefatto di “non aver visto mai una cosa del genere in vita sua” nasconde – forse anche a sé stesso – il fatto che il suo punto di vista è necessariamente limitato e parziale, rispecchiando una determinata “provincia di significato”, ovvero un mondo circoscritto di conoscenze, esperienze e modi di essere. Le cose peggiorano quando si è trascorsa la propria esistenza in un ambiente culturalmente e socialmente ristretto: un paesino, un posto in montagna, un borgo, senza contatti o quasi con il mondo esterno. È quello che abitualmente viene definito “provincialismo”. La pretesa, in questo caso, è che la propria prospettiva ristretta sia rappresentativa di quella di ogni altro abitante del mondo. Il particolare si spaccia per universale e, più è particolare, più esige di essere universale. Scherzi dell’egocentrismo irriflesso, che rende incapaci di considerare punti di vista diversi dal proprio, ma che crede di rappresentarli tutti.

Ma l’egocentrismo non è l’unica chiave di spiegazione del fenomeno del “Non si è mai visto niente del genere”. Talvolta, chi pronuncia questa frase semplicemente dimentica di aver assistito a ben peggio nella vita, magari molto indietro nel tempo. Si sa che la mente umana preferisce mettere da parte i ricordi negativi, sgradevoli o traumatici, lasciandoli nell’inconscio in modo che non provochino più dolore (Brandimonte, 2004). Per questo motivo, quando siamo testimoni dell’ennesima tragedia, dell’ennesimo omicidio efferato, dell’ennesimo atto di maleducazione, è come se ricominciassimo daccapo per poi, ovviamente, dimenticare anche l’ultimo episodio che tanto ci ha sconvolti. Si tratta di un dispositivo di preservazione che la mente innesca per tutelarci da emozioni associate a ricordi negativi.  “Non si è mai visto nulla”, dunque, come meccanismo di difesa dalle brutture della vita.

È sorprendente constatare come, dietro una frase così apparentemente banale e ordinaria, si nasconda una mente umana incline a fare di sé il centro del mondo e a dimenticare ciò che non le aggrada. Tale propensione ha lo scopo adattivo di favorire la sopravvivenza del sé in un ambiente altamente competitivo in cui ego diversi entrano in conflitto per affermare la propria visione del mondo. Che ne siamo consapevoli o no, asseriamo di “non aver mai visto nulla del genere in vita nostra” per imporre agli altri i nostri valori, i nostri giudizi, i nostri punti di riferimento, le nostre esperienze, e per evitare che gli altri impongano a noi i loro valori, giudizi, punti di riferimento, esperienze. Potrà sembrare troppo “darwiniano”, ma è questo il motivo per cui cerchiamo il consenso degli altri al nostro egocentrismo. Per sopravvivere in una giungla di visioni del mondo diverse.

Riferimenti:

Brandimonte, M. A., 2004, Psicologia della memoria, Carocci Editore, Roma.

Piaget, J., 1967, Lo sviluppo mentale del bambino e altri studi di psicologia, Einaudi, Torino

Pubblicato in Luoghi comuni | Contrassegnato , , , | Lascia un commento

Lavoro e lamentele

Gli psicologi sanno da tempo che vi è una stretta connessione tra lavoro e lamentele, rimostranze, pettegolezzi, voci. Per le sue caratteristiche nella società contemporanea, il lavoro assume spesso caratteristiche disumane, alienanti, insoddisfacenti che favoriscono la lagnanza come strumento di chiosa e compensazione delle svariate forme di sofferenza generate dal dedicare tante ore ad attività spesso inutili, avvilenti, mortificanti.

Lamentarsi diventa così uno dei pochi mezzi a disposizione per recuperare una dimensione umana, accettabile, significativa in ambienti sovente privi di significato.

Mi sono imbattuto di recente in una storia che pretende di essere vera, e forse lo è, ma che, se pure fosse falsa, sarebbe ben inventata. Si tratta di una storia che ha una certa pertinenza con il tema di questo post.

Questa storia emerge dai documenti della Magistratura dei Conservatori del mare di Genova, all’epoca della omonima Repubblica marinara massima autorità in materia marittima. In quel tempo, i lavori dei marinai erano estremamente faticosi e i relativi contratti potevano essere stipulati in due forme. La prima prevedeva una paga più elevata ma nessun diritto di “mugugnare” (termine, peraltro, di origine genovese). La seconda prevedeva un compenso più basso ma la possibilità di mugugnare, ossia di lamentarsi degli ordini ricevuti, che comunque dovevano essere eseguiti.

Sembra che il diritto al mugugno sia stato sospeso nel XVI secolo, con l’avvento dell’Ammiraglio Andrea Doria che promise ai marinai migliori condizioni di lavoro e paghe più alte, in cambio di ordine, disciplina e silenzio.

Vera o no che sia, questa storia ci segnala l’importanza cruciale dello ius murmurandi di antica memoria latina. Il mugugno è indispensabile in ambiente lavorativo in quanto soddisfa il bisogno individuale di dare sfogo alle amarezze provocate da capi e colleghi che ci rendono la vita difficile. Inoltre, compensa i sospetti di ingiustizia, lo stress della competizione, la mancanza di potere, l’ansia relativa alla posizione sociale. In altre parole, la repressione della lagnanza renderebbe insostenibile vivere in determinati contesti lavorativi, anche se il senso comune vuole che sia un comportamento riprovevole, da evitare il più possibile.

La verità è che lagnarsi serve. E serve anche al potere, che è sempre soddisfatto quando le pulsioni antisistemiche dei lavoratori sono attenuate, dirottate o rese innocue in un modo o in un altro. E la lagnanza è evidentemente funzionale al sistema perché, nella misura in cui le energie dei lavoratori sono dissipate verbalmente, invece che canalizzate contro i “padroni”, esso favorirà sempre la proliferazione di lagnanze.

Il lamento, in altre parole, assolve una funzione catartica ed è questa la ragione per cui è tanto praticato negli ambienti di lavoro.

E voi, accettereste di essere pagati di più senza la facoltà di lamentarvi?

Se volete sapere altro sulle “virtù” del pettegolezzo e della lagnanza, vi rimando al testo dell’antropologo Max Gluckman (1911-1975), da me tradotto, che ha proprio come oggetto l’analisi delle funzioni sociali di gossip and scandal (“pettegolezzi e maldicenze”).

Pubblicato in Lavoro, linguistica | Contrassegnato , , , , , , | Lascia un commento

“L’ha detto in punto di morte” ovvero della “fallacia del capezzale”

Quello che si dice in punto di morte contiene maggiore saggezza e verità di tutto ciò che è stato detto in precedenza? L’avvicinarsi dell’ora fatale incoraggia gli esseri umani a formulare riflessioni più profonde sulla vita? E queste riflessioni posseggono un maggiore grado di virtù e autenticità rispetto a tutte quelle manifestate negli anni precedenti? La vicinanza della morte concede maggiori meriti alle nostre opinioni tanto da donare loro la dignità di essere ricordate come “le ultime parole”? Pentimento, conversione e confessione in punto di morte sono più autentici rispetto al pentimento, alla conversione e alla confessione che hanno luogo in altre fasi della vita?

Agisce in noi uno strano pregiudizio, diventato indiscusso luogo comune, secondo cui tutto ciò che è associato al tempo immediatamente precedente la morte è per ciò stesso vero, autentico, degno di fede. Non a caso, è diventato quasi un genere letterario raccogliere le ultime parole, reali o putative, pronunciate da personaggi illustri, quasi che in esse si celasse un contenuto di verità altrimenti ineffabile. Tale esercizio è talvolta praticato con il fine non dichiarato di provare la bontà delle proprie idee o credenze, come quando si recuperano conversioni religiose di noti atei per dimostrare e rafforzare il valore di verità del proprio credo. In altri casi, le “ultime parole” sono considerate con venerazione, quasi provenissero da una fonte sacra che le ammanta di significati profondi che vanno ben al di là della loro frequente banalità. È per questo che una promessa o un giuramento resi a una persona in punto di morte sono considerati particolarmente vincolanti e una loro violazione una grave immoralità.

Più prosaicamente, tendiamo ad attribuire grande valore alle esternazioni di chi, sentendosi prossimo alla morte, manifesta rammarico per non aver trascorso più tempo con i propri familiari, per non aver viaggiato di più, per avere dedicato troppo tempo al lavoro invece che alle cose davvero importanti, per non essere stato sincero con le persone amate, per non aver fatto questo o quello ecc. I sopravvissuti fanno spesso eco a questi rimpianti, rimproverandosi di non aver trascorso più tempo con il caro defunto, di non aver assecondato i suoi ultimi desideri, di non avere espresso più frequentemente i propri sentimenti nei suoi confronti.

Tali situazioni si reggono su un presupposto raramente messo in discussione, che Rikard Hjort, battezza Deathbed Fallacy, espressione che potremmo tradurre con “fallacia del capezzale”. Per fallacia del capezzale, si intende la nozione errata secondo cui ciò che si afferma, pensa, sente quando si è sul punto di morire ha un valore generalmente superiore a ciò che si afferma, pensa, sente in altri momenti della vita, tanto da poter assurgere a regola etica assoluta che chiunque dovrebbe condividere se desidera vivere una vita migliore. Così, se si rimpiange in punto di morte di non aver dedicato più tempo ai propri cari, il tempo trascorso con questi diventa un modello etico a cui far riferimento per una esistenza più degna di questo nome. Se il rammarico riguarda il non aver dedicato più tempo a sé stessi, la coltivazione del sé autentico diventa un motivo ispiratore di primaria importanza. Non a caso, queste argomentazioni sono riprese anche da guru spirituali come Bronnie Ware, infermiera addetta al reparto cure palliative di un ospedale e autrice di The Top Five Regrets of the Dying: A Life Transformed by the Dearly Departing (2012) in cui, raccogliendo i rimpianti di tante persone prossime alla morte, ha sviluppato un metodo per raggiungere una condizione di pace mentale, traendo ispirazione dalle ultime parole dei suoi pazienti.

Ma perché quella del capezzale è una fallacia della mente? Per vari motivi.

Innanzitutto, ciò che si afferma, pensa, sente quando si è in punto di morte non può essere considerato superiore a o rappresentativo di ciò che si afferma, pensa, sente durante l’intera vita. Ciò che si desidera al capezzale da vecchi può non essere affatto desiderabile in gioventù; ciò che è ritenuto importante da adolescente può non avere nulla a che fare con ciò che è ritenuto importante in una fase successiva della vita; ciò che ci rende felici nella mezza età può non renderci felici da vecchi. Valori, desideri, ambizioni, aspettative, credenze cambiano insieme a noi e al nostro orizzonte temporale. Chi ha una lunga aspettativa di vita davanti a sé non vede l’esistenza come chi ha solo pochi giorni o ore di vita. Una casa per cui faremmo qualsiasi sacrificio quando abbiamo trent’anni può esserci del tutto indifferente a ottanta. Una donna di cui ci innamoreremmo pazzamente a venticinque anni potrebbe essere giudicata in modo diverso venticinque anni dopo. Un film che ci emoziona a settant’anni può annoiarci a venti. E così via. A ogni fase della nostra vita corrisponde un sé peculiare che può essere del tutto estraneo o indifferente agli altri sé che ci capita di interpretare. Per lo stesso motivo, in fasi diverse della vita, è possibile provare il medesimo intenso dolore per ragioni completamente diverse. Come recita un efficace aforisma dello scrittore americano Mark Twain (1835-1910), tratta da Which Was the Dream? (1897): «Nessun dolore dal quale siamo afflitti può essere definito infimo: in base alle leggi eterne della proporzione, un bambino che smarrisce la sua bambola e un re che smarrisce la sua corona sono eventi delle stesse dimensioni» (Tuckey, 1966),

Una seconda ragione per cui parliamo di fallacia del capezzale è che, dal momento che la vita consiste nel fare delle scelte a scapito di altre, quando si è in punto di morte, inevitabilmente ci saranno cose che non avremo fatto e che, forse, rimpiangeremo di non aver fatto, ma che altre persone, diverse da noi, avranno fatto, non rimpiangendole per nulla. In altre parole, la mappa dei successi e dei rimpianti è diversa da individuo a individuo per cui non si può trarre dai rammarichi di un singolo moribondo una ricetta generale per la felicità collettiva. Se avrò dedicato più tempo al lavoro che alla famiglia, potrò rimpiangere di non aver trascorso più tempo con i miei cari, ma un’altra persona potrebbe sentirsi non realizzata nel lavoro e, quindi, rammaricarsi per non aver dedicato maggiori energie a questo.

Un terzo motivo per cui ciò che viene esternato al capezzale non è necessariamente vero rimanda a una seconda fallacia, generalmente nota come “fallacia genetica” (Gilovich, 1993). Nella fallacia genetica, l’errore consiste nel giudicare un’idea dalle sue origini piuttosto che dalla sua validità. Un esempio è fornito dalla seguente affermazione: «Il sostenitore di quella idea è un povero barbone. Come puoi prestargli fede?»; oppure dalla seguente: «Il testimone è un ladruncolo/un drogato. Come puoi prestargli fede?». Un altro esempio emblematico è rappresentato da chi proclama: «È vero perché è scritto nella Bibbia». Naturalmente, il fatto che l’origine di una proposizione sia un libro ritenuto sacro da molti non significa che essa contenga obbligatoriamente la verità. Allo stesso modo, chi crede che una confessione avvenuta in punto di morte sia necessariamente vera solo perché avvenuta in punto di morte soggiace alla medesima fallacia.

Una quarta ragione riguarda le condizioni in cui sono proferite le ultime parole al capezzale. È noto che gli ultimi discorsi di un moribondo sono fortemente condizionati dalla disperazione del momento, che pregiudica la lucidità mentale anche del più freddo tra gli esseri umani; dal timore della morte imminente; dal ripiegamento su sé stessi tipico di chi è affetto da gravi patologie; dall’ansia di conoscere che cosa c’è, se qualcosa c’è, dopo la morte; dallo stato di prostrazione fisica e mentale; dalle aspettative sociali e religiose; dalle credenze; dall’ambiente familiare in cui si è cresciuti. Le cose peggiorano poi se la malattia compromette direttamente la salute mentale e fisica dell’individuo, impedendogli di ragionare in maniera adeguata.

Per questo motivo, le confessioni, i pentimenti e le conversioni in punto di morte, cui spesso tendiamo ad attribuire grande valore, non sono sempre da giudicare attendibili o, addirittura, come comprovanti la verità del credo in cui ci si converte, di ciò che viene confessato o di ciò di cui ci si pente. Lo afferma chiaramente Robert Cooper, autore, a metà del XIX secolo, di un curioso opuscolo dal titolo Death-Bed Repentance; Its Fallacy and Absurdity when Applied as a Test of the Truth of Opinion; With Authentic Particulars of the Last Moments of Distinguished Free-Thinkers (1852) ossia Pentimento in punto di morte. Sua fallacia e assurdità quando utilizzato come prova della verità di una opinione. Con i resoconti autentici degli ultimi momenti di illustri liberi pensatori.

Scrive Cooper:

Ci chiediamo: perché si attribuisce tanta importanza al pentimento in punto di morte? Perché è tanto frequentemente adottato come criterio di verità o falsità, di negazione o fondamento, di principi o sistemi? Forse perché un individuo in punto di morte dovrebbe trovarsi nella migliore condizione mentale per decidere la verità o superiorità dei sentimenti che nutre? Ovviamente, no. Tale assunto è macroscopicamente assurdo. Sappiamo, in effetti, che lungi dall’essere la migliore, la condizione che precede la morte è il momento più inadeguato per formulare un giudizio sul tema. Debilitate dall’infermità, rese gracili dalla malattia, tormentate dal dolore, distratte dall’ansia, le facoltà mentali sono, di necessità, pressoché inabili a svolgere le loro legittime funzioni. La mente è ormai indebolita e confusa, la percezione naturalmente meno acuta, il giudizio meno energico e preciso. Dedurre la verità o la falsità di un principio o di un sistema dalle parole di chi sta per trapassare sarebbe quasi altrettanto assurdo che dedurre la loro verità o falsità dagli accessi d’ira di chi si trova in stato di ebbrezza. Se, nel primo come nel secondo caso, l’impero della ragione non è stato ancora del tutto rovesciato, tuttavia, in entrambi, alla ragione è impedito di esercitare il suo legittimo e benefico dominio. È vero, tuttavia, che alcuni individui hanno, a quanto pare, conservato le loro consuete facoltà mentali e continuato la propria attività fino al momento della morte […]; ma sono eccezioni, illustri eccezioni, non la regola generale: ma nemmeno essi hanno conservato la stessa vivacità intellettuale, la stessa efficienza mentale, la stessa attitudine di pensiero o solidità di giudizio che avevano quando si trovavano in uno stato di convalescenza o maturità. È evidente quindi che la prassi di considerare ritrattazioni e parole pronunciare in punto di morte come prova, sia affermativa che negativa, della verità o falsità di un sistema, è sia assurda che fallace (Cooper, 1852, p. 4).

E ancora:

Ritengo che ogni sistema, religioso o politico, dovrebbe reggersi o dichiarare fallimento solo in base ai propri meriti, e sottoporsi al più severo esame fisico e razionale, quando tutte le facoltà sono in pieno vigore e potenza, e non quando la mente è incapace di condurre un’indagine con quella serenità e precisione di ragionamento con cui solo tutti i principi dovrebbero essere messi alla prova. Dovremmo considerare le opinioni di un uomo quando questi è convalescente, non quando è malato. Dovremmo chiederci cosa ha detto, non in punto di morte, ma quando era veramente sé stesso, e le sue azioni erano caratterizzate da vigore ed energia. Un sistema che si basasse su una testimonianza così debole sarebbe, in realtà, marcio (Cooper, 1852, p. 5).

Confessioni, conversioni e pentimenti in articulo mortis sono, dunque, fortemente condizionati dalla paura della morte, dal bisogno di una forma di consolazione o rassicurazione per una condizione nei confronti della quale non si hanno certezze assolute e, forse, dalla speranza che la vita, per qualche motivo, non cessi con la dissoluzione del corpo. Del resto, anche la Bibbia, seppure presenti il caso del malfattore crocifisso accanto a Gesù e pentitosi in punto di morte al quale lo stesso Gesù promette: «In verità ti dico, oggi sarai con me nel paradiso» (Luca 23, 43), insiste sulla necessità di ravvedersi immediatamente: «Ravvedetevi, perché il regno dei cieli è vicino!» (Matteo 4, 17) senza attendere dunque gli ultimi istanti di vita.

C’è, tuttavia, un tipo di confessione in punto di morte che, da sempre, viene giudicato attendibile e che nessuna ritrattazione serve a invalidare. Si tratta della confessione dei delitti. Ne sa qualcosa James Washington, il quale, nel 2009, credendosi in fin di vita a causa di un infarto, confessò di aver ucciso la trentacinquenne Joyce Goodener nel 1995. Superato inopinatamente l’infarto, Washington tentò disperatamente di ritrattare la confessione, dichiarando di essere stato vittima di una allucinazione, ma inutilmente. “Non si mente in punto di morte” devono aver pensato i giudici, che evidentemente non avevano mai sentito parlare di fallacia del capezzale o, forse, hanno semplicemente creduto che, in questo caso, non andasse applicata.

Riferimenti

Cooper, R., 1852, Death-Bed Repentance; Its Fallacy and Absurdity when Applied as a Test of the Truth of Opinion; With Authentic Particulars of the Last Moments of Distinguished Free-Thinkers, E. Truelove, 240, Strand, London.

Gilovich, T., 1993, How We Know What isn’t So: The Fallibility of Human Reason in Everyday Life, The Free Press, New York.

Tuckey, J. S. (a cura di), 1966, Mark Twain’s Which Was the Dream? and Other Symbolic Writings of the Later Years, University of California Press, California.

Ware, B., 2012, The Top Five Regrets of the Dying: A Life Transformed by the Dearly Departing, Hay House, Australia.

Pubblicato in Luoghi comuni | Contrassegnato , , , , | Lascia un commento

Cristiani cretini?

Tra i numerosi argomenti fallaci che condizionano il ragionamento umano (i cui elenchi sembrano aumentare sempre più quasi che il cervello degli esseri umani fosse una sentina di brutture precipitate dalla perversa incompetenza del nostro organo sovrano), uno dei più capziosi è quello etimologico che consiste nel far riferimento all’etimo di un termine per avallarne una certa interpretazione. Il presupposto è che l’etimologia rimandi al significato “vero”, “autentico” del termine, di cui l’attuale, se discordante, è solo una degenerazione. Un esempio è dato dal verbo “divertirsi”: dal momento che “divertire” significa etimologicamente “allontanare”, è facile concludere che chi si diverte, in realtà, si allontana dalla retta via.

In questo senso, l’argomento etimologico si presta a speculazioni ingannevoli: seducenti, forse, ma sicuramente ingannevoli.

Un caso di specie è offerto dal termine “cretino” su cui mi sono già soffermato in un altro post. “Cretino”, inteso come “persona di scarsa intelligenza” o come “persona affetta dalla patologia del cretinismo”, deriva dal franco-provenzale crétin, variante di chrétien, “cristiano”.

Ciò può condurre semplicisticamente a ritenere, in base all’argomento etimologico, che i “cretini” sono “cristiani” o che i “cristiani” sono “cretini”.

Le cose, però, non stanno in questi termini, come avverte l’Accademia della Crusca, che alla vicenda dedica una corposa riflessione. Infatti, la variante crétin veniva adoperata nel XVIII secolo in alcune regioni della Svizzera romanda di lingua franco-provenzale per indicare varie forme di ipotiroidismo congenito. Da lì, per evoluzione semantica, crétin passò a essere utilizzato nel senso commiserativo di “povero cristo”, “infelice”, con riferimento all’immagine del Cristo sofferente.

In definitiva, la relazione di “cretino” con “cristiano” non deve

essere intesa in senso offensivo: l’accezione di cretino che deriva direttamente da cristiano è quella medica, non quella ingiuriosa, la quale invece si sviluppa più tardi, e inoltre testimonia un barlume di sensibilità nel trattamento quotidiano della malattia.

Rifarsi all’origine di un termine per trarne conclusioni di un certo tipo è una tentazione fortissima, ma completamente errata. Il significato attuale del termine non è, di per sé, più o meno “vero” o “autentico” di quello originario e l’argomento etimologico si rivela essere solo una strategia retorica finalizzata a persuadere l’interlocutore della bontà delle proprie asserzioni.

Ne sapeva qualcosa il filosofo tedesco Martin Heidegger che alle etimologie attribuiva grande importanza e che conduceva molte sue riflessioni su base etimologica con esiti spesso discutibili.

L’argomento etimologico è ancora oggi uno dei più insidiosi in circolazione anche perché sfrutta il tema delle “radici” a cui noi tutti siamo piuttosto sensibili. La realtà è che il significato attuale di un termine può superare completamente il suo etimo fino a rendersi a questo irriconoscibile. Ciò non ne fa per questo una versione “degenere”. Le parole cambiano e diventano altro da quello che erano in origine senza che ciò comprometta in qualche modo la loro bontà. La ricerca delle origini diventa allora solo un modo per “venderci” una visione ideologica del mondo, conferendole una parvenza di legittimità.

Pubblicato in Turpiloquio | Contrassegnato , , , | Lascia un commento

“Ti amerò per sempre. Il mio amore per te non cambierà mai”

Vi è mai capitato di pronunciare questa frase? Se siete come la maggior parte delle persone, probabilmente sì. Arriva un momento della nostra vita in cui ci convinciamo che i nostri sentimenti nei confronti di una persona rimarranno gli stessi all’infinito. Soprattutto l’amore, sostantivo a cui ci piace associare l’aggettivo “eterno”. Non a caso una frase come “Ti amerò per sempre” è diventata il claim di tanti film e serie TV in cui i protagonisti si scambiano rassicuranti attestazioni sulle proprie emozioni.

Questa convinzione è talmente robusta che non abbiamo problemi a dichiarare all’altro/a ciò che proviamo, magari aggiungendo: «Voglio invecchiare con te». È diventato, anzi, un luogo comune credere che il vero amore sia imperituro e che, se amiamo davvero una persona, il nostro sentimento rimarrà costante in ogni fase della nostra vita, dalla giovinezza alla maturità alla vecchiaia. Salvo poi ricrederci e renderci conto che, con l’andare del tempo, i sentimenti si trasformano e diventano altro. Non mutano necessariamente nel contrario, ma mutano. Come i nostri gusti alimentari, le nostre preferenze in fatto di musica, vestiti, lavoro, amici, tatuaggi.

E allora perché, nonostante la prova del tempo e dei fatti, ci ostiniamo a dire che il nostro amore è destinato all’eternità? Oppure, per scendere a un livello più prosaico, perché siamo certi che quella pietanza è e sarà per sempre la nostra preferita, che quella band ci farà provare sempre le stesse emozioni, che ameremo sempre quel lavoro, frequenteremo sempre quell’amico/a e voteremo sempre per quel partito? C’è forse qualcosa nella nostra mente che ci fa dire che il verde sarà per l’eternità il nostro colore preferito, che Enrico sarà il nostro best friend for ever, che i Beatles sono il nostro gruppo musicale prediletto, che quella rosa tatuata ci rappresenterà fino alla morte e che, naturalmente, Valeria sarà la donna della nostra vita, anche se poi cambieremo idea?

Sembra proprio di sì, stando a quello che affermano gli psicologi Jordi Quoidbach, Daniel T. Gilbert, Timothy D. Wilson (2013), autori di uno studio che battezza un nuovo fenomeno della psiche: The End of History Illusion ovvero “l’illusione della fine della storia”.

Che cos’è l’illusione della fine della storia? È la propensione illusoria, comune a individui di tutte le età, a credere che la propria personalità, i propri valori e le proprie preferenze rimarranno stabili e uguali a quelli attuali per sempre, sebbene in alcuni casi in passato siano cambiati in modo notevole. In altre parole, se interrogati al riguardo, le persone riconoscono di aver sperimentato importanti cambiamenti nel passato, ma prevedono che non ne sperimenteranno nel futuro, ovvero che i propri valori, tratti di personalità e gusti rimarranno più o meno stabili.

In uno studio che ha coinvolto complessivamente 19.000 persone, di età compresa tra i 18 e i 64 anni, Quoidbach, Gilbert e Wilson chiesero a un campione di soggetti di prevedere quanto sarebbero cambiati nei successivi dieci anni relativamente ad alcuni tratti di personalità, ad alcuni valori fondamentali e ad alcune preferenze (gusti e antipatie), e contestualmente a un campione simile di individui di riferire quanto erano cambiati nei dieci anni precedenti relativamente alle stesse variabili. Confrontando le previsioni delle persone di età pari a X anni con i resoconti delle persone di età pari a X +10 anni, gli sperimentatori si aspettavano che le prime prevedessero meno cambiamenti nei successivi dieci anni rispetto a quelli segnalati dalle seconde nei dieci anni precedenti. E, in effetti, è esattamente quello che accadde. Lo studio dimostrò che

le persone si aspettano di sperimentare meno cambiamenti nella loro personalità e nei loro valori fondamentali nel prossimo decennio rispetto a quelli che le persone di dieci anni più grandi dichiarano di aver sperimentato nel decennio precedente (Quoidbach, Gilbert, Wilson, 2013, p. 98).

In sostanza, le persone credono che ciò che sono oggi sia più o meno ciò che saranno domani, anche se non corrisponde a ciò che erano ieri. Detto altrimenti, si aspettano di cambiare poco nel futuro, nonostante sappiano di essere cambiate molto in passato.

Secondo i ricercatori, il fenomeno può verificarsi a causa di una resistenza al cambiamento o un timore dello stesso. Oppure perché si è soddisfatti dello stato attuale della propria vita e non si desidera che esso cambi. Oppure, dal momento che rievocare il passato è più facile che prevedere un cambiamento futuro, le persone preferiscono l’idea che il cambiamento sia improbabile alla difficile alternativa di immaginare un profondo cambiamento personale.

Gilbert collega il fenomeno anche al modo in cui gli esseri umani percepiscono il tempo in generale. Il tempo è una forza molto potente. Muta profondamente i nostri gusti, ridefinisce i nostri valori, modifica la nostra personalità. Il guaio è che capiamo questo solo con il senno di poi, quando guardiamo le cose del passato. Gli esseri umani sono opere in fieri che credono erroneamente di essere terminate. In ogni momento, le persone credono di essere “prodotti finiti” quando, invece, cambieranno costantemente nel corso della vita.

È per questo motivo che da giovani prendiamo decisioni in cui crediamo e di cui siamo convinti con tutto noi stessi, salvo poi rimpiangere da adulti di non aver deciso altrimenti. Un esempio classico è rappresentato dai tatuaggi. Da giovani, siamo convinti che quel tatuaggio che tanto amiamo ci accompagnerà per sempre, che ci rappresenterà per sempre, che sarà sempre parte di noi. Poi, da adulti, ci affrettiamo a cancellarlo perché non ci rappresenta più, ci è diventato estraneo e, anzi, ci meravigliamo della nostra scelta precedente. Abbiamo sottovalutato la nostra capacità di cambiare in futuro. Un altro esempio è dato dalla forza delle idee. Da giovani possiamo innamorarci profondamente di un’idea e pensare che vi dedicheremo la vita, salvo poi, con il tempo, renderci conto che non la pensiamo più allo stesso modo, che siamo cambiati divenendo altro da ciò che credevamo di essere. Alcuni sperimentano questa condizione come un tradimento del proprio sé autentico. In realtà, si tratta solo di un fisiologico mutamento di idee che, in gioventù, non siamo in grado di prevedere.

Questa incapacità sistematica di prevedere quanto cambieremo nel futuro, quanto cambierà la nostra personalità, quanto cambieranno i nostri valori e i nostri gusti, questa avversione a comprendere che la storia non finisce con il presente, che, se siamo cambiati fino a ora, ciò accadrà anche in futuro, ha delle profonde ricadute non solo in ambito individuale, ma pure sociale.

Quoidbach, Gilbert e Wilson battezzarono la loro “creatura” “illusione della fine della storia”, traendo spunto dalla celebre tesi del politologo Francis Fukuyama, elaborata nel 1992, all’indomani della caduta del muro di Berlino e del tramonto dei regimi comunisti, secondo cui, alla fine del XX secolo, l’umanità aveva ormai raggiunto l’apice della sua evoluzione sociale, economica e politica, rappresentata dal trionfo del capitalismo e del liberalismo democratico, e che non vi sarebbero stati più mutamenti nella storia.

La tesi di Fukuyama ricorda, per certi versi, quella di un autore molto diverso da lui come Oswald Spengler (1880-1936), convinto che, nel XIX secolo, l’Occidente fosse entrato in una fase di decadenza e si sarebbe presto estinto. Sebbene le loro conclusioni siano molto distanti l’una dall’altra, l’idea di fondo è che, a un certo punto, la storia dell’umanità cessa di evolvere, arrestandosi al presente. Un’illusione smentita dal fatto che sia nel XX sia nel XXI secolo, la storia ha continuato a mutare secondo linee di evoluzione non previste dai due autori.

Ritroviamo l’illusione della fine della storia anche in un giornalista come Luigi Barzini (1908-1984), autore, nel 1964, di un celebre libro sugli italiani. In esso, Barzini formulò la seguente profezia: «Il divorzio comincia ad essere adottato [in Italia] come una consuetudine dalla classe superiore. Naturalmente la legge ancora non lo contempla e non lo contemplerà mai. Non vi si oppone soltanto la Chiesa, ma la popolazione stessa lo considera giustamente un’istituzione barbara e rovinosa; la necessità di conservare qualche solido baluardo contro l’instabilità delle cose ne impedirà sempre l’adozione» (Barzini, 2001, p. 279).

Barzini credeva che vi fosse qualcosa nel carattere degli italiani che avrebbe per sempre reso impossibile l’approvazione di una legge sul divorzio. Si sbagliava, vittima della End of history Illusion. La legge sul divorzio sarà approvata in Italia nel 1970, appena sei anni dopo la pubblicazione del suo libro.

È possibile vedere all’opera l’illusione individuata da Quoidbach, Gilbert e Wilson ogni volta che una nuova invenzione viene scoperta. Quando ciò avviene, ci sono sempre dei detrattori pronti a scommettere che non durerà: questo è accaduto per i treni, le automobili, gli aerei, i computer. Ad esempio, l’invenzione della lampadina da parte di Thomas Edison (1847-1931) venne accolta con estremo scetticismo da altri scienziati come Henry Morton (1836-1902) dello Stevens Institute of Technology, sicuro che sarebbe stata un “fallimento certo”. Quando fu inventato il televisore, il produttore cinematografico Darryl Zanuck (1902-1979) dichiarò con piena convinzione, nel 1946, che le persone si sarebbero presto stufate di fissare ogni sera una scatola di compensato. Nel 1899, la rivista Literary Digest espresse scetticismo riguardo il fatto che l’automobile avrebbe soppiantato la bicicletta come mezzo di trasporto. Opinione sottoscritta, tre anni dopo, dal New York Times che definì le auto “poco pratiche”. Infine, nel 1977, Ken Olsen (1926-2011), fondatore della società di informatica Digital, affermò: «Non c’è nessun motivo perché qualcuno voglia avere un computer a casa», opinione destinata a essere clamorosamente smentita qualche decennio dopo.

I protagonisti di queste vicende sottovalutarono sistematicamente i cambiamenti che sarebbero intervenuti dopo l’introduzione della nuova scoperta e si dimostrarono incapaci di predire quanto il mondo sarebbe cambiato. La storia, per essi, si arrestava al presente.

L’illusione della fine della storia può essere utilizzata anche a fini pratici, se non pedagogici. Essa ci insegna che non dovremmo prendere le nostre decisioni esclusivamente sulla base dei nostri sentimenti attuali (“Sento che andrà tutto bene”) o del presupposto che le nostre preferenze del momento non cambieranno nel futuro. Ad esempio, intraprendere una carriera o un matrimonio senza riflettere sulla loro durabilità può avere conseguenze negative nel futuro.

È per questo, fra l’altro, che sorgono conflitti tra genitori e figli. I secondi tendono a prendere le loro decisioni sulla base delle idee o aspirazioni del momento, senza prendere in considerazione altri fattori la cui importanza si paleserà nel futuro e che saranno decisivi nella vita adulta. Ambiranno, ad esempio, a diventare grandi scienziati/scrittori/registi facendo leva su desideri ottimistici tipicamente giovanili. I primi chiameranno in causa elementi realistici che possono condizionare le scelte future dei secondi e con cui è necessario fare i conti, ma che sono sottovalutati dai figli. Ne può scaturire uno scontro di vedute che, in alcuni casi, può essere molto conflittuale. Il fatto è che i genitori “sanno” che cosa significa essere adulti; i figli immaginano di essere giovani in eterno, prede dell’illusione della fine della storia.

Questo significa che dovremmo sempre mettere in discussione le nostre scelte perché in futuro potrebbero cambiare? Se così fosse, saremmo condannati a una eterna paralisi. Banalmente, non potremmo più decidere perché ogni decisione correrebbe il rischio di essere revocata. L’illusione della fine della storia, però, non ci insegna questo. Ci mette semplicemente in guardia dal ritenere che tutto ciò che siamo adesso non potrebbe cambiare in futuro. Se vogliamo, ciò comporta una conseguenza ancora più inquietante, ma con cui la filosofia ci ha già costretto a fare i conti: il nostro sé non è fisso e stabile, ma cambia in continuazione. L’io del futuro potrebbe non essere in grado di riconoscere l’io del passato e viceversa (se ciò fosse possibile).

Se e cose stanno così, che ne facciamo dell’amore? Dovremmo smettere di amare nel presente perché l’io del futuro potrebbe non amare più o amare qualcun altro? Forse, una soluzione c’è e consiste nel venire a patti con una verità scomoda e tremenda, riassumibile nel titolo di un film di Carlo Verdone del 2004: l’amore è eterno finché dura. Poi chissà.

Riferimenti

Barzini, L., 2001, Gli italiani. Virtù e vizi di un popolo, BUR, Milano.

Fukuyama, F., 2023, La fine della storia e l’ultimo uomo, UTET, Torino.

Quoidbach, J., Gilbert, D. T, Wilson, T. D., 2013, “The End of History Illusion”, Science, vol. 339, pp. 96–98.

Spengler, O., 2008, Il tramonto dell’Occidente, Longanesi, Milano.

Pubblicato in Luoghi comuni | Contrassegnato , , , , , | Lascia un commento

Turpiloquio e bestemmie in Ignazio Silone

Traggo spunto da due frasi in cui mi sono imbattuto durante la lettura di Fontamara (1933) di Ignazio Silone, capolavoro per molto tempo misconosciuto della letteratura italiana, per alcune riflessioni su turpiloquio e bestemmia.

La prima è questa:

«Io so bene che il nome cafone, nel linguaggio corrente del mio paese, sia della campagna sia della città, è ora termine di offesa e dileggio; ma io l’adopero in questo libro nella certezza che quando nel mio paese il dolore non sarà più vergogna, esso diventerà nome di rispetto, e forse anche di onore» (Silone, I., 2016, Fontamara, Mondadori, Milano, p. 5).

Può accadere che un termine adoperato per offendere e dileggiare si trasformi in altro e, anzi, acquisti una sua onorabilità? L’ambizione di Silone è che un termine come “cafone”, ancora oggi adoperato come “titolo ingiurioso per significare persona rozza, grossolana, maleducata”, ma il cui primo significato è quello di “contadino” (Treccani), diventi un nome di rispetto. Ciò può verificarsi, afferma lo scrittore abruzzese, solo quando si riconoscerà il valore del lavoro del contadino. In effetti, la connotazione negativa di alcune parole è strettamente associata al valore che riconosciamo al ruolo sociale di cui quelle parole sono etichette. Per tanto tempo, il lavoro del contadino è stato giudicato degradante, inferiore, umiliante. E ciò ha comportato una squalifica sociale dei termini che lo designano, come “agreste” e “rustico”. Ma si pensi anche a “bifolco”, “burino”, “pacchiano”, “villano”, “zappaterra”.

Oggi, le cose sono un po’ diverse. La rivalutazione del “verde”, della “natura”, della “campagna” in contrapposizione all’alienante condizione urbana ha permesso, in parte, di rivalutare il lavoro nei campi, tanto che termini come “agricoltore” o, ancora di più, “imprenditore agricolo” sono oggi considerati con rispetto, soprattutto se poi l’imprenditore agricolo è laureato e non più analfabeta.

Nonostante ciò, “cafone” continua ad avere una connotazione negativa, che si è però trasferita quasi del tutto dalla condizione contadina a ogni forma di comportamento incivile e rozzo, che può appartenere anche a chi contadino non è. In altre parole, “cafone” si è emancipato dalla sua accezione principale per designare una condotta socialmente riprovevole, chiunque la metta in atto.

La seconda frase tratta da Fontamara è:

I Fontamaresi «invece di cantare, volentieri bestemmiano. Per esprimere una grande emozione, la gioia, l’ira, e perfino la devozione religiosa, bestemmiano, ma neppure nel bestemmiare portano molta fantasia e se la prendono sempre contro due o tre santi di coloro conoscenza, li mannaggiano sempre con le stesse rozze parolacce» (Silone, I., 2016, Fontamara, Mondadori, Milano, p. 9).

La bestemmia qui assume una funzione di surrogato espressivo in persone che non sono in grado di dare altra forma ai propri stati d’animo. Secondo una vecchia teoria, turpiloquio e bestemmie suppliscono a importanti carenze verbali in coloro che, non essendo sufficientemente scolarizzati, non posseggono altre risorse per esprimere le proprie emozioni o per indicare gli oggetti che li circondano. Se ci pensiamo, è quello che accade a chiunque quando non trova le parole necessarie per significare qualcosa: “Passami quel c* di coso!”.

A Fontamara, i cafoni locali, poco istruiti, non hanno altro mezzo che “mannaggiare” per riferire le proprie emozioni, il che, fra l’altro, ci fa capire come turpiloquio e bestemmie, in alcuni contesti, assumano una importanza vitale a scopo comunicativo. Se mancassero, alcune persone sarebbero semplicemente condannate a una sorta di afasia esistenziale. Un fatto di cui i moralisti dovrebbero tenere conto prima di condannare, senza diritto di replica, parolacce e imprecazioni.

D’altro lato, parolacce e imprecazioni possono essere assunte come indicatori di disagio sociale e quindi divenire strumenti di accesso a realtà nei confronti delle quali, superficialmente, saremmo tentati di esprimere solo condanne morali. Il ricorso frequente a turpiloquio e bestemmie può divenire un modo per significare malessere: un sintomo, per così dire, di una realtà più profonda che sarebbe troppo semplice disapprovare.

Questo, Silone lo sapeva benissimo. Dovremmo impararlo anche noi.

Per altre riflessioni sociologiche su turpiloquio e bestemmie, rimando al mio Turpia. Sociologia del turpiloquio e della bestemmia.

Pubblicato in Turpiloquio | Contrassegnato , , , , | Lascia un commento

Un antropologo parla di Halloween

Si imparano molte cose dalla lettura di questo piccolo classico finora mai tradotto di Ralph Linton (1893-1953), pubblicato nel 1951 da Scientific American e laconicamente intitolato “Halloween” (vol. 185, n. 4, pp. 62-67).

Ralph Linton, uno dei più celebri antropologi americani, di cui sono state tradotte diverse opere in Italia, ha dedicato ad Halloween anche un intero libro, intitolato Halloween: Through Twenty Centuries (1950) e rappresenta ancora oggi una delle voci più serie e avvertite sulle origini di questa festa.

Leggendo Halloween, qui nella mia traduzione, impariamo che non è vero che Halloween è banalmente una “americanata”; che non è una festa pagana o neopagana venuta a usurpare le tradizioni cattoliche; che ha anzi forti affinità con le feste religiose cattoliche; che sono state queste, semmai, a fagocitare vecchie tradizioni pagane, sovrapponendosi a esse e trasformandole in altro; che le contaminazioni tra cristianesimo e paganesimo sono al cuore di questa come di altre feste che oggi percepiamo come unicamente cristiane.

Linton al riguardo è molto esplicito: «Tutte le feste del calendario cristiano hanno le loro radici nel remoto paganesimo». Spazziamo via, dunque, l’illusione che le celebrazioni a cui annualmente la Chiesa cattolica ci invita a partecipare posseggano una pristina purezza cristiana che si contrappone a una altrettanto pristina purezza pagana. Come sempre nella storia, i fenomeni sociali e religiosi sono molto più complessi di quanto piace raccontare. Solo che ai credenti più devoti dà forse fastidio ricordare che la tradizione che venerano può avere natali non proprio genuini. Di qui sforzi di ogni tipo per cancellare le macchie che infangano la narrazione tramandata, anche a rischio di falsificare platealmente la realtà. Questo è vero, ad esempio, nel caso del Natale (che tributa un profondo ringraziamento ai Saturnalia romani) e della Pasqua (che deve, invece, ringraziare Eostre, divinità germanica il cui nome è associato al rinnovarsi del ciclo della vita).

Quando si vuole diffamare una ricorrenza, infatti, il miglior modo per farlo è esibirne gli stracci sporchi della contaminazione per denunciarne le ascendenze pagane, se non addirittura diaboliche. È vero che Halloween scaturisce, secondo un’ipotesi accreditata, direttamente da riti druidici risalenti alla festività di Samhain, il Signore dei morti, i quali traevano forse afflato da alcune religioni misteriche greche. I druidi credevano che in quella occasione gli spiriti tornassero sulla terra a fare danni, ragione per cui era necessario indossare costumi e maschere per spaventarli. È anche vero, però, che alla festa celtica fu scientificamente sovrapposta la festa di Ognissanti e che i sacrifici pagani divennero presto sacrifici cristiani, come rivela scopertamente la lettera di papa Gregorio Magno (504-640) citata dalla Storia ecclesiastica degli Angli di Beda il venerabile (672-673 circa – 735) e ricordata da Linton. Toccherà poi a un altro papa, Gregorio III (690-741), spostare la celebrazione cattolica di Ognissanti dal 13 maggio al primo novembre allo scopo di spodestare (ed esorcizzare) la tradizione pagana di Samhain.

È, dunque, falsa l’idea che Halloween abbia origine negli States, come vuole un luogo comune duro a morire secondo il quale tutto ciò che è bizzarro e stravagante deve avere la propria scaturigine nel paese rappresentato dalla bandiera a stelle e strisce. Appare oggi assodato che la festa del treat or trick è emigrata oltreoceano con gli irlandesi che, a metà del XIX secolo, fuggirono il suolo natio a causa della terribile carestia di patate che li affamò, costringendoli a cercare fortuna altrove. Naturalmente, presso i discendenti degli antichi celti, Halloween non aveva ancora i caratteri che conosciamo oggi. Ma molti tratti – gli spiriti dei morti, i cortei che elemosinavano cibo, l’atmosfera scherzosa – erano già presenti nei rituali irlandesi e, in seguito, come accade di norma a ogni elemento culturale, subirono evoluzioni e “rivisitazioni” in chiave soprattutto consumistica fino a giungere alla codificazione attuale in cui l’aspetto commerciale è talmente preminente da soffocare ogni altro. Si può dire che anche Halloween, così come altre festività a sfondo religioso, si è secolarizzata. Anzi, in questo caso, il cerimoniale del consumo è diventato talmente centrale da elidere completamente ogni aspetto spirituale, relegato su un improbabile sfondo del passato che nessuno praticamente conosce più.

Ritornando alla storia della festività, non manca chi, come l’antropologo Luigi Maria Lombardi Satriani, sostiene che Halloween sarebbe addirittura una festa italiana derivante dalla tradizione del “Coccalu di muortu” (“teschio di morto”) di Serra San Bruno, in Calabria (Lombardi Satriani, Meligrana, 1982) ed esportata successivamente in America dai tanti emigrati italiani meridionali.

Sia come sia, un ruolo preponderante nella secolarizzazione di Halloween, l’hanno avuto ovviamente il cinema, la televisione, la musica, i videogiochi, i libri e le storie in salsa orrifica che hanno contribuito a plasmare un intero immaginario oltretombale che si è espanso fino quasi a scalzare, nelle nuove generazioni, le festività limitrofe di Ognissanti e del Giorno dei Morti.

È questo forse il motivo per cui la Chiesa – o almeno alcuni suoi rappresentanti – condanna la festa di Halloween, accusandola di diffondere uno spirito anticristiano, pagano, diseducativo, estraneo alle nostre tradizioni, votato esclusivamente al consumo (Le Guay, 2004). Niente di tutto ciò corrisponde al vero, ma l’insistenza pervicace con cui le autorità cattoliche battono sull’argomento indica chiaramente come Halloween venga visto come una pericolosa minaccia in grado di sovrastare tradizioni cristiane vecchie di secoli. In realtà, maschere, offerte di cibo, questua, rapporti con i morti sono tutti elementi presenti anche in alcune festività religiose di cui, però, si preferisce vantare le origini autenticamente cristiane rispetto ai riti paganeggianti di Halloween. Quanto all’aspetto consumistico, questo è certamente presente come è presente, del resto, anche nel Natale e nella Pasqua con cui, peraltro, appare in perfetta sintonia.

Dal versante laico, invece, erano diffuse fino a qualche tempo fa le accuse secondo cui Halloween sarebbe una forma di colonizzazione dell’immaginario italiano da parte di quello americano e, dunque, uno snaturamento, se non una evirazione, dei caratteri nazionali e culturali del nostro paese. Nel corso del tempo, questa accusa è andata progressivamente affievolendosi, segno, forse, direbbe un sociologo cinico, che lo sforzo di colonizzazione ha raggiunto il suo obiettivo e che le nuove generazioni hanno pienamente interiorizzato il verbo del “dolcetto o scherzetto”. D’altronde, potrebbe banalmente essere accaduto che a trionfare non sia stato solo lo spirito di Halloween, ma quello del consumismo tout court, che contraddistingue ormai quasi tutte le nostre scelte di vita, dal divertimento al turismo, dagli abiti al cibo. L’importante, come è noto, è consumare e non importa se il gesto di consumo riguarda una festività religiosa o la scelta del poke bowl a pranzo o della prossima meta di viaggio. “Consumare” Halloween sarebbe, dunque, l’ennesima prova del trionfo di un intero sistema di valori a cui siamo ormai avvezzi e che non sorprende più nessuno, nemmeno i moralisti più apocalittici.

In tutto il mondo occidentale, le spese per Halloween sono aumentate a dismisura negli ultimi anni. Partecipare ad Halloween è diventato un dovere sociale soprattutto per le nuove generazioni, che non possono permettersi di ignorarne il richiamo, pena la squalifica sociale da parte del gruppo dei pari. Si moltiplicano, dunque, feste, maschere, costumi, travestimenti, accessori vari, sangue finto, posticce membra dilaniate e chi più ne ha più ne metta. E i protagonisti non sono solo gli adolescenti, ma anche gli adulti. Per non parlare dei tanti eventi a tema dedicati alla festa. Basti ricordare la Village Halloween Parade al Greenwich Village inaugurata a New York nel 1973.

 Un tempo, in Italia, ci si poteva permettere di guardare con sufficienza e un po’ di tristezza i gruppi di bambini che bussavano alle porte elemosinando dolci di ogni tipo. Oggi, non è più possibile. Certo, nessuno crede più a significati religiosi o magici – anche se le autorità cattoliche sono convinte del fatto che, il 31 ottobre, frotte di satanisti si riuniscano in tutto il mondo per parodiare e dissacrare i valori cristiani – ma il richiamo del consumo è fortissimo e sfuggirvi richiede davvero un grande sforzo.

Ora, non mentite. Lo so che anche per voi il 31 ottobre non è solo la vigilia di Ognissanti, ma un’occasione di festa e bagordi. Con qualche brivido che corre lungo la schiena, forse. Ma a buon mercato. Sì. A buon mercato.

Riferimenti bibliografici

Baldini, E., Bellosi, G., 2006, Halloween. Nei giorni che i morti ritornano, Einaudi, Torino.

Belk, R. W., 1990, “Halloween: An Evolving American Consumption Ritual”, Advances in Consume Research, vol. 16, pp. 508-517.

Best, J., Horiuchi, G. T., 1985, “The Razor Blade in the Apple: The Social Construction of Urban Legends”, Social Problems, vol. 32, n. 5, pp. 488–499.

Bonato, L., Zola, L., 2020, Halloween. La festa delle zucche vuote, Franco Angeli Editore, Milano.

Clark, C. D., 2005, “Tricks of Festival: Children, Enculturation, and American Halloween”, Ethos, vol. 33, n. 2, pp. 180–205.

Dalthorp, C. J., 1937, “Laying the Ghost of Hallowe’en”, The Journal of Education, vol. 120, n. 1, pp. 18–19.

Gulisano, P., O’Neill, B., 2006, La notte delle zucche. Halloween, storia di una festa, Ancora, Milano.

Kugelmass, J., 1991, “Wishes Come True: Designing the Greenwich Village Halloween Parade”, The Journal of American Folklore, vol. 104, n. 414, pp. 443–465.

Le Guay, D., 2004, La faccia nascosta di Halloween, Elledici, Torino.

Linton, R., 1951, “HALLOWEEN”, Scientific American, vol. 185, n. 4, pp. 62–67.

Linton, R., Linton, A., 1950, Halloween through Twenty Centuries, Schuman, New York.

Lombardi Satriani, L. M., Meligrana, M., 1982, Il ponte di San Giacomo. L’ideologia della morte nella società contadina del Sud, Rizzoli, Milano.

Markale, J., 2005, Halloween: storia e tradizioni, L’Età dell’Acquario, Torino.

O’Donoho, D., 1834, “The Irish Peasants: Halloween”, The Dublin Penny Journal, vol. 3, n. 121, pp. 129–131

Rogers, N., 1996, “Halloween in Urban North America: Liminality and Hyperreality”, Histoire Social, vol. 58, pp. 461-477.

Rogers, N., 2002, Halloween: From Pagan Ritual to Party Night, Oxford University Press, Oxford.

Santino, J. 1983, “Halloween in America: Contemporary Customs and Performances”, Western Folklore, vol. 42, n. 1, pp. 1–20.

Schmidt, L. E., 1991, “The Commercialization of the Calendar: American Holidays and the Culture of Consumption, 1870–1930”, The Journal of American History, vol. 78, n. 3, pp. 887–916.

 

 

 

 

Pubblicato in Antropologia | Contrassegnato , , , , | Lascia un commento

“Fai agli altri quello che vorresti fosse fatto a te”

È considerata l’espressione più alta dell’etica, la summa di ogni possibile morale sociale, la quintessenza del retto agire, la forma più alta di reciprocità. L’hanno celebrata filosofi come Thomas Hobbes (1588-1679), John Locke (1632-1704), Immanuel Kant (1724-1804), John Stuart Mill (1806-1873), Hans Küng (1928-2021).

Le religioni, a dispetto di ogni differenza, concordano unanimemente sul suo valore. La “Regola aurea” (Golden Rule, come la chiamano gli anglofoni) è presente nella Grecia antica, nella Roma antica, nel confucianesimo, nell’ebraismo, nel buddismo e nell’Islam.

E, naturalmente, nel cristianesimo. Lo ricordano gli evangelisti Luca e Matteo. Nel vangelo di quest’ultimo si legge chiaramente:

Tutto quanto volete che gli uomini facciano a voi, anche voi fatelo a loro: questa infatti è la Legge ed i Profeti (Matteo 7, 12).

«Maestro, qual è il più grande comandamento della legge?». Gli rispose: «Amerai il Signore Dio tuo con tutto il cuore, con tutta la tua anima e con tutta la tua mente. Questo è il più grande e il primo dei comandamenti. E il secondo è simile al primo: Amerai il prossimo tuo come te stesso. Da questi due comandamenti dipendono tutta la Legge e i Profeti» (Matteo 22, 36-40).

E Luca ribadisce:

Ciò che volete gli uomini facciano a voi, anche voi fatelo a loro (Luca 6, 31).

Si prova un enorme timore riverenziale al cospetto di un fronte morale così compatto. Se tanti pensatori e leader religiosi la elogiano, come potremmo mettere in dubbio il valore etico della “Regola aurea”? “Fai agli altri quello che vorresti fosse fatto a te” ha anche una versione negativa: “Non fare agli altri quello che non vuoi sia fatto a te”, forse anche più citata della prima. Insieme, costituiscono massime divenute principi etici fondamentali anche per il senso comune, per il quale sono regole inscalfibili, solide e prive di punti deboli. Del resto, le citano decisori politici e mass media, libri di testo scolastici e persone comuni. Al limite, da un punto di vista morale, possono forse esigere troppo dagli esseri umani. Fare agli altri quello che vorremmo fosse fatto a noi non è affatto facile. E se pure ci riuscissimo una volta, non vuol dire che ci riusciremmo sempre. In questo senso, l’aspirazione etica della massima è forse inferiore solo all’altro invito cristiano: «Se uno ti percuote la guancia destra, tu porgigli anche l’altra» (Matteo 5, 39).

In realtà, se il consenso generale vuole che, come sintetizza il filosofo Hans Küng, la Regola aurea «dovrebbe essere la norma irrevocabile e incondizionata per tutti gli ambiti della vita, per le famiglie e le comunità, per le razze, le nazioni e le religioni» (Küng, Kuschel, 1993), un esame critico del suo contenuto rivela non poche crepe. Anzi, un metaforico tsunami che riduce notevolmente, a mio avviso, il suo potenziale morale.

L’obiezione più comune è riassumibile nella seguente frase del celebre drammaturgo inglese George Bernard Shaw (1856-1950), il quale, in Man and superman, avverte: «Non fare agli altri ciò che vorresti che facessero a te. I loro gusti potrebbero non essere gli stessi» (Shaw, 1903, p. 226), spingendosi fino al punto di proclamare che «The Golden Rule is that there is no golden rule» (“La Regola aurea è che non esiste alcuna regola aurea”).

Perché Shaw è così critico nei confronti del precetto: “Fai agli altri quello che vorresti fosse fatto a te”? Perché esso può funzionare solo se c’è condivisione di valori, gusti e preferenze. Facciamo qualche esempio.

Ammettiamo che A sia omosessuale e che faccia delle avances piuttosto esplicite a B, che però è eterosessuale. A si comporta nei confronti di B come vorrebbe che B si comportasse nei suoi confronti, ma B non condivide l’orientamento sessuale di A e si sente infastidito dalle sue avances. Assistiamo in questo caso a un cortocircuito etico che pone in serio imbarazzo la pretesa morale universale della Regola aurea.

Lo stesso accadrebbe se A fosse un anarchico, negatore della proprietà privata, e sottraesse a B la sua automobile in nome dei propri principi anarchici. Per B, che crede nella proprietà privata, questo sarebbe un furto tanto che non avrebbe esitazioni a denunciare A per la sua condotta.

Ancora, se A ama il sushi, riterrà che offrirne una porzione a B sia cosa buona e giusta perché gradirebbe che B facesse la stessa cosa con lui. B, però, non sopporta il pesce crudo e non ne offrirebbe mai ad A. Anzi, se A insistesse, B potrebbe anche offendersi per l’ostinazione di A, incapace di comprendere che i suoi gusti sono diversi da quelli del suo interlocutore.

Incidentalmente, situazioni del genere sono alla base di molti passi falsi relazionali. Si pensi a chi regala al proprio partner o all’amico un oggetto perché a lui/lei piacerebbe ricevere il medesimo regalo. In casi del genere, non tenere conto dei gusti dell’altro/altra può portare a una crisi del rapporto, le cui conseguenze potrebbero essere anche gravi, soprattutto se i passi falsi sono ripetuti.

Considerazioni simili possono farsi anche a proposito della versione negativa della Regola aurea: “Non fare agli altri quello che non vuoi sia fatto a te”. Ad esempio, se credo che i poveri non debbano essere aiutati perché sono responsabili della propria sciagura e, dunque, non vorrei ricevere alcun soccorso nel caso mi trovassi nella medesima condizione, agirò allo stesso modo nei confronti degli indigenti che mi capiterà di incontrare. Se ritengo che la sofferenza serva all’essere umano per acquisire meriti agli occhi del Creatore, non mi muoverò in aiuto di coloro che soffrono nella convinzione che ciò si tradurrà per essi in un vantaggio religioso.

Da questi esempi, emerge chiaramente che la Regola aurea non sembra in grado di riconoscere l’esistenza di legittime differenze valoriali. L’esito paradossale è che essa sembra promuovere una condotta morale egocentrica in cui i valori del soggetto che “agisce” la regola diventano i valori di riferimento di tutti, anche se sappiamo che, nella vita di tutti i giorni, non accade praticamente mai che due individui condividano esattamente gli stessi valori, gusti e preferenze.

In alcuni casi, come è evidente dagli esempi addotti a proposito della versione negativa della Regola aurea, essa sembra addirittura legittimare comportamenti che, per altri versi, sarebbero definibili come immorali.

C’è poi un altro ordine di problemi che sembra rendere problematica l’applicazione universale della Regola aurea. Chi sono gli altri nei riguardi dei quali fare ciò che vorremmo fosse fatto a noi? Tutti i nostri simili? Solo i nostri parenti, o amici? Solo i nostri connazionali, corregionali o compaesani? Solo quanti condividono la nostra religione, i nostri valori politici, i nostri gusti estetici, alimentari, sportivi? Qui la faccenda si fa complicata perché la Regola aurea non impone un obbligo nei confronti del nostro prossimo, né specifica da chi esso debba essere composto, né se per “altri” debba intendersi “tutti”. Un bel guazzabuglio da cui non è facile districarsi. Il rischio è che, identificando gli altri con una sola categoria di persone, il precetto possa avere come conseguenza non intenzionale la messa in atto di condotte discriminatorie nei confronti di tutti coloro che non sono compresi fra i destinatari dello stesso con paradossali esiti “parziali” o, comunque, non universali.

Il filosofo Alan Tapper (2022) evidenzia altre quattro importanti criticità della Regola aurea.

La prima è che essa non ha niente da dire nel caso B non intenda ricambiare l’azione benefica di A. Anche se A e B condividono gli stessi assunti valoriali, B potrebbe non volere rendere ad A il beneficio avuto da questi e la regola aurea non dice nulla su come “l’altro” debba comportarsi. In sintesi, la reciprocità, caratteristica attribuita in maniera preminente alla regola aurea, di fatto è solo apparente.

La seconda criticità è che la Regola aurea si basa esclusivamente su una volontà, un desiderio (“Fai agli altri quello che vorresti fosse fatto a te”) e non impone alcun obbligo morale oggettivo. In altre parole, l’agente morale non è impegnato ad agire moralmente in quanto la sua condotta è orientata meramente da quello che vorrebbe l’altro facesse a sé. Stando così le cose, manca uno degli elementi fondamentali della condotta etica, come tradizionalmente intesa: l’imperativo morale.

La terza criticità individuata da Tapper riguarda il problema della benevolenza. La Regola aurea invita a essere benevolo nei confronti dell’altro solo se tale benevolenza scaturisce dalla “consultazione” dei propri desideri, ma in questo modo la condotta dell’agente morale non pare informata da una considerazione appropriata del concetto di benevolenza, che risente eccessivamente della soggettività dell’agente.

Infine, la quarta criticità è che la regola aurea non motiva, di fatto, a mettere in atto una vera condotta benevola in quanto la benevolenza è motivata da considerazioni meramente egoistiche, non necessariamente da generosità, gentilezza e interesse per l’altro. Ancora una volta, la condotta altruistica è tale solo in apparenza, non essendo fine a sé stessa.

Per quanto, dunque, possa sembrare blasfemo, il precetto “Fai agli altri quello che vorresti fosse fatto a te”, se esaminato criticamente, non si rivela affatto un precetto universale; fa del soggetto agente e dei suoi desideri il centro dell’azione morale, promuovendo così una sorta di egocentrismo morale; fa leva sui desideri dell’agente piuttosto che su una disposizione realmente morale; infine, non sembra conformarsi a criteri morali particolarmente elevati, incoraggiando, talvolta, condotte immorali.

Il filosofo Harry J. Gensler (2013), in difesa della Regola aurea, afferma che essa può funzionare solo in assenza di flawed desires (“desideri fallaci”). Il guaio è che l’essere umano è per sua natura “fallace” e i desideri che formula non possono che riflettere la sua naturale inclinazione alla fallacia.

Riferimenti

Gensler, H. J., 2013, Ethics and the Golden Rule, Routledge, New York and London.

Küng, H., Kuschel, K.-J., 1993, A Global Ethic: The Declaration of the Parliament of the World’s Religions, SCM Press, London.

Shaw, G. B., 1903, Man and Superman. A Comedy and a Philosophy, Archibald Constable and Co, Westminster.

Tapper, A., 2022, “What Is Wrong with the Golden Rule?”, International Journal of Applied Philosophy, vol. 36, n. 2, pp. 251-261.

 

 

 

 

Pubblicato in Luoghi comuni | Contrassegnato , , , , , | Lascia un commento

Due cose che non sopporto. Anzi, odio

Ci sono due cose, tra tante, che proprio non sopporto. Mi arrischio a dire che le odio, come fanno gli adolescenti quanto qualcosa li irrita.

La prima cosa.

Le persone che, rivolgendosi a me, esordiscono con “Perdonami!”.

“Perdonarti?”, mi verrebbe da dire. “Non sono un prete! E poi che cosa hai da farti perdonare? Quali peccati hai commesso o hai intenzione di commettere? Dovrei preoccuparmi? O assolverti? Nel secondo caso, non ne avrei nemmeno la facoltà. E allora perché l’indice e il medio della mia mano destra sono già nella posizione del gesto della benedizione?”.

Barattando cortesia con sottomissione, “Perdonami!” è un inutile salamelecco, un esordio da servi, un prologo da schiavi, un rachitismo della mente. Comunica subordinazione e scarsa autostima. Da evitare assolutamente se volete essere rispettati nella vita. Ottimo, se volete ingraziarvi un potente che adora – o ha bisogno costante di – essere incensato per compensare il profondo baratro di nullità che sente dentro di sé.

La seconda cosa.

I manifesti funebri che antepongono al nome del defunto titoli come “prof.”, “ing.”, “dott.”.

Di fronte alla morte, simili titoli appaiono ridicoli, patetici, volgari, pleonastici. Di fronte alla morte, conta solo l’essere nella sua interezza, come comunicata dal nome e dal cognome, senza orpelli di sorta. I titoli limitano, rinchiudono in un ruolo, asserviscono a una funzione, rinserrano in un compito. La morte se ne frega di titoli e apposizioni. La morte pretende l’assoluto. Perciò è bene presentarsi al suo cospetto in maniera assoluta. Senza infingimenti. E senza titoli.

Pubblicato in Antropologia, Sociologia | Contrassegnato , , | Lascia un commento

Il bias dell’attribuzione ostile

Tra tutti i bias che condizionano la mente umana conducendola a una visione distorta della realtà, uno dei più diffusi tra gli adolescenti è l’Hostile Attribution Bias o “Bias dell’attribuzione ostile” Si può definire come la tendenza a credere che le altre persone abbiano costantemente sentimenti o intenzioni ostili nei propri confronti e si manifesta con dichiarazioni come “Mi odia”, “Non mi sopporta”, “Ce l’ha con me”. Ad esempio, una persona dotata di forte bias di attribuzione ostile, vedendo due individui ridere a pochi metri di distanza, tende a interpretare la loro condotta come se fosse rivolta contro di sé, pur in assenza di ragioni per cui ciò dovrebbe accadere.

Naturalmente, il più delle volte tale credenza non ha alcuna corrispondenza con la realtà. La ricerca scientifica ha rivelato che questo bias è diffuso soprattutto tra bambini e adolescenti aggressivi, vittime di bullismo o di abusi di vario tipo.

Tra gli adulti, l’Hostile Attribution Bias è associato a situazioni relazionali conflittuali, ad esempio nei rapporti tra partner. I genitori che hanno un alto livello di Hostile Attribution Bias hanno maggiori probabilità di punire severamente i propri figli e di creare attriti all’interno del proprio nucleo familiare.

Come dicevo, però, il bias dell’attribuzione ostile è diffuso soprattutto tra gli adolescenti. È probabile che ciò sia dovuto anche a scarsa autostima e complessi di inferiorità in situazioni ambigue in cui non si è in grado di valutare accuratamente le intenzioni altrui, condizioni tipiche dell’adolescenza.

Non riuscendo a “leggere” bene le situazioni che si trovano a vivere, gli adolescenti attribuiscono atteggiamenti ostili a individui che sono del tutto indifferenti nei loro riguardi o, addirittura, che hanno sentimenti positivi verso di loro.

È necessario acquisire precise abilità sociali per superare questo bias che, se trascurato, può protrarsi fino in età adulta e portare a condurre a una vita da reclusi per timore di incontrare individui ostili.

La prossima volta che ascoltiamo un adolescente affermare con convinzione: «Quello mi odia!» oppure «Quella non mi può vedere!», sforziamoci di pensare che forse ciò accade per una errata attribuzione mentale, spesso inevitabile se non si è dotati delle giuste competenze sociali; competenze sociali che, tuttavia, si affinano con il tempo e con l’esperienza per cui è necessario avere pazienza quando ragazzi e ragazze esprimono opinioni estreme nei confronti dei propri simili.

Riferimenti:

Nasby, W., Hayden, B., DePaulo, B. M., 1980, “Attributional bias among aggressive boys to interpret unambiguous social stimuli as displays of hostility”, Journal of Abnormal Psychology, vol. 89, n. 3, pp. 459–468.

Pubblicato in criminologia, psicologia | Contrassegnato , , | Lascia un commento