sabato 5 luglio 2025

Vampiri europei e luce solare: miti e realtà

 


Molti film e romanzi moderni hanno consolidato l’idea che i vampiri europei siano incendiati dalla luce solare. L’immagine di creature che si dissolvono immediatamente sotto un raggio di sole è ormai comune nella cultura popolare, ma storicamente e folkloristicamente non corrisponde alle credenze originarie. Nei racconti popolari dell’Europa dell’Est, in particolare tra le tradizioni slave e balcaniche, la luce del sole non uccide il vampiro, ma ne indebolisce significativamente le capacità e la forza. In altre parole, un vampiro esposto ai raggi solari diventa più lento, meno potente e vulnerabile, senza per questo consumarsi o bruciare spontaneamente. È un po’ come la kryptonite rossa per Superman: limita le sue abilità, ma non lo annienta.

Le fonti folkloristiche raccomandano diversi metodi per sconfiggere un vampiro, spesso combinati tra loro per sicurezza: confìcare un paletto nel cuore, decapitare la creatura e bruciare il cadavere fino a ridurlo in cenere. Le autorità religiose ortodosse orientali suggeriscono addirittura di seguire tutte e tre le operazioni in sequenza, affinché il ritorno del vampiro sia definitivamente impedito. Altri strumenti come i crocifissi o l’aglio hanno un ruolo più simbolico o dipendente dal contesto culturale: un vampiro ebreo, musulmano o buddista potrebbe non esserne minimamente influenzato.

Questa concezione dei vampiri ha trovato una sua rielaborazione letteraria e cinematografica a partire dal XIX secolo. Bram Stoker, con il suo celebre romanzo Dracula del 1897, codificò molti elementi del mito vampirico europeo, tra cui l’idea di creature che temono la luce, anche se non in modo letale immediato. Successivamente, F.W. Murnau nel film muto Nosferatu (1921) interpretò in chiave visiva questa debolezza, mostrando la creatura esposta alla luce come vulnerabile. Il film fu oggetto di controversia legale: la vedova di Stoker denunciò Murnau per violazione del copyright, e la corte ordinò la distruzione di tutte le copie. Una sopravvisse negli Stati Uniti, influenzando profondamente la rappresentazione dei vampiri nel cinema occidentale.

Con Dracula di Todd Browning (1931) e l’interpretazione di Bela Lugosi, molti elementi visivi e narrativi derivati da Nosferatu furono consolidati: i vampiri iniziarono a essere raffigurati come creature notturne, vulnerabili alla luce del sole ma non necessariamente annientate da essa, accentuando la suspense e la drammaticità del racconto.

Un altro aspetto curioso del folklore riguarda la psicologia ossessiva dei vampiri europei. Tradizionalmente, queste creature sono considerate aritmomaniaci, ovvero con una compulsione per il conteggio. Secondo la leggenda, se un vampiro ti insegue di notte, spargere dietro di te chicchi di riso, sale o zucchero può rallentarlo: egli sarà obbligato a contarli uno a uno, concedendoti tempo prezioso per fuggire. Questo dettaglio dimostra quanto il mito dei vampiri sia ricco di simbolismi e regole non intuitive, che spesso hanno poco a che fare con la pura narrativa horror hollywoodiana.

Quindi, quando si parla di vampiri europei e della loro relazione con la luce solare, è importante distinguere tra il folklore tradizionale e le elaborazioni cinematografiche. Nel mito originale, il sole non rappresenta una condanna immediata, ma una limitazione della forza e delle abilità, una vulnerabilità strategica piuttosto che letale. Il vampiro resta una creatura della notte, ma non è un essere che si disintegra all’alba; la sua sconfitta richiede metodi concreti, spesso multipli, e una comprensione delle sue particolari caratteristiche culturali.

I vampiri europei non sono distrutti dal sole, la loro forza diminuisce semplicemente. L’esposizione solare agisce come un elemento di indebolimento, che rende più facili altre forme di neutralizzazione, come paletti, decapitazione o crematione. Le tradizioni folkloristiche aggiungono dettagli unici, come l’ossessione per il conteggio, che conferiscono ulteriore profondità alle strategie per difendersi o affrontare queste creature.

Il mito ha continuato a evolversi, influenzando libri, cinema e cultura pop, ma la radice rimane chiara: il sole limita, non annienta, e la vera minaccia dei vampiri risiede nella notte e nelle regole arcaiche della superstizione europea.


venerdì 4 luglio 2025

Alle Origini del Mito dei Vampiri


Il mito del vampiro, così come lo conosciamo oggi, è il risultato di una stratificazione millenaria di paure, superstizioni e interpretazioni culturali della morte. Le sue radici affondano in epoche e territori molto distanti tra loro, e proprio questa universalità lo rende una delle figure più persistenti dell’immaginario umano.

Le prime testimonianze concrete provengono dall’Europa orientale. In Bulgaria, ad esempio, sono stati rinvenuti scheletri del XIII secolo trafitti con pali di ferro: segni inequivocabili di pratiche volte a impedire ai “non morti” di tornare a tormentare i vivi. In quel contesto storico, la paura dei vampiri era talmente diffusa da spingere intere comunità a ricorrere a rituali brutali pur di sentirsi al sicuro.

Ma la narrazione è molto più antica. In Mesopotamia esisteva la figura demoniaca di Lamashtu, creatura che si nutriva del sangue degli uomini e che, secondo i miti, predava i neonati e le madri incinte. Nel mondo greco si raccontava invece dell’empusa, spirito mutaforma capace di assumere sembianze seducenti per nutrirsi dell’energia vitale di giovani uomini. Queste storie, pur appartenendo a contesti religiosi e culturali diversi, condividono già il nucleo tematico del vampirismo: la predazione del sangue e della vita stessa.

Il salto decisivo avvenne però nel folklore slavo. Le leggende sui morti che uscivano dalle tombe per tormentare i vivi definirono molti tratti caratteristici del vampiro moderno. Nel XVIII secolo, vere e proprie “epidemie di vampirismo” colpirono l’Europa centrale e orientale, tanto da spingere funzionari imperiali austriaci a organizzare indagini ufficiali. I cadaveri sospetti venivano riesumati, impalati e bruciati, mentre medici e studiosi redigevano rapporti accurati. Era un fenomeno trattato con serietà, non come superstizione marginale.

Il mito, già consolidato, trovò la sua consacrazione letteraria con Bram Stoker. Nel 1897 lo scrittore irlandese pubblicò Dracula, romanzo che trasformò le antiche paure contadine in una creatura gotica e moderna, mescolando folklore, ossessioni vittoriane per sesso e morte e paure di degenerazione sociale. Stoker rese il vampiro un simbolo immortale, in grado di attraversare generazioni e culture.

La scienza moderna interpreta oggi molte di queste credenze alla luce di fenomeni naturali e malattie. La decomposizione dei corpi, un tempo sconosciuta, poteva sembrare un segno inquietante di “vita” dopo la morte: gonfiore, sangue che colava dalla bocca o unghie che sembravano crescere erano interpretati come indizi di risveglio. Malattie come la rabbia o la porfiria hanno forse alimentato ulteriormente le leggende, spiegando comportamenti aggressivi, sensibilità alla luce o alterazioni fisiche.

Resta però un mistero culturale affascinante: quasi ogni civiltà, dalla Cina preimperiale con i suoi jiangshi al Perù precolombiano con spiriti divoratori di sangue, ha sviluppato il proprio archetipo del vampiro. È come se l’umanità intera, in epoche e luoghi differenti, avesse avuto bisogno di dare un volto a una paura universale: la possibilità che la morte non fosse la fine, ma una presenza che ritorna a reclamare i vivi.



giovedì 3 luglio 2025

Telepatia e Precognizione: tra definizione e ricerca scientifica


Una persona che afferma di poter leggere la mente viene definita telepate, mentre chi sostiene di poter prevedere il futuro è indicato come precognitivo. Entrambe le capacità rientrano nell’ambito dei fenomeni extrasensoriali o parapsichici, studiati sotto categorie come telepatia (trasmissione diretta di pensieri da una mente all’altra), chiaroveggenza (percezione di eventi o oggetti non accessibili ai sensi ordinari) e precognizione (percezione di eventi futuri).

Le prime ricerche sistematiche su questi fenomeni iniziarono nei primi decenni del Novecento. Una figura centrale fu il dottor Joseph Banks Rhine, insieme a sua moglie Louisa, presso la Duke University. Rhine introdusse le celebri Carte Zener, un mazzo composto da cinque simboli semplici (cerchio, croce, onde, quadrato, stella), usato per testare la telepatia e la chiaroveggenza. L’esperimento prevedeva che un soggetto fungesse da “mittente” e un altro da “ricevente”, cercando di trasmettere o indovinare i simboli delle carte.

I primi risultati sembravano promettenti, suggerendo percentuali superiori al caso. Tuttavia, col tempo emersero gravi problemi metodologici. Le carte, infatti, non erano stampate come quelle da gioco tradizionali: l’inchiostro e la pressione di stampa lasciavano leggere tracce in rilievo che potevano diventare visibili a particolari angolazioni di luce. Questo significava che, in alcuni casi, i partecipanti potevano inconsapevolmente “barare” semplicemente osservando le caratteristiche fisiche delle carte, compromettendo così l’affidabilità dei test. Una volta corretti questi difetti e ristampate le carte in modo uniforme, i risultati tornarono a rientrare nella pura casualità.

Con il proseguire degli studi, altri ricercatori di diverse università e istituti tentarono di replicare le condizioni di Rhine, applicando controlli più rigidi. I dati raccolti nel corso di decenni non riuscirono mai a produrre prove solide o ripetibili dell’esistenza della telepatia o della precognizione. Ogni volta che i protocolli diventavano più rigorosi, i presunti effetti svanivano. La comunità scientifica concluse quindi che questi fenomeni, per quanto affascinanti e radicati nella cultura popolare, non possono essere convalidati sperimentalmente.

Quanto alla possibilità di sviluppare queste capacità in età adulta, le ricerche non hanno mostrato alcuna evidenza che sia possibile acquisire autentici poteri extrasensoriali con l’allenamento. Alcune pratiche — come la meditazione, la visualizzazione o l’uso di tecniche intuitive — possono certamente rafforzare attenzione, concentrazione e percezione di dettagli sottili, ma ciò rientra nell’ambito delle capacità cognitive e psicologiche, non in quello della telepatia o della precognizione vera e propria.



mercoledì 2 luglio 2025

La Nascita della Percezione Extrasensoriale

Secondo le teorie legate alla parapsicologia e alle tradizioni esoteriche, la percezione extrasensoriale non è qualcosa che si acquisisce in età adulta attraverso semplici esercizi o tecniche, ma un talento innato. Chiunque possieda poteri extrasensoriali o capacità psichiche deve nascere con esse. Non si tratta dunque di una competenza che chiunque possa apprendere come una disciplina accademica: al contrario, è paragonabile a un dono raro, che emerge spontaneamente in alcuni individui fin dalla prima infanzia.

Le prime manifestazioni di queste capacità compaiono generalmente tra i quattro e i cinque anni, un’età considerata cruciale per lo sviluppo del potenziale psichico. In questo periodo il bambino inizia a mostrare sensibilità particolari, percezioni insolite o esperienze che vanno oltre i sensi ordinari. Se durante questa fase non riceve una guida esperta, rischia di perdere gradualmente la connessione con il proprio talento. Senza un percorso strutturato, il potenziale tende infatti ad atrofizzarsi: raggiunti gli otto o nove anni, il bambino che non ha coltivato queste predisposizioni tende a diventare indistinguibile da qualsiasi altro coetaneo, e la possibilità di sviluppare la facoltà extrasensoriale svanisce.

Esiste tuttavia un’eccezione significativa. Tra i dodici e i quindici anni, in concomitanza con i profondi cambiamenti della pubertà, le capacità psicocinetiche possono riemergere spontaneamente. Questo avviene soprattutto quando si verificano fenomeni di tipo poltergeist, interpretati come una rinascita del potenziale psichico latente. In questi casi, il talento non scompare del tutto ma viene riattivato dalle turbolenze energetiche associate all’adolescenza.

Se un adolescente dotato di queste manifestazioni viene seguito da un sensitivo esperto e competente, la fase di rinascita può trasformarsi in un nuovo inizio. Con un decennio di formazione, disciplina e supervisione adeguata, il giovane potrebbe sviluppare appieno le proprie capacità fino a diventare una forza psichica matura e consapevole. Il ruolo del Maestro in questo processo è essenziale: la guida esperta consente di incanalare le energie, evitare squilibri e dare forma a un potenziale che, senza direzione, rischierebbe di dissiparsi in esperienze confuse o incontrollate.

Il fattore tempo resta decisivo. L’infanzia segna il primo terreno fertile, ma la pubertà può offrire un’opportunità di recupero. In entrambi i casi, la finestra di possibilità è limitata: la percezione extrasensoriale, se non coltivata con attenzione e costanza, può spegnersi, lasciando spazio a una vita comune e priva di quelle capacità straordinarie. Ogni fase ha dunque la sua importanza e il successo nello sviluppo dipende dall’incontro tra talento innato, tempismo favorevole e guida esperta.



martedì 1 luglio 2025

Il Controllo del Potere Magico

Chiunque intraprenda lo studio della magia deve possedere, innanzitutto, una forza di volontà incrollabile. La volontà non rappresenta soltanto il fondamento dell’apprendimento, ma costituisce lo strumento primario attraverso cui canalizzare l’energia e indirizzarla con precisione. Senza disciplina mentale, ogni tentativo di applicare le arti magiche si disperderebbe in un esercizio caotico, privo di efficacia e di reale valore.

Il controllo nasce quindi da tre elementi fondamentali: la volontà, lo scopo e la concentrazione. La volontà funge da radice che sostiene l’intero processo, lo scopo fornisce la direzione verso cui tendere, mentre la concentrazione diventa il filtro che permette di focalizzare e trasformare la potenzialità in azione. Non si tratta di una predisposizione innata, ma di un talento appreso e affinato attraverso l’educazione, lo studio e la pratica costante.

L’apprendimento della magia richiede la guida di un Maestro o di una Maestra, figure centrali nella trasmissione del sapere. La conoscenza non è mai affidata al caso o all’improvvisazione, bensì a una metodologia strutturata, che segue un modello chiaro di ciò che deve essere appreso. La didattica procede per gradi, con un processo di sperimentazione graduale, ripetuta e sempre supervisionata. È solo attraverso un lungo percorso di esercizi pratici e di verifica continua che l’allievo acquisisce padronanza, evitando deviazioni potenzialmente pericolose o errori irreversibili.

Il cammino formativo si sviluppa nell’arco di decenni. Ogni fase richiede non soltanto pratica costante, ma anche un consolidamento progressivo delle abilità. Il neofita è chiamato a ripetere gesti e formule fino a interiorizzarne l’essenza, affinché ogni atto non sia il frutto di una semplice imitazione, ma l’espressione di una comprensione autentica. La supervisione del Maestro garantisce che la sperimentazione sia sicura e che le energie manipolate vengano gestite entro limiti controllabili, evitando squilibri o effetti imprevisti.

L’ordine gerarchico delle competenze pone al primo posto il dominio di sé. Il controllo assoluto sulla propria mente e sul proprio corpo rappresenta la base imprescindibile: solo chi è padrone delle proprie emozioni, dei propri impulsi e delle proprie paure può affrontare con lucidità le forze che intende evocare o dirigere. In secondo piano, ma non meno importante, si colloca la capacità di applicare la volontà alle energie esterne, piegandole e guidandole secondo l’intento scelto.

Gli effetti generati non sono mai indipendenti dalla volontà di chi li produce. Ogni manifestazione magica si fonda sull’“essere” stesso del praticante, sulla sua coerenza interiore e sulla sua capacità di mantenere integra la connessione con la tradizione da cui ha appreso. La magia antica non è un semplice repertorio di formule: è un corpus di insegnamenti tramandati individualmente, personalizzati in base al discepolo, adattati al suo carattere e alla sua attitudine, e insegnati nel rispetto di un codice preciso che unisce teoria, pratica e disciplina spirituale.



lunedì 30 giugno 2025

Il Futuro tra Profezia e Probabilità: cosa possono (e non possono) fare i sensitivi


In termini scientifici e verificabili, non esistono prove che i sensitivi — o chiunque altro — possano predire il futuro con precisione. Le ricerche condotte finora mostrano che molte “previsioni” derivano da tecniche psicologiche come la lettura a freddo, l’uso di frasi generiche o l’interpretazione retrospettiva degli eventi, piuttosto che da reali capacità extrasensoriali.

C’è però un aspetto che rende la questione più sfumata: alcuni eventi futuri non sono davvero “misteriosi”, ma possono essere anticipati perché nascono da schemi o dinamiche collettive. Quando grandi gruppi sociali, politici o industriali prendono una certa direzione, gli esiti diventano quasi inevitabili, non per magia ma per logica. È il motivo per cui analisti, scrittori o leader a volte sembrano “profeti”: in realtà hanno colto la traiettoria di una tendenza.

Gli esempi storici lo dimostrano con chiarezza. Il Titanic, celebrato come inaffondabile, salpò con troppe poche scialuppe: il disastro ha imposto regole marittime nuove e più severe. L’incendio in una fabbrica tessile che costò la vita a centinaia di ragazze portò a normative più rigorose su sicurezza e condizioni di lavoro. Non erano eventi “predestinati” nel senso mistico del termine, ma catalizzatori inevitabili di cambiamento sociale.

Ecco perché parlare di “sensitivi affidabili” è fuorviante. Nessuna figura ha mai dimostrato capacità concrete di vedere il futuro. Quello che può esistere, semmai, è:

La vera previsione del futuro non è mai certezza, ma comprensione dei nodi inevitabili e delle cause profonde che generano effetti. Non occorrono poteri sovrannaturali, ma capacità di leggere il presente con lucidità.



domenica 29 giugno 2025

Religione e razionalità: risorsa evolutiva o ostacolo per la mente umana?


La relazione tra religione e sviluppo della mente razionale e scientifica è un tema complesso, che richiede un’analisi storica, antropologica e psicologica. La domanda iniziale – se la religione rappresenti un ostacolo allo sviluppo della ragione umana – invita a riflettere non solo sulle manifestazioni contemporanee del credere, ma anche sul ruolo che la religione ha avuto nelle prime fasi della civiltà. È facile, al giorno d’oggi, considerare la religione come un vincolo o un dogma che limita la curiosità e l’indagine scientifica. Tuttavia, per comprendere appieno il fenomeno, è necessario fare un passo indietro e osservare il contesto evolutivo in cui la religione ha preso forma.

Le prime civiltà umane, disseminate in regioni diverse del mondo, svilupparono in modo indipendente sistemi religiosi. Questa convergenza culturale suggerisce che la religione offrisse vantaggi evolutivi concreti. Nella vita di gruppi primordiali, la coesione sociale era determinante per la sopravvivenza. I gruppi che riuscivano a organizzarsi meglio, a cooperare per la caccia, la raccolta, la difesa del territorio e la gestione delle risorse, avevano maggiori probabilità di prosperare rispetto a quelli frammentati. La religione, con le sue norme, riti e miti, contribuiva a creare questo senso di unità. La minaccia di punizioni divine o di conseguenze metafisiche rafforzava l’adesione al gruppo e alla disciplina interna, garantendo che tutti lavorassero per obiettivi comuni.

Da questo punto di vista, la religione non era un ostacolo, ma una strategia di sopravvivenza. La capacità di coordinare grandi gruppi di individui, di sviluppare norme condivise e di trasmettere valori comuni ha costituito una base solida su cui le società umane potevano evolvere verso strutture più complesse. La religione forniva un framework che rendeva possibile lo sviluppo di culture organizzate, di economie stabili e, in ultima analisi, di civiltà capaci di accumulare conoscenze e innovazioni.

Tuttavia, se guardiamo alla storia recente, emerge un quadro più ambivalente. La religione, che un tempo facilitava la cooperazione, oggi può diventare una forma di “stampella” mentale, limitando il pensiero critico e l’indagine scientifica autonoma. L’adesione al dogma, che nei millenni passati era vantaggiosa per la coesione di gruppo, può trasformarsi in rigidità cognitiva. Gli esseri umani sviluppano così la capacità di compartimentare le idee: ragionano logicamente su molte questioni, ma ricadono in un pensiero collettivo quando si tratta di fede.

Questa compartimentazione ha conseguenze concrete. Le società umane tendono a legittimare comportamenti e credenze che provengono dal gruppo, anche quando le evidenze suggeriscono il contrario. È ciò che gli psicologi chiamano “dissonanza cognitiva”: la tensione tra ciò che sappiamo essere vero e ciò che la nostra appartenenza culturale ci impone di accettare. Storicamente, questa dinamica ha alimentato episodi tragici come le crociate, i processi alle streghe e, in epoca moderna, l’ascesa di leader autoritari che si sono presentati come interpreti di valori religiosi. La coesione derivante dalla religione ha potuto giustificare azioni altrimenti inconcepibili, mostrando il lato oscuro del pensiero di gruppo.

È importante sottolineare che la religione, pur essendo legata a rituali, miti e credenze metafisiche, non si limita a questo. Ha avuto anche un ruolo fondamentale nello sviluppo culturale, artistico e morale dell’umanità. Molte opere di letteratura, filosofia, architettura e musica sono nate da contesti religiosi, e spesso hanno stimolato riflessione, introspezione e immaginazione. Tuttavia, mentre la religione ha contribuito a plasmare il pensiero sociale e creativo, la sua funzione normativa può entrare in conflitto con il pensiero scientifico quando le spiegazioni dogmatiche sostituiscono l’indagine empirica.

Consideriamo il fenomeno odierno di individui altamente istruiti che continuano ad aderire a interpretazioni letterali di testi religiosi. Questo esempio illustra quanto sia radicata la compartimentazione cognitiva. Nonostante la capacità di ragionare scientificamente in molti ambiti, la mente umana può sospendere il giudizio critico in contesti di fede. Tale sospensione può ostacolare l’apprendimento scientifico, limitare l’apertura mentale e favorire la diffusione di credenze non verificabili.

La questione centrale, quindi, non è se la religione sia intrinsecamente “cattiva” o “inutile”, ma come essa interagisca con la mente razionale. Nei contesti primitivi, la religione era uno strumento adattivo, capace di favorire la cooperazione e la sopravvivenza. Oggi, in società complesse e altamente istruite, le stesse dinamiche possono rallentare il progresso scientifico, quando l’adesione al dogma prevale sull’indagine critica. Il conflitto nasce quando norme e credenze antiche si confrontano con dati empirici e metodi scientifici consolidati.

Va anche considerato l’aspetto culturale. La religione ha modellato strutture sociali, educazione e morale, creando valori condivisi e forme di solidarietà. Togliere del tutto la religione significherebbe ignorare la funzione storica che ha permesso lo sviluppo delle civiltà. Tuttavia, riconoscere i suoi limiti è essenziale per evitare che diventi un ostacolo: il passo successivo consiste nel promuovere l’educazione scientifica, la curiosità critica e l’autonomia cognitiva, pur rispettando il diritto individuale alla fede.

Un approccio equilibrato richiede quindi di distinguere tra il ruolo evolutivo della religione e le sue implicazioni moderne. Nei primi millenni di civiltà, la religione forniva coesione, regole condivise e un sistema di valori che favoriva la sopravvivenza collettiva. Nel contesto contemporaneo, dove la cooperazione sociale può essere garantita da leggi, istituzioni e norme civili, la funzione adattiva della religione si riduce. Ciò che rimane è la potenziale influenza limitante sulla capacità di ragionamento critico.

Inoltre, la religione influenza la mente individuale e collettiva attraverso la socializzazione. I bambini crescono interiorizzando norme, credenze e miti che possono condizionare la percezione del mondo. Anche individui razionali e istruiti possono mantenere credenze religiose senza esaminarle criticamente, semplicemente perché esse sono parte del tessuto culturale in cui sono immersi. La sfida consiste nel coltivare una mente capace di distinguere tra ciò che è verificabile e ciò che è assunto per fede, senza demonizzare la religione in quanto tale.

Storicamente, alcune religioni hanno promosso l’indagine scientifica. La filosofia islamica medievale, il pensiero ebraico razionalista, l’umanesimo cristiano hanno stimolato riflessione critica, studio delle leggi naturali e sviluppo della matematica e della fisica. Tuttavia, quando dogma e autorità religiosa si sostituiscono all’esperienza e all’osservazione, il risultato è stagnazione culturale e ostacolo alla crescita della mente razionale. La contraddizione non è quindi nella religione in sé, ma nell’equilibrio tra fede e ragione.

La religione ha avuto un ruolo fondamentale nello sviluppo delle prime società umane, fornendo coesione e strutture che hanno favorito la sopravvivenza. Nel contesto moderno, essa può diventare un ostacolo quando promuove rigidità cognitiva e compartimentazione del pensiero, limitando la curiosità scientifica e la capacità di analisi critica. La sfida della nostra epoca consiste nel riconoscere il valore storico e culturale della religione, preservandone gli aspetti positivi, senza permettere che diventi un freno allo sviluppo della mente razionale. Coltivare educazione scientifica, pensiero critico e capacità di interrogarsi su dogmi e norme è essenziale per superare questo ostacolo e permettere alla ragione umana di crescere senza vincoli imposti dal passato.



 
Wordpress Theme by wpthemescreator .
Converted To Blogger Template by Anshul .