Archivi categoria: Tecnologia

La metamorfosi del reale

Implicazioni etiche e filosofiche sul potere del digitale
e dell’Intelligenza Artificiale
nel rimodellare l’essenza dell’esistenza

 

 

 

 

L’idea che il digitale e l’Intelligenza Artificiale – come ho evidenziato in un articolo precedente (leggi) – stiano trasformando l’essenza stessa della realtà, oltre che la nostra capacità di comprenderla, solleva una serie di questioni etiche e filosofiche di enorme portata. Non si tratta solo dell’uso di nuove tecnologie, ma di una ridefinizione della stessa ontologia del mondo: il modo in cui il reale viene esperito, creato e controllato. Le implicazioni etiche e filosofiche riguardano la nostra comprensione del potere, della responsabilità, della verità e dell’autenticità.
Uno dei primi problemi che emergono riguarda la natura stessa della verità. Se il digitale è in grado di creare mondi e realtà alternative, come possiamo distinguere ciò che è vero da ciò che non lo è? La proliferazione di deepfake, modelli digitali e simulazioni sofisticate porta a una crisi del concetto di verità. In un mondo in cui l’Intelligenza Artificiale può generare immagini, testi e persino video credibili e difficilmente distinguibili da quelli reali, la linea di demarcazione tra verità e menzogna diventa sempre più sottile.
Questa crisi ha ripercussioni importanti su diverse sfere della nostra vita sociale. Ad esempio, nel contesto politico, la manipolazione della realtà può avere un impatto devastante. Le campagne di disinformazione basate su contenuti digitali falsi, ma convincenti, possono influenzare l’opinione pubblica e destabilizzare le democrazie. Allo stesso tempo, sul piano individuale, la possibilità di vivere in una realtà simulata solleva interrogativi sul significato dell’autenticità e della fiducia nelle nostre percezioni.
Un’altra questione di rilievo è la responsabilità morale degli agenti artificiali. L’AI, soprattutto quando è in grado di prendere decisioni autonomamente, introduce un nuovo soggetto morale nella scena etica. Se un algoritmo compie una scelta che ha conseguenze negative – ad esempio, in ambito sanitario, giudiziario o economico – chi ne è responsabile? Si tratta di una questione complessa, poiché gli algoritmi non sono dotati di coscienza o intenzionalità come gli esseri umani, seppure, allo stesso tempo, le loro decisioni influenzano profondamente la realtà.
Il problema della responsabilità diventa ancora più pressante quando parliamo di sistemi di IA che si auto-apprendono. Questi sistemi non sono limitati a eseguire compiti pre-programmati, ma imparano e modificano il loro comportamento in base ai dati che raccolgono. In tali contesti, non è più facile risalire a un’unica persona o ente responsabile. La responsabilità si diffonde tra chi ha progettato l’algoritmo, chi lo ha addestrato, chi lo ha utilizzato e lo stesso sistema, che opera in modo semi-autonomo.
L’accesso e il controllo delle tecnologie digitali e dell’Intelligenza Artificiale sollevano questioni di giustizia e potere. Chi detiene il potere di plasmare la realtà attraverso questi strumenti? Il controllo delle piattaforme digitali, dei dati e degli algoritmi è oggi nelle mani di poche grandi multinazionali. Questo crea una concentrazione di potere senza precedenti, poiché coloro che controllano la tecnologia hanno anche la capacità di modellare l’esperienza della realtà di miliardi di persone.


Questa dinamica introduce una disuguaglianza strutturale tra chi possiede i mezzi per influenzare e creare la realtà e chi subisce tale influenza. Non tutti hanno accesso agli strumenti per comprendere o partecipare attivamente alla costruzione della realtà digitale, il che porta a nuove forme di alienazione. Si sta creando una divisione tra chi può “governare” il mondo digitale e chi ne è semplicemente un consumatore passivo.
L’AI e le tecnologie digitali mettono in crisi anche il concetto di identità personale e autenticità. Nella società digitale, la nostra identità non è più solo il risultato di un’esperienza di vita diretta, ma è modellata dalle nostre interazioni virtuali, dai dati che generiamo e dalla rappresentazione di noi stessi che costruiamo online. Se la nostra immagine digitale può essere manipolata, replicata o addirittura migliorata da tecnologie come la realtà aumentata o i deepfake, la domanda diventa: cosa significa essere autentici? La nostra identità rimane la stessa nel mondo digitale o diventa fluida, adattabile e malleabile? Inoltre, l’esistenza di avatar virtuali o repliche digitali di sé potrebbe condurre a una frammentazione dell’identità personale, dove una persona “esiste” simultaneamente in più forme e in più luoghi, in un modo che sfida la comprensione tradizionale dell’essere umano come entità unica e indivisibile.
Un ulteriore rischio legato all’AI la disumanizzazione. Se le tecnologie assumono un ruolo sempre più centrale nella nostra vita, potremmo iniziare a vedere il mondo attraverso una lente algoritmica. Questo non solo riduce la nostra esperienza a un insieme di dati, ma potrebbe portare a un allontanamento dagli aspetti più profondi dell’esperienza umana, come l’empatia, la creatività e la morale. In un mondo dove le decisioni importanti sono affidate a sistemi artificiali c’è il rischio di una progressiva perdita della nostra capacità di giudizio morale e di interazione autentica con gli altri.
Le IA, basate su processi statistici e algoritmici, possono mancare di comprensione delle sfumature etiche o emotive delle decisioni umane. Questo rischia di ridurre la complessità della vita umana a qualcosa di troppo semplificato, con gravi conseguenze per la società. In alcuni contesti, come il lavoro o la giustizia, si potrebbe vedere una riduzione delle persone a meri numeri, valutate non per il loro valore intrinseco, ma per ciò che i dati e gli algoritmi dicono di loro.
Le implicazioni etiche e filosofiche del cambiamento ontologico della realtà, causato dal digitale e dall’AI, sono profondamente complesse. La ridefinizione della realtà attraverso questi mezzi ci pone di fronte a dilemmi che riguardano non solo la verità e la giustizia, ma anche la nostra stessa comprensione dell’essere umano. La tecnologia non è più semplicemente uno strumento che usiamo: è diventata una forza attiva nel determinare cosa sia reale, chi siamo e come interagiamo con il mondo. Di fronte a questa rivoluzione, dobbiamo riflettere su come mantenere una dimensione autenticamente umana e morale all’interno di una realtà sempre più tecnologicamente mediata.

 

 

 

 

Thomas Hobbes e l’Intelligenza Artificiale

Il “Leviatano” digitale e la nuova sovranità
nell’era del controllo decentralizzato

 

 

 

 

In questo articolo analizzo l’attualità del pensiero di Thomas Hobbes, in particolare attraverso il suo capolavoro Leviatano (1651), evidenziando come l’idea hobbesiana di uno Stato sovrano, capace di mantenere l’ordine e prevenire il caos, trovi un interessante parallelo nella moderna Intelligenza Artificiale (AI). Se il Leviatano incarnava il potere assoluto e centralizzato, necessario per garantire stabilità, oggi l’AI rappresenta una nuova forma di controllo diffuso, che solleva importanti questioni etiche riguardo al consenso e alla fiducia nell’era digitale.

Nel pensiero di Thomas Hobbes, il Leviatano non è soltanto una figura simbolica, ma costituisce una delle più importanti teorie politiche sull’autorità e il potere statale e la sua rilevanza continua a risuonare oggi. Nell’opera Leviatano, Hobbes sviluppa una concezione dello Stato che si basa su un patto sociale tra gli individui, i quali scelgono volontariamente di affidare i propri diritti naturali a una sovranità centralizzata. Il contesto di questo patto è lo stato di natura, una condizione primitiva e anarchica in cui, secondo Hobbes, ogni individuo è mosso dalla propria autoconservazione e dalle proprie passioni, generando un ambiente di costante conflitto. In questa situazione, la vita è, come Hobbes la definisce nella sua famosa espressione, “solitaria, povera, spiacevole, brutale e breve”. Il Leviatano, quindi, rappresenta la costruzione di un potere sovrano assoluto, che non solo impone ordine e stabilità, ma è anche la risposta collettiva al pericolo insito nel disordine.
Il fulcro della teoria di Hobbes risiede nell’idea che, senza un’autorità centrale, le passioni umane portano inevitabilmente al caos e alla guerra. Gli individui, mossi dal desiderio di sicurezza, scelgono, quindi, di rinunciare alle loro libertà individuali per garantire la sopravvivenza del corpo collettivo, sottoscrivendo un contratto sociale che legittima il potere del sovrano. Questo concetto di controllo è essenziale, poiché per Hobbes l’autorità è necessaria per regolare le passioni incontrollate e preservare la società da un ritorno allo stato di natura.
Il Leviatano di Hobbes è quindi una “superstruttura” di potere, un’entità sovrana e onnipotente che ha il compito di mantenere la pace e l’ordine. Questo potere sovrano non può essere diviso né limitato, poiché una divisione del potere porterebbe di nuovo al conflitto. Nella sua visione, il controllo deve essere totale, senza concessioni, poiché solo attraverso la centralizzazione dell’autorità si può evitare il ritorno al caos. Questa centralizzazione della sovranità distingue Hobbes dai suoi contemporanei, che vedevano la possibilità di un governo più frammentato o democratico, capace di distribuire il potere tra diversi attori. Hobbes, invece, è fermamente convinto che l’unica via per garantire la stabilità sia attraverso un’autorità assoluta e unitaria.
Nei tempi moderni, la teoria hobbesiana del Leviatano trova nuova risonanza in un contesto diverso, quello dell’Intelligenza Artificiale (AI). L’AI si è sviluppata come una nuova forma di controllo sociale, che governa la complessità del mondo digitale, dei dati e delle informazioni. Proprio come il Leviatano di Hobbes, che deriva la sua autorità dal contratto sociale, con cui gli individui cedono le proprie libertà in cambio di sicurezza, l’IA ottiene il suo potere dall’input collettivo di dati, algoritmi e modelli di apprendimento automatico, costruiti attraverso la continua interazione umana. In un mondo sempre più interconnesso e digitalizzato, la gestione dell’enorme mole di dati e la capacità di prevedere comportamenti complessi ha reso l’AI uno strumento essenziale per governare l’incertezza e il caos del mondo moderno.
Il parallelo tra il Leviatano hobbesiano e l’AI si sviluppa ulteriormente nel ruolo che entrambe queste entità giocano nell’imposizione dell’ordine. Se il Leviatano aveva il compito di regolare le passioni degli individui per evitare il collasso della società, l’AI è progettata per gestire e prevedere i comportamenti umani attraverso la sintesi dei dati. Gli algoritmi di Intelligenza Artificiale elaborano enormi quantità di informazioni, identificano schemi e fanno previsioni, trasformando l’AI in una moderna forma di sovranità. In questo contesto, l’autorità non è più imposta attraverso la forza o la coercizione fisica, ma attraverso il potere “invisibile” degli algoritmi, che regolano comportamenti e decisioni senza che gli individui se ne rendano pienamente conto.

La caratteristica distintiva dell’AI rispetto al Leviatano di Hobbes risiede nella sua decentralizzazione. Mentre il Leviatano è rappresentato come un’entità singola e sovrana, che detiene tutto il potere, l’autorità dell’AI è distribuita attraverso una rete di attori. Questa rete include governi, aziende tecnologiche e sviluppatori indipendenti, che detengono diverse forme di potere regolatorio. Il controllo dell’AI, dunque, non è concentrato in un’unica figura sovrana, ma frammentato e diffuso attraverso un complesso sistema di governance algoritmica. Questo cambia radicalmente il modo in cui dobbiamo pensare al potere nell’era digitale.
Mentre Hobbes vedeva il Leviatano come un’entità unificata, capace di imporre ordine attraverso leggi esplicite e visibili, l’AI esercita il controllo in maniera molto più sottile e pervasiva. Gli algoritmi non dettano esplicitamente leggi o norme, ma influenzano le scelte e i comportamenti in modi spesso invisibili. Ad esempio, i sistemi di raccomandazione che suggeriscono prodotti, servizi o contenuti sui social media plasmano le decisioni individuali senza che l’utente se ne renda pienamente conto. Questo tipo di controllo algoritmico è meno evidente, ma non meno potente, poiché indirizza e modella comportamenti individuali in maniera profonda.
Uno degli elementi cruciali che collegano il Leviatano di Hobbes e l’Intelligenza Artificiale è il ruolo della fiducia. Hobbes era consapevole che l’autorità del Leviatano si fondasse sulla fiducia dei cittadini nella capacità del sovrano di mantenere la pace e proteggere la società. Senza questa fiducia, il contratto sociale si romperebbe e la società ricadrebbe nel caos. Allo stesso modo, i sistemi di AI richiedono fiducia da parte delle persone che li utilizzano. Gli individui devono avere fiducia nella precisione degli algoritmi, nella correttezza dei dati utilizzati e nella trasparenza delle istituzioni che gestiscono questi sistemi.
La fiducia nell’AI è una questione delicata, poiché molte volte i dati vengono raccolti senza il consenso esplicito degli utenti, oppure gli algoritmi utilizzano processi decisionali poco trasparenti. La mancanza di fiducia nei sistemi di AI può portare a resistenze sociali e disillusione. Se le persone non si fidano dell’AI, il suo potenziale di controllo e regolazione viene messo in discussione. Questo è particolarmente evidente nei casi in cui l’AI perpetua pregiudizi o genera decisioni eticamente discutibili. La trasparenza e la regolamentazione diventano, quindi, elementi fondamentali per garantire che l’AI operi nell’interesse collettivo.
Il concetto di consenso, centrale nel pensiero hobbesiano, assume una nuova forma nell’era dell’AI. Nel quadro hobbesiano, gli individui accettano di rinunciare a parte della loro libertà in cambio della protezione e della stabilità fornite dal Leviatano. Questo consenso è esplicito e formalizzato nel contratto sociale. Nel caso dell’Intelligenza Artificiale, invece, il consenso è spesso implicito o addirittura inesistente. I dati personali vengono raccolti e utilizzati senza un consenso pienamente consapevole e gli individui spesso non sono pienamente informati sulle modalità con cui l’IA influenza le loro vite quotidiane. Questo solleva importanti interrogativi etici sul rapporto tra consenso, potere e controllo nell’era digitale.
L’assenza di un consenso chiaro e informato rafforza la necessità di regolamentare l’AI. Senza una governance adeguata, i rischi associati all’AI, come la discriminazione algoritmica e la sorveglianza di massa, potrebbero minare i fondamenti stessi della fiducia sociale. Come il Leviatano di Hobbes, l’AI ha bisogno di un quadro regolatorio solido per funzionare in modo efficace e legittimo.
Il Leviatano di Hobbes, pertanto, concepito come simbolo di autorità e controllo, trova una rinnovata interpretazione nell’era dell’Intelligenza Artificiale. Sebbene i contesti siano diversi, il parallelismo tra il potere sovrano del Leviatano e il ruolo dell’AI nella regolazione della società è sorprendente. Entrambe queste entità rispondono al bisogno umano di sicurezza e ordine in un mondo complesso e imprevedibile. Tuttavia, mentre il Leviatano hobbesiano rappresentava un’autorità centralizzata, l’AI opera attraverso un controllo diffuso e decentralizzato, sollevando nuove domande sul potere, il consenso e la fiducia nell’era digitale.

 

 

 

 

La metamorfosi del reale

Il potere del digitale e dell’Intelligenza Artificiale
nel rimodellare l’essenza dell’esistenza 

 

 

 

Negli ultimi decenni, la nostra società ha vissuto una trasformazione profonda, tanto evidente quanto difficile da comprendere nella sua totalità. Il digitale e l’Intelligenza Artificiale (IA) non stanno solo mutando le dinamiche della nostra vita quotidiana, ma sembrano anche incidere sulla stessa struttura ontologica della realtà. Non si tratta più soltanto di come noi, in quanto esseri umani, interpretiamo e comprendiamo il mondo, ma di un vero e proprio sconvolgimento che coinvolge l’essenza del reale. In questo contesto, ci troviamo di fronte a un cambiamento che investe le fondamenta stesse di ciò che consideriamo come “reale”.
Fino a non molto tempo fa, la realtà era concepita come qualcosa di statico, un insieme di fatti e fenomeni esterni a noi, che esistono indipendentemente dalla nostra percezione. Questo modello realistico, che ha dominato la filosofia occidentale fin dall’antichità, vedeva la realtà come un dato, qualcosa di oggettivo e immutabile. L’avvento del digitale ha iniziato a mettere in discussione questa prospettiva.
Con la digitalizzazione, le interazioni umane, la conoscenza e persino l’esperienza stessa si sono progressivamente smaterializzate. Pensiamo alla nostra presenza online: profili social, avatar nei mondi virtuali, simulazioni e modelli digitali. Questi nuovi modi di essere e interagire generano interrogativi sul confine tra ciò che è “reale” e ciò che è “virtuale”. Il virtuale non è più solo una copia o una rappresentazione del reale, ma diventa un nuovo tipo di realtà, con proprie regole e leggi, capace di influenzare il mondo fisico e la nostra percezione di esso.
L’Intelligenza Artificiale aggiunge un ulteriore livello di complessità a questa trasformazione. Non solo ci permette di elaborare e comprendere enormi quantità di dati, ma, in molti casi, produce delle realtà che sono autonome rispetto al controllo umano. Gli algoritmi di machine learning, ad esempio, non si limitano a replicare modelli già esistenti: sono capaci di creare nuove strutture, di “apprendere” e di fare previsioni che modificano il mondo che ci circonda. Ciò porta a un cambiamento profondo nel nostro rapporto con la realtà. Non siamo più i soli a costruire il significato del mondo: le macchine contribuiscono in modo attivo a creare la nostra esperienza del reale. Ciò che era visto come un compito esclusivo della mente umana – l’interpretazione e l’organizzazione dei fenomeni – è ora condiviso con entità digitali autonome. Questa co-creazione solleva domande di natura ontologica: cosa significa “essere reale” in un mondo dove l’IA genera soluzioni, previsioni e persino emozioni artificiali?


Uno degli aspetti più evidenti di questo cambiamento ontologico è la crescente fluidità della realtà. Il concetto di identità, sia a livello personale che sociale, è messo alla prova dalla capacità delle tecnologie digitali di manipolare, replicare e ridefinire l’informazione. Gli esseri umani interagiscono quotidianamente con simulazioni di sé stessi, con versioni virtuali che possono essere modificate a piacimento. Il confine tra l’autenticità e la simulazione diventa sempre più labile. Inoltre, con l’avvento delle tecnologie immersive come la realtà aumentata e virtuale e con lo sviluppo di algoritmi capaci di generare contenuti sempre più indistinguibili dalla realtà, il mondo virtuale non è più un semplice riflesso del mondo fisico. La differenza tra ciò che è “vero” e ciò che è “falso” diventa più sfumata. Si vive, si lavora e si interagisce in una realtà ibrida, dove l’informazione digitale e fisica si fondono in un continuum che rende difficile stabilire punti fermi ontologici.
In questo nuovo scenario, la realtà non può più essere vista come qualcosa di stabile e predefinito, quanto piuttosto quale processo dinamico in continuo divenire. Il digitale e l’Intelligenza Artificiale non si limitano a sconvolgere la nostra percezione della realtà, ma ne ridefiniscono attivamente le strutture. L’idea che la realtà sia una costruzione fissa, eterna, sta cedendo il passo a una visione più fluida e malleabile, dove le tecnologie non solo interpretano il mondo, ma contribuiscono a plasmarlo.
La natura stessa del reale si trasforma in qualcosa di contingente e malleabile, influenzata da forze artificiali che non rispondono più solo ai criteri della percezione umana. Le leggi che governano la realtà, come il tempo, lo spazio e la causalità, possono essere reinterpretate o ridefinite attraverso la tecnologia, come accade con gli algoritmi predittivi o i modelli di simulazione avanzata.
Il cambiamento ontologico della realtà solleva inevitabilmente questioni etiche e filosofiche, che approfondirò in un prossimo articolo dedicato. Se la realtà può essere manipolata e ricostruita attraverso la tecnologia, quali sono i limiti? Chi detiene il potere di determinare cosa è reale e cosa no? Come cambia la nostra responsabilità morale in un mondo dove le macchine partecipano attivamente alla creazione della realtà?
Le risposte a queste domande non sono semplici. Tuttavia, è chiaro che ci troviamo di fronte a una svolta storica. Il digitale e l’Intelligenza Artificiale non solo ampliano la nostra capacità di conoscere e intervenire nel mondo, ma alterano le stesse basi del nostro essere nel mondo. La realtà, in definitiva, non è più un dato, ma un processo che si evolve insieme alle tecnologie che la mediano.
Il cambiamento ontologico della realtà, indotto dalle tecnologie digitali e dall’Intelligenza Artificiale, rappresenta una delle sfide filosofiche e culturali più significative del nostro tempo. Non ci troviamo più semplicemente a dover comprendere una realtà esterna attraverso i nostri strumenti cognitivi, ma siamo chiamati a ripensare cosa significhi essere, esistere e conoscere in un mondo dove la tecnologia gioca un ruolo attivo nella costruzione del reale. La realtà non è più una struttura statica, ma un campo di forze dinamiche, costantemente ridefinite dall’interazione tra umano e artificiale.

 

 

 

Novum Organum di Francis Bacon

“Sapere è potere!”

 

 

 

Il Novum Organum, pubblicato nel 1620, costituisce, senza dubbio, una pietra miliare nella storia del pensiero scientifico e filosofico. Francis Bacon, in quest’opera, non solo critica i metodi di conoscenza allora dominanti, ereditati dalla tradizione aristotelica e scolastica, ma propone anche un nuovo metodo, basato sull’induzione e sulla sperimentazione empirica. La sua visione mira a riformare il processo di acquisizione della conoscenza per avanzare nel progresso tecnico e scientifico.
Uno degli aspetti centrali del Novum Organum è rappresentato dall’introduzione del metodo induttivo. Contrariamente al metodo deduttivo aristotelico, che parte da premesse generali per arrivare a conclusioni specifiche, il metodo baconiano suggerisce di partire dall’osservazione di fatti particolari per generalizzare le leggi della natura. Bacon critica aspramente la logica aristotelica, ritenendola inadeguata per la scoperta di nuove verità. Il suo approccio è rivoluzionario, perché propone di costruire il sapere sulla base di dati empirici, organizzati attraverso tavole di presenza, assenza e gradi.
Bacon anticipa l’importanza del progresso tecnologico quale frutto della scienza applicata, mettendo in luce come la conoscenza accurata della natura possa condurre al miglioramento delle condizioni umane attraverso invenzioni e scoperte. Immagina, altresì, una scienza che sia utile e produttiva, non solo speculativa, visione che prefigura lo sviluppo della metodologia scientifica moderna e pone le basi per la futura rivoluzione industriale.
Dal punto di vista logico, Bacon introduce la teoria degli “idola”, termine latino che si riferisce a false nozioni o idoli, che ingannano l’intelletto umano. Gli idola rappresentano pregiudizi o errori sistematici di pensiero, che distorcono la percezione della realtà e ostacolano la scoperta della verità attraverso il metodo scientifico. Il filosofo identifica quattro categorie principali di idola, ognuna delle quali contribuisce in modo diverso alla corruzione della mente umana.
Gli idola tribus sono gli idoli associati alla natura umana in generale. Bacon sostiene che questi pregiudizi siano innati nella mente e derivino dalla sua tendenza a percepire più ordine e regolarità nella natura di quanto in realtà esista. Ad esempio, gli esseri umani tendono a vedere causalità in eventi coincidentali o a percepire modelli e significati anche dove non ne esistono. Questo tipo di errore logico può portare a conclusioni errate e impedire un’indagine oggettiva della realtà. Gli idola specus si riferiscono agli “idoli della caverna”, ovvero ai pregiudizi personali che ogni individuo sviluppa in base alla propria educazione, ambiente, esperienze e inclinazioni personali. Questi idoli sono paragonabili a preferenze personali che possono colorare il modo in cui si interpretano e filtrano le informazioni. Ad esempio, uno scienziato potrebbe favorire teorie che si allineano meglio con la sua formazione specialistica, ignorando o minimizzando l’importanza di dati che supportano teorie alternative. Gli idola fori sono gli “idoli del mercato”, derivanti dall’uso improprio del linguaggio e delle parole. Bacon sostiene che il linguaggio, essendo un costrutto umano, sia intrinsecamente impreciso e spesso carico di ambiguità e connotazioni che avrebbero potuto portare a misconoscimenti e malintesi. Le parole sono spesso inadeguate per descrivere la realtà in modo esatto e possono distorcere la comprensione. Infine, gli idola theatri sono gli “idoli del teatro”, che derivano dalle dottrine filosofiche e dai principi errati delle scienze e delle arti. Questi idoli includono le fallacie che emergono dalle teorie non verificate e dai sistemi filosofici accettati senza questioni. Tali sistemi sono paragonati a “produzioni teatrali”, che presentano una versione della realtà distorta e sceneggiata, lontana dalla verità empirica e oggettiva. La teoria degli idola ha importanti implicazioni per il metodo scientifico. Essa mette in guardia contro il pericolo di affidarsi troppo alla percezione sensoriale e intellettuale non critica. Invece, suggerisce la necessità di un approccio sistematico e meticoloso nella raccolta e analisi dei dati, libero da pregiudizi personali, linguistici e culturali. Bacon propone, quindi, un metodo di indagine che miri a purificare la mente da questi idoli attraverso la sperimentazione ripetuta e l’osservazione accurata, ponendo così le basi per la scienza moderna. La teoria degli idola, quindi, costituisce una critica radicale alla conoscenza umana tradizionale e un appello alla vigilanza epistemologica nell’indagine scientifica. Bacon sottolinea l’importanza di superare questi ostacoli epistemologici per raggiungere una vera comprensione della natura, promuovendo un approccio più rigoroso e sistematico alla scienza.


Il Novum Organum si inserisce in un contesto filosofico dominato dal razionalismo e dall’empirismo, influenzando profondamente entrambe le correnti. Bacon, pur non essendo un empirista nel senso stretto, promuove un’indagine della realtà basata sull’esperienza sensoriale come antidoto alle false nozioni e ai pregiudizi che, secondo lui, ostacolano la conoscenza vera. La sua critica verso le autorità del passato, come Aristotele, e la sua sfiducia nei confronti della pura deduzione razionale lo collocano in un movimento di pensiero che cercò di liberare la ricerca scientifica dalle catene della tradizione e della superstizione.
L’opera, perciò, costituisce molto più di un semplice trattato di metodologia scientifica; è un manifesto che chiama a un nuovo ordine cognitivo in cui la scienza diventa il motore del progresso materiale e morale dell’umanità. Riflette e contribuisce a una trasformazione epocale nella concezione del sapere, promuovendo una visione pragmatica e utilitaristica della conoscenza. Bacon, con la sua logica induttiva e l’enfasi sull’importanza delle scoperte tecnologiche, non solo ha disegnato il contorno del moderno metodo scientifico, ma ha anche preparato il terreno per la rivoluzione scientifica che avrebbe preso piede nel corso del secolo successivo.
Il Novum Organum, pertanto, rimane un testo fondamentale per comprendere l’evoluzione del pensiero scientifico e la sua interazione con le correnti filosofiche del Seicento, evidenziando come la scienza possa essere strumentalizzata per il miglioramento sociale e tecnologico.

 

 

 

Simone Weil: la fabbrica disumanizzante

 

di

Federico Ragazzi

 

 

La fabbrica ha da sempre suscitato grande interesse per intellettuali e studiosi di differente estrazione politica e sociale. Essi, da sempre, hanno versato fiumi di inchiostro scrivendo trattati ed elaborando ipotesi sulla vita e sul futuro del sistema industriale. Pochi di loro, però, hanno deciso di sacrificare la propria comodità per vivere realmente le dinamiche psico-sociali che si sviluppano all’interno di una fabbrica. Simone Weil, insegnante e filosofa francese della prima metà del ‘900, può essere annoverata tra questi pochi studiosi.

Continua a leggere l’articolo

Simone Adolphine Weil (1909–1943)

 

 

 

 

Con la tecnica l’asservimento è servito.
Ma non è detta l’ultima parola

 

di

Maurizio Morini

 

 

Quella di Günter Anders è per sua stessa ammissione una vera e propria filosofia della tecnica. Nato a Breslavia nel 1902 da una famiglia di origini ebraiche, Anders fu allievo di Heidegger e poi assistente di Scheler all’Università di Colonia. Sposato per un breve periodo con Hannah Arendt, Anders non ebbe successo nel mondo universitario finendo per scegliere una mezza carriera nel mondo del giornalismo. Definito “un filosofo controvoglia”, sono due le tesi antropologiche che devono essere premesse per la comprensione del suo pensiero…

Continua a leggere l’articolo

 

 

 

 

Il segreto delle macchine anatomiche di Raimondo di San Severo

 

di

Elio Errichiello

 

 

Raimondo di Sangro fu letterato e accademico, inventore e alchimista, massone e militare, esoterista ed anatomista, ma soprattutto fu uno straordinario “mago”. I misteri e gli enigmi del Principe di San Severo, infatti, ancora oggi non smettono di lasciare a bocca aperta. Della carrozza anfibia, della cera vegetale o di altre strabilianti invenzioni non abbiamo alcuna traccia ma le celebri macchine anatomiche del San Severo, conservate nella Cappella omonima…

Continua a leggere l’articolo

 

Raimondo di San Severo, Principe di Sangro (1710 – 1771)

 

Macchine anatomiche, Cappella San Severo, Napoli

 

 

 

Profilo falso su Facebook: da oggi è reato

 

Facebook ha certamente la peculiarità di essere un social network molto facile da usare. Chiunque, anche se digiuno di qualsiasi conoscenza relativa alla costruzione di un sito, è in grado di pubblicarvi qualcosa di proprio. Purtroppo, la maggior parte degli utenti, non si rende conto che pubblicando post su Facebook rischia di mettere letteralmente “in piazza” facebookla parte più intima di sé e, talvolta, degli altri. Innanzitutto, bisogna sapere che qualunque attività effettuata in Internet è registrata sui siti nei quali viene eseguita (da un minimo di 3 mesi a un massimo di 2 anni, in funzione della legislazione dello Stato di origine del gestore), e l’autore è, generalmente, sempre rintracciabile dagli organi preposti al controllo (Polizia Postale, Carabinieri, Guardia di Finanza) e, a seguito di un ordine di procedura, da parte dell’Autorità Giudiziaria. Per queste ragioni, è facilmente riscontrabile, social network la sostituzione ad una persona reale, creando un profilo fake.  Questa è una tipologia di reato regolamentato dalla legge, che prevede la reclusione fino ad un anno ed è possibile procedere d’ufficio. Se l’autore danneggia l’immagine di un personaggio pubblico, pubblicando, ad esempio, frasi offensive che possono ledere la reputazione della persona, si può inoltre configurare il reato di diffamazione aggravata: tale illecito, punito dall’art. 595 c.p. con pene, nella forma aggravata, fino a 3 anni di reclusione, contempla l’inserimento di frasi ingiuriose, di notizie riservate, la cui divulgazione provoca pregiudizi, di foto denigratorie o, comunque, la cui pubblicazione ha ripercussioni negative, anche potenziali, sulla reputazione della persona ritratta. La Cassazione, nel 2007, ha ritenuto che rientrasse in tale reato identity-theft-date-theft-300x199anche il comportamento di chi crea un falso account di posta elettronica, intrattenendo corrispondenze informatiche con altre persone e spacciandosi per persona diversa (quindi, come su Facebook). Anche se, per integrare il reato di cui all’art. 494 Codice penale, è necessario il fine di conseguire un vantaggio o recare un danno, tali requisiti sono intesi in modo molto ampio, come non comprensivi solamente di vantaggi e/o danni di tipo economico ed è molto facile ravvisarli nei casi concreti. E’ reato, dunque (anche su Facebook), spacciarsi per persona diversa, o utilizzare marchi, simboli e loghi per rappresentare ciò che non si è, o trarre in inganno altri utenti sulla propria professione. Gli articoli in questione sono: Art. 494 “Sostituzione di persona”.
Art. 498 “Usurpazione di titoli o di onori”.

Art. 402 “Vilipendio della religione dello Stato”.
Art. 403 “Offese a una confessione religiosa mediante vilipendio di persone”.
Art. 404 “Offese a una confessione religiosa mediante vilipendio o danneggiamento di cose”.
Il social network più utilizzato al mondo resta a guardare? La politica di Facebook è molto netta: è vietato creare profili falsi o doppi, non funzionali alle dinamiche della socializzazione. Fare chiarezza nel mare immenso dei profili (più di un miliardo) è fondamentale per mantenere la leadership di mercato, offrendo il miglior servizio possibile, sia agli utenti che ai professionisti del marketing. Per festeggiare il suo decimo compleanno, il social network di Mark Zuckerberg ha intensificato i controlli sui profili falsi (in gergo “fake”) o irregolari. Una account-disabilitato-679x388vera rivoluzione, che ha iniziato ad avere effetto anche a livello locale, nella nostra zona: proprio in queste ultime settimane, infatti, tanti profili irregolari o palesemente falsi sono stati cancellati nella provincia di Napoli. Decine e decine di profili spariti dalla circolazione, ormai inutilizzabili: un trend costante, che vede svanire ogni giorno pagine aziendali impostate come “persone”. Un metodo molto utilizzato dalle aziende locali, perché più immediato e semplice per relazionarsi con gli amici-clienti, semplificando la promozione dei propri prodotti. Un metodo, però, irregolare e confusionario di fare promozione, a cui Facebook ha inteso fare la guerra. In conclusione, dietro l’anonimato è molto più facile dire ciò che si pensa oppure disturbare e molestare persone che poco ci piacciono, ma tale comportamento può sfuggire di mano, fino a provocare veri e propri danni, con conseguenze anche penali. Il tutto, in virtù della convinzione che l’anonimato o l’alterazione dell’identità siano un’armatura impenetrabile.

Edoardo Morvillo

 

Le tempeste solari e la tecnologia sulla Terra

 

Eventi si stanno manifestando in maniera costante da tempo e potrebbero causare seri danni a tutto ciò che di tecnologico è disponibile sul globo terrestre: le tempeste solari. La tempesta solare o tempesta geomagnetica è un fenomeno generato dall’attività del Sole e può creare disturbi alla magnetosfera della Terra. 4257598333Il Sole è una massa fluida in costante movimento. Regolarmente, si assiste a ciò che viene chiamata espulsione di massa coronale, cioè a qualcosa che somiglia allo scoppiare di una bolla d’acqua, quando questa, in una pentola, è messa sul fuoco in attesa di calarvi gli spaghetti. A differenza della pentola sul fuoco, il Sole non libera acqua ma particelle cariche, elettroni e protoni, che lasciano la sua atmosfera, formando il cosiddetto “vento solare”. Dalla Terra, queste attività di espulsione sono visibili sotto forma di macchie solari. Gli effetti possono essere pericolosi, come le radiazioni, dannose anche per l’uomo. Sono rischi remoti, ma numerosi scienziati, in questi giorni, stanno lanciando l’allarme. Un po’ di storia: il primo settembre del 1859, fu registrata la più grande tempesta geomagnetica della storia. L’evento produsse effetti su tutta la Terra, dal 28 agosto al 2 settembre. All’epoca, l’elettronica a disposizione era quasi inesistente, eppure notevoli disturbi furono causati alla tecnologia del telegrafo, provocandone l’interruzione delle linee per ben 14 ore. Molto intenso fu anche il flare solare del 4 agosto 1972, quando le comunicazioni telefoniche a lunga distanza vennero interrotte tra alcuni stati degli Stati Uniti. aurora_borealeQuesta circostanza suggerì la riprogettazione del sistema di comunicazione per i cavi transatlantici. Il 13 marzo 1989, un imponente brillamento solare lasciò senza energia elettrica sei milioni di persone in Quebec, Canada, per nove ore. Questo brillamento non era paragonabile, per intensità, all’evento del 1859, per cui è facile capire come i danni causati ad una società tecnologicamente più avanzata siano notevolmente superiori. Altri casi si sono manifestati fino ad oggi, con conseguenze quali corti circuiti a satelliti in orbita, black-out radio e danneggiamenti ai dispositivi GPS. Noi siamo al sicuro? Nessun rischio pare esserci per la salute: nonostante il flusso di particelle ad alta energia emesse dal Sole possa anche essere letale per un essere umano (critici soprattutto i protoni, che possono superare i 30 MeV di energia iniziale), l’atmosfera e la magnetosfera terrestre ci proteggono piuttosto efficacemente. Un rischio maggiore esiste per chi viaggia ad alta quota (il personale di volo, del resto, assorbe regolarmente dosi di radiazioni superiori alla media). Per questo, in concomitanza con fenomeni solari particolarmente violenti, il traffico aereo viene deviato, per evitare le zone polari, dove l’intensità di radiazione è massima (in corrispondenza dei poli la schermatura magnetica terrestre è, infatti, meno efficace). satellitiLo scienziato Pete Riley, sulla rivista Space Weather, ha formulato una previsione su un modello matematico, giungendo alla conclusione che esista solo il 12% di possibilità che la Terra venga colpita da una tempesta solare nei prossimi 10 anni. Alcuni studiosi della NASA, invece, hanno parlato di un fenomeno che, due anni fa, avrebbe rischiato di colpire la Terra, provocando gravi conseguenze. Il Sole, infatti, avrebbe generato due enormi nubi, le quali, colpendo la Terra, avrebbero potuto originare pericolosi effetti. Si sarebbe trattato della tempesta più forte degli ultimi 150 anni e avrebbe potuto provocare un blackout quasi totale di tutte le nostre tecnologie, satelliti compresi. Incredibili sarebbero state le conseguenze, con interruzioni di corrente, un impatto economico di proporzioni incredibili e danni per oltre 2000 miliardi di dollari. Cosa ci riserverà il futuro? Dobbiamo iniziare a preoccuparci?

Edoardo Morvillo