Il corpo è il nostro mezzo generale per avere un mondo. […]
Noi non siamo davanti al nostro corpo, noi siamo nel nostro corpo,
anzi siamo il nostro corpo.
M. Merleau-Ponty
Nota dell’autore: non scrivo da tecnico né da giurista, ma piuttosto da osservattice culturale che condivide una difficoltà oggi molto comune: orientarsi tra sviluppo tecnologico, linguaggio giuridico e ricadute politiche e sociali. Proprio perché considero la questione cruciale, ho cercato di approfondirla attraverso fonti pubbliche e verificabili. Se vi fossero imprecisioni o aggiornamenti rilevanti, segnalarli è non solo utile ma parte del senso stesso di questa riflessione.
Aprire una riflessione sulla tecnologia, sulla cultura e sul destino dell’umano partendo da un’aula di tribunale può sembrare una scelta laterale. Eppure è spesso il diritto — con il suo linguaggio lento, talvolta involuto, e in alcuni passaggi persino arcaico — a registrare quando qualcosa, nel tessuto profondo della società, ha smesso di funzionare come prima.
Il diritto non è soltanto norma: è anche un sismografo, capace di intercettare fratture che attraversano il vivere comune prima che diventino pienamente visibili nello spazio pubblico.
Le cause collettive oggi in corso negli Stati Uniti contro alcune tra le più grandi piattaforme digitali richiamano altri momenti storici in cui la giustizia è intervenuta non su un singolo illecito, ma su strutture di comportamento protratte nel tempo: dallo sfruttamento industriale all’inquinamento ambientale, fino ai contenziosi sul tabacco e su farmaci immessi sul mercato nonostante segnali crescenti di rischio.
In quei casi, il punto decisivo non era tanto l’ignoranza iniziale del danno — spesso plausibile nelle prime fasi di sviluppo di un prodotto — quanto ciò che accade quando quel danno diventa prevedibile. È in questo snodo che si apre una crepa: un attrito non più eludibile tra causa ed effetto, tra decisione e conseguenza, tra responsabilità e danno prodotto.
Nel diritto statunitense, la nozione di foreseeability indica proprio questo: la prevedibilità ragionevole di un rischio alla luce delle conoscenze disponibili in un determinato momento storico. Quando studi interni, dati statistici o ricerche indipendenti rendono evidente un pericolo, la prosecuzione di un’attività senza adeguate modifiche può trasformarsi, sul piano giuridico, in responsabilità.
È in questo quadro che si colloca il contenzioso oggi in corso negli Stati Uniti nel procedimento noto come MDL n. 3047 (In re: Social Media Adolescent Addiction/Personal Injury Products Liability Litigation), coordinato presso la U.S. District Court for the Northern District of California. Le azioni coinvolgono famiglie, minori, distretti scolastici ed enti pubblici, e chiamano in causa piattaforme come Meta, YouTube, TikTok e Snapchat.
I querelanti non contestano principalmente i singoli contenuti generati dagli utenti, ma le scelte di design: notifiche, scroll infinito, sistemi di raccomandazione e meccanismi di ricompensa progettati e calibrati per trattenere l’attenzione e orientare i comportamenti, con effetti particolarmente incisivi sugli utenti più vulnerabili, in primo luogo i minorenni.
La tesi avanzata è che tali architetture possano configurare un prodotto difettoso non in funzione dell’uso contingente che ne viene fatto, ma in relazione alla loro struttura progettuale, alla luce degli usi prevedibili e delle conoscenze progressivamente acquisite.
Il punto dirimente non è quindi un abuso successivo, bensì il modo in cui l’ambiente digitale è stato costruito per massimizzare la permanenza, con effetti potenzialmente assimilabili a forme di dipendenza, e per orientare decisioni e comportamenti nel tempo.
Una questione centrale riguarda anche i confini della Section 230 del Communications Decency Act, che continua a svolgere una funzione protettiva rispetto alla responsabilità per contenuti di terzi.
Ma il nodo giuridico decisivo è spesso un altro: come qualificare la condotta contestata. Si tratta di responsabilità per contenuti pubblicati da terzi, oppure di scelte progettuali, funzioni di prodotto e condotte proprie della piattaforma? È in questa distinzione che si gioca una parte rilevante della controversia.
In ogni caso, ciò che emerge con chiarezza è che la responsabilità non nasce necessariamente da un errore originario in fase di invenzione o di lancio di un prodotto, come può avvenire nel caso di un farmaco o di una sostanza chimica, ma anche — e talvolta soprattutto — dalla gestione della conoscenza delle ricadute successive al suo utilizzo.
È in questo passaggio che il sapere accumulato genera un obbligo: modificare il design, introdurre avvertenze adeguate, ridurre l’esposizione al rischio diventa — o sarebbe diventato — necessario. Quando ciò non avviene, o avviene in modo insufficiente, il nesso tra conoscenza e decisione si colloca al centro della controversia.
Le azioni collettive, in generale, hanno avuto proprio questa funzione: rendere visibile la sequenza temporale che lega tre elementi — ciò che si sapeva, ciò che si è scelto di fare e ciò che è accaduto alle persone coinvolte. La responsabilità giuridicamente rilevante emerge allora in questa saldatura tra prevedibilità del danno e persistenza del comportamento.
È in questa genealogia che può essere collocato il fronte giuridico aperto oggi contro le piattaforme digitali. Non perché la tecnologia sia assimilabile a una sostanza tossica, ma perché la struttura del problema presenta analogie evidenti: l’omessa o tardiva correzione di un ambiente progettato e ottimizzato nel tempo, modificato sulla base di dati e sperimentazioni, proprio mentre crescevano le evidenze sui possibili effetti collaterali, in particolare sui soggetti più vulnerabili.
La questione, dunque, non era — e non è nemmeno oggi — se il rischio fosse immaginabile in astratto, ma quando sia diventato ragionevolmente prevedibile, e quali decisioni siano state prese a partire da quella prevedibilità.
Due posture della negazione
tra occultamento e resistenza
Se la responsabilità nasce nel momento in cui un rischio diventa prevedibile e tuttavia viene ignorato, allora il gesto decisivo non è l’errore iniziale, ma la sua negazione successiva. È qui che la questione si complica.
Nel secolo scorso, la negazione è stata spesso lo strumento con cui imprese e istituzioni hanno neutralizzato la forza della conoscenza emergente: negare il danno, minimizzare i segnali di tossicità, contestare il nesso causale tra prodotto e patologia. Una negazione che interviene dopo l’evidenza, per ritardarne le conseguenze. In questo senso, la negazione non è ignoranza: è gestione strategica del dubbio.
Oggi, tuttavia, la stessa parola può assumere un significato opposto. Se in ambito industriale la negazione proteggeva il profitto, nell’ambiente digitale essa può diventare l’unico gesto capace di interrompere l’automatismo.
Come suggerisce Guido Vetere, la capacità di dire “no”— la “sillaba del demonio” — introduce una frattura nel flusso continuo dell’assenso. In ambienti progettati per un consenso implicito e permanente (scroll infinito, notifiche, accettazione automatica dei cookie, frizioni progettate per la rinuncia), negare non significa distruggere il sistema, ma sottrarsi alla sua inerzia.
Una negazione ha protetto il danno; l’altra può proteggere l’umano. Ma questa seconda negazione non è garantita. Presuppone un soggetto ancora capace di percepire l’invasione come tale.
Se la prima negazione nasce da un calcolo, la seconda nasce da un corpo che sente il limite. Ed è qui che il discorso si sposta dal piano giuridico a quello antropologico. Negli ultimi anni, mentre l’esperienza quotidiana viene mediata da interfacce che promettono fluidità e immediatezza, si è aperta una frattura tra sapere ed essere.
L’automatismo non riguarda solo le decisioni aziendali: riguarda il modo stesso in cui percepiamo e reagiamo. Secondo il paradigma dell’embodied cognition (cognizione incarnata), la mente non è un software separato dal corpo, ma un processo che emerge dall’interazione tra cervello, sistema nervoso, percezione, movimento e ambiente.
Non è una tesi unanimemente condivisa, ma è un orientamento teorico influente. Se la cognizione è radicata nella dimensione sensomotoria, allora un ambiente che riduce sistematicamente l’attrito corporeo modifica anche le condizioni della nostra esperienza morale.
Ciò che stiamo vivendo può essere descritto come una evoluzione non incarnata: un addestramento cognitivo accelerato che non corrisponde necessariamente a una maturazione del sentire. Quando la memoria non si incarna nel corpo sociale come repulsione viscerale verso l’orrore, non genera etica: genera retorica.
Dalla micro-profilazione di
Cambridge Analytica all’IA adattiva
Se la frattura tra sapere e sentire è la condizione antropologica che rende fragile la nostra capacità di resistenza, la micro-profilazione politica ne è stata una delle prime traduzioni operative su larga scala.
Prima ancora dell’IA adattiva contemporanea, l’intervento sistematico sulle disposizioni emotive degli individui aveva già trovato una forma tecnicamente sofisticata.
La vicenda di Cambridge Analytica (e le successive controversie sull’integrità dei processi elettorali) ha rappresentato una soglia di visibilità decisiva: ha mostrato come fosse possibile utilizzare dataset massivi — in parte ricavati dall’ecosistema Facebook — e modelli psicometrici per orientare comunicazioni politiche mirate.
Tra questi, il più noto è il modello OCEAN, acronimo che identifica cinque dimensioni della personalità elaborate nella psicologia dei tratti: Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism.
Attraverso inferenze statistiche, agli utenti venivano attribuiti profili probabilistici che permettevano di modulare messaggi differenti in base a predisposizioni psicologiche stimate.
Ciò che qui emerge con chiarezza è un passaggio decisivo: la soggettività non viene più interpellata come interlocutore razionale, ma segmentata come insieme di vulnerabilità misurabili. La conoscenza psicologica diventa infrastruttura di orientamento comportamentale.
Non si trattava di sistemi “statici” in senso tecnico — le campagne prevedevano analisi iterative e test comparativi — ma di strategie di profilazione meno adattive rispetto agli attuali sistemi di apprendimento continuo.
La differenza rispetto all’IA contemporanea non risiede nell’esistenza del targeting, bensì nel suo grado di automazione: oggi gli algoritmi aggiornano costantemente i modelli sulla base del comportamento in tempo reale, rendendo la personalizzazione non solo massiva, ma permanente e auto-correttiva.
Gli algoritmi di raccomandazione, ad esempio, non si limitano a proporre contenuti: li ordinano, li amplificano e li modulano in funzione di parametri misurabili come il tempo di permanenza e l’engagement.
Il fenomeno delle cosiddette filter bubbles — concetto reso popolare da Eli Pariser con The Filter Bubble (2011) — descrive ambienti informativi sempre più omogenei, nei quali la divergenza tende a ridursi. L’automatismo non si limita a suggerire: struttura il campo del possibile.
È in questo contesto che il lavoro di Valentina Tanni, e in particolare Antimacchine, individua forme di resistenza dall’interno dei sistemi: il glitch, l’errore, l’imprevisto. Dove tutto scorre senza attrito, la coscienza può assopirsi; dove qualcosa si inceppa, riemerge la presenza.
L’antimacchina non è un rifiuto totale della tecnica, ma una rivendicazione della soggettività non ottimizzabile.
Questa postura dialoga con la celebre riflessione di Erich Fromm sulla “fuga dalla libertà”: la tendenza a delegare a un decisore esterno — oggi anche algoritmico — ciò che richiederebbe responsabilità personale.
La questione non è scegliere tra tecnologia e umanesimo, ma interrogarsi sul tipo di individuo che intendiamo formare: un individuo per il quale la cultura sia esperienza vissuta, non mero flusso informativo.
Dal design dell’attenzione al design della decisione: l’algoritmo sovrano
Se la stagione delle piattaforme social ha mostrato come il design digitale potesse catturare e trattenere l’attenzione, la fase attuale introduce un passaggio ulteriore: il design non si limita più a ottimizzare il tempo di permanenza, ma tende a intervenire nella formazione stessa del giudizio, offrendo sintesi, priorità, ipotesi operative e cornici decisionali preconfigurate.
È in questa prospettiva che va letta la presenza crescente dei modelli generativi nell’ecosistema della difesa e della sicurezza nazionale statunitense. Nel 2025 il Chief Digital and Artificial Intelligence Office (CDAO) del Dipartimento della Difesa ha annunciato accordi con più aziende di frontier AI — tra cui Anthropic, OpenAI, Google e xAI — con tetti economici rilevanti e finalità esplicite di integrazione in workflows mission-critical. Anthropic, da parte sua, ha rivendicato un ruolo già attivo in ambienti classificati e in partnership infrastrutturali e applicative rivolte alla comunità di sicurezza nazionale.
Gli sviluppi più recenti mostrano però che il problema non è soltanto tecnico o contrattuale, ma eminentemente politico e morale. A fine febbraio 2026 Anthropic ha reso pubblico uno scontro con il Dipartimento della Difesa sulla richiesta di rimuovere alcune salvaguardie relative a due usi: sorveglianza domestica di massa e sistemi d’arma completamente autonomi.
Reuters ha riportato il conflitto, incluse le repliche del Pentagono, che ha negato l’intenzione di usare i modelli per quei due scopi specifici ma ha insistito sull’accesso per “tutti gli usi leciti”, ventilando anche la possibile interruzione del rapporto. Nelle stesse ore, OpenAI ha dettagliato un proprio accordo con il DoD, con una struttura di salvaguardie presentata come compatibile con l’uso in ambito difesa.
Qui il punto, però, non è eleggere una singola azienda a eroina o a colpevole assoluta. Il punto è lo spostamento di scala. Se nel feed il rischio era la cattura del comportamento, nei sistemi di supporto alla decisione il rischio diventa la compressione del giudizio: l’automatismo non si presenta più soltanto come seduzione continua, ma come delega razionalizzata. La velocità dell’elaborazione simbolica può allora essere scambiata per affidabilità del discernimento.
Lo spostamento concettuale è oggi ancora più netto: la tecnologia non è soltanto un mezzo né soltanto un ambiente, ma sempre più spesso un’infrastruttura di selezione del rilevante, un dispositivo che ordina in anticipo ciò che, per un soggetto o per un’istituzione, si presenterà come degno di attenzione, plausibile o urgente.
In queste settimane sono circolate anche letture molto critiche — talvolta radicali — tra cui una lettura critica apparsa in questi giorni sul profilo Facebook di Michele Kettmaier (che considero utile proprio perché stremizzata in alcune considerazioni, pur senza condividerne tutte le conclusioni) interpreta lo scontro Anthropic–DoD e il successivo accordo OpenAI–DoD come il segnale di una transizione più profonda: non una disputa etica tra aziende “più” o “meno” responsabili, ma una competizione per diventare infrastruttura stabile della sovranità tecnologico-militare del XXI secolo.
Il punto più forte di questa lettura è lo spostamento del baricentro: dalla reputazione morale delle singole imprese alla struttura dei rapporti tra Stato, appaltatori, reti classificate, clausole contrattuali e catene decisionali. In questa prospettiva, il linguaggio delle safeguards, della “supervisione umana” e degli “usi leciti” non va letto soltanto come limite, ma anche come possibile grammatica di integrazione operativa e legittimazione istituzionale.
È una critica che coglie un nodo reale: il rischio che l’etica dichiarata venga assorbita dentro una cornice di potere più ampia, nella quale ciò che conta non è solo ciò che un modello “può” fare, ma chi decide dove entra, con quali vincoli, in nome di quale legalità e dentro quale architettura strategica.
Allo stesso tempo, alcuni passaggi di questa interpretazione vanno trattati come tesi politiche e filosofiche — e non come fatti già dimostrati in ogni dettaglio — soprattutto quando attribuiscono intenzioni univoche agli attori o quando traducono immediatamente il quadro in categorie totalizzanti.
Il rischio, altrimenti, è perdere la distinzione tra ciò che è documentabile e ciò che è diagnosi teorica. Ma proprio in questa tensione questa lettura, io credo, resta utile: perché obbliga a vedere che il problema non riguarda più soltanto l’uso degli strumenti, bensì la loro collocazione nella nuova architettura della sovranità. che interpretano lo scontro pubblico tra Anthropic, Pentagono e concorrenti come il segnale di una transizione più profonda: non una disputa etica tra aziende “più” o “meno” responsabili, ma una competizione per diventare infrastruttura stabile della sovranità tecnologico-militare.
È una chiave interpretativa che non coincide necessariamente con i fatti già accertati in ogni suo passaggio, ma che coglie un punto essenziale: il baricentro si sta spostando dall’uso dei modelli come strumenti al loro ruolo come snodi di potere, accesso e decisione.
Il rischio reale, allora, non è soltanto l’ipocrisia di singole aziende, né la purezza morale di una posizione dichiarata: è la progressiva normalizzazione del fatto che sistemi nati in economie dell’attenzione entrino a costituire, con diversi gradi di vincolo e supervisione, la grammatica operativa di apparati sovrani.
Riconquistare il nuovo attrito: corpo, limite e responsabilità nell’era dell’automatismo
L’ambiente digitale è progettato per espandersi, occupando gli interstizi del tempo biologico attraverso meccanismi di cattura dell’attenzione.
La risposta non può essere soltanto normativa; deve diventare anche semantica e perfino somatica. Se l’architettura tecnica agisce sul comportamento prima ancora che sulla coscienza, la ricostruzione della soggettività non può limitarsi a nuove regole: deve coinvolgere il modo in cui abitiamo il nostro stesso corpo.
Il design persuasivo funziona come un “arto fantasma” della coscienza: promette connessione totale e conoscenza istantanea, ma riduce il peso del corpo e la fatica del giudizio. Delegare la scelta a un algoritmo non significa solo risparmiare energia cognitiva; può significare atrofizzare quella reazione incarnata che ci fa percepire l’ingiustizia come intollerabile.
Una memoria che non attraversa i sensi difficilmente genera etica. Senza attrito non c’è trasformazione, perché l’attrito non è un difetto del sistema: è una condizione della coscienza.
In questo quadro, il “no” evocato da Vetere e il “glitch” tematizzato da Tanni non sono nostalgie luddistiche, ma tentativi di re-incarnare la soggettività. Recuperare l’errore significa riaffermare l’umano come essere non completamente ottimizzabile, capace di silenzio, attesa e noia.
Ma se la ricostruzione del limite è un gesto individuale e culturale, essa trova oggi anche un banco di prova istituzionale: il diritto.
Nel contenzioso sulle piattaforme, e più in generale nel confronto pubblico sull’IA in ambiti sensibili, il punto non è più solo se una tecnologia “funzioni”, ma come è progettata, quale comportamento incentivi, quale grado di delega imponga, quali margini di contestazione lasci.
Anche quando il calendario processuale è in evoluzione e quando le fasi istruttorie, probatorie o di summary judgment ( il cosiddetto giudizio sommario è un istituto del diritto civile anglosassone, specialmente USA) non coincidono con l’immaginario della sentenza spettacolare, il tribunale resta un luogo in cui l’automatismo incontra un limite.
In questa prospettiva, il tribunale — con la sua lentezza fatta di corpi che si riuniscono in uno spazio fisico per discutere norme astratte — diventa un contrappeso culturale prima ancora che una macchina di sanzione. Non viene interrogata soltanto l’efficienza del sistema, ma la sua responsabilità.
Riportare la tecnologia davanti allo specchio della responsabilità incarnata significa tentare di trasformare la cultura da accumulo di dati in sistema di anticorpi. La sfida non è arrestare l’innovazione, ma impedire che l’automatismo sostituisca — del tutto e ancor più di quanto già accada — il sentire.
Oggi questo attrito non è più soltanto quello tra utente e piattaforma, tra attenzione e dipendenza. È anche l’attrito tra decisione umana e delega algoritmica, tra sovranità politica e infrastruttura privata, tra potenza computazionale e limite morale.
È qui, forse, che l’evoluzione non incarnata incontra il suo banco di prova più serio: non nella promessa della macchina, ma nella nostra capacità di non cedere alla sua inerzia.
NOTE E FONTI BIBLIOGRAFICHE
Contenzioso piattaforme / MDL 3047
- U.S. District Court, Northern District of California. In re: Social Media Adolescent Addiction/Personal Injury Products Liability Litigation (Case No. 4:22-md-03047-YGR). Pagina del caso e aggiornamenti procedurali.
https://cand.uscourts.gov/cases-e-filing/cases/422-md-03047-ygr/re-social-media-adolescent-addictionpersonal-injury-products - U.S. District Court, Northern District of California. Cases of Interest (include il riferimento al MDL 3047 / YGR).
https://cand.uscourts.gov/cases-e-filing/cases/cases-of-interest - 47 U.S.C. § 230 (Communications Decency Act, Section 230).
https://www.law.cornell.edu/uscode/text/47/230 - Difesa USA / AI frontier companies / Anthropic–DoD / OpenAI–DoD
- Anthropic (luglio 2025). Anthropic and the Department of Defense to Advance Responsible AI in Defense Operations.
https://www.anthropic.com/news/anthropic-and-the-department-of-defense-to-advance-responsible-ai-in-defense-operations - CDAO / ai.mil (luglio 2025). CDAO Announces Partnerships with Frontier AI Companies to Address National Security Challenges.
https://www.ai.mil/latest/news-press/pr-view/article/4242822/cdao-announces-partnerships-with-frontier-ai-companies-to-address-national-secu/ - Anthropic (febbraio 2026). Statement pubblico sul conflitto con il DoD in merito alle salvaguardie.
https://www.anthropic.com/news/statement-department-of-war
(nota: la titolazione e/o URL dei comunicati può variare; verificare eventuali aggiornamenti o mirror ufficiali) - Reuters (26 febbraio 2026). Anthropic cannot accede to Pentagon’s request in AI safeguards dispute, CEO says.
https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/ - Reuters (28 febbraio 2026). OpenAI details layered protections in US defense department pact.
https://www.reuters.com/business/media-telecom/openai-details-layered-protections-us-defense-department-pact-2026-02-28/
Filosofia / cognizione incarnata / cultura
- Merleau-Ponty, M. (2003). Fenomenologia della percezione (A. Bonomi, Trad.). Bompiani. (Opera originale pubblicata nel 1945).
https://www.bompiani.it/catalogo/fenomenologia-della-percezione-9788845270876 - Merleau-Ponty. Stanford Encyclopedia of Philosophy.
https://plato.stanford.edu/entries/merleau-ponty/ - Wilson, R. A., & Foglia, L. Embodied cognition. Stanford Encyclopedia of Philosophy.
https://plato.stanford.edu/entries/embodied-cognition/ - Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind. MIT Press.
https://mitpress.mit.edu/9780262720217/the-embodied-mind/
Profilazione / Cambridge Analytica / ecosistemi informativi
- Information Commissioner’s Office (ICO). Investigation into the use of data analytics in political campaigns (Cambridge Analytica).
https://ico.org.uk/action-weve-taken/enforcement/cambridge-analytica/ - Cadwalladr, C., & Graham-Harrison, E. (2018). The Cambridge Analytica Files. The Guardian.
https://www.theguardian.com/news/series/cambridge-analytica-files - Pariser, E. (2011). The Filter Bubble.
(es. scheda editore) https://www.penguin.com.au/books/the-filter-bubble-9780141969923
Riferimenti teorici e critici
- Vetere, G. (2026, 6 febbraio). La sillaba del demonio che ci salva dalle macchine. Nòva 100 – Il Sole 24 Ore.
https://guidovetere.nova100.ilsole24ore.com/2026/02/06/la-sillaba-del-demonio-che-ci-salva-dalle-macchine/ - Tanni, V. (2020). Antimacchine. Introduzione all’arte nell’epoca dell’intelligenza artificiale. Tlon.
https://www.tlon.it/prodotto/antimacchine/ - Fromm, E. (2013). Fuga dalla libertà. Mondadori. (Opera originale pubblicata nel 1941).
https://www.oscarmondadori.it/libri/fuga-dalla-liberta-erich-fromm/ - Erich Fromm. Stanford Encyclopedia of Philosophy.
https://plato.stanford.edu/entries/fromm/
Nota su letture critiche circolate online
Nel testo si fa cenno a interpretazioni critiche emerse nel dibattito pubblico (anche sui social), richiamate come chiavi di lettura e non come fonti probatorie dei fatti. I fatti richiamati sono appoggiati, per quanto possibile, a fonti istituzionali e giornalistiche verificabili.
Postilla metodologica (aggiornamento e fallibilità)
Il quadro descritto in questo testo riguarda un contenzioso e un ecosistema tecnologico in rapida evoluzione. Alcuni passaggi — in particolare quelli giuridici, contrattuali e istituzionali — possono cambiare con nuovi atti processuali, comunicati ufficiali o informazioni rese pubbliche successivamente. Ho cercato di distinguere, per quanto possibile, tra fatti accertabili e interpretazioni. Eventuali correzioni documentate sono benvenute.
CREDITS
Questo testo – in specifico – è stato sviluppato in collaborazione con Gemini Advanced e GPT-4, due modelli linguistici di intelligenza artificiale.
Il loro aiuto è stato essenziale nella costruzione, soprattutto logica, delle intuizioni che ho avuto e messo alla prova grazie a questi strumenti. Insieme, si sono rivelati indispensabili nella ricerca delle fonti di approfondimento.
Attraverso un processo di interazione e feedback reciproco, ho cercato di integrare le rispettive competenze, ovvero le mie “ispirazioni”, i miei concetti e le mie stringhe di testo poetiche, e le capacità di elaborazione di informazioni e di testo da parte di Gemini Advanced e GPT-4 per produrre un’analisi il più possibile completa soprattutto sulle IA che verranno.





