Home Archivio Microsmeta Home Galleria Forum Podcast Contatti
Cerca in Digital Worlds
 


Alex - Webmaster



Martina - Redazione


Vega AI
Vega - AI Host

EDIZIONE DEL 11 04 2026
🎧 Qui trovi
100 DAILY
podcast da
ascoltare!


Live Artemis verso Luna (articolo)

Click bordo video per full screen

📊 SYSTEM STATUS
87
● LIVE ACCESS
Commenta su Telegram LASCIA UN
COMMENTO
TELEGRAM

Feed XML RSS 0.91 Microsmeta Podcast
Feed XML RSS 0.91 Feed RSS Commenti
Feed XML RSS 0.91 Feed RSS Articoli
Feed XML Atom 0.3 Feed Atom 0.3

français Visiteurs Français

english English Visitors

eBay - Smartphone e Smartwatch eBay - Informatica eBay - Fotovoltaico eBay - Gaming Temu
Prova Amazon Prime gratis
PROVA GRATIS PER 30 GIORNI

Iscrizione gratuita = Supporti il blog!



« aprile 2026 »
LMMGVSD
  1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30      
             

Titolo
Accessori (12)
Amici animali (16)
Audio e Video (97)
Automotive (4)
Bici Elettriche (4)
Capolavori tecnologici (12)
Cultura Geek (8)
Curiosità (37)
Domotica (14)
Donne scienziate (12)
Droni (9)
E-commerce e Retail (10)
ENGLISH VERSION (1)
Futuro (19)
Gaming (49)
Gatget (85)
Geopolitica e tecnologia (31)
Green Tech (88)
Guide e Tutorial (29)
Hackintosh (2)
Hardware PC (150)
Indossabili (10)
Intelligenza Artificiale (88)
Intelligenza Artificiale e scacchi (5)
Internet e Social (91)
iPad (2)
iPhone (11)
Linux e Open Source (175)
Mac (7)
macOS (7)
Medicina e Tecnologia (11)
Meraviglie Naturali Recondite (20)
Microsoft Windows (87)
Misteri (86)
Mitologia e Cinema (15)
Mondo Android (6)
Mondo Apple (204)
Mondo Google (249)
Monitor (7)
Natura (6)
Networking e Connettività (17)
Neurotecnologie (7)
Notebook (17)
Notizie (12)
Nuove Tecnologie (215)
Nuovi materiali (23)
Parchi divertimento tecnologici (17)
Patrimonio mondiale UNESCO (17)
PC Desktop (7)
Podcast e Blog (84)
Psicologia (2)
Robotica (113)
Salute e benessere (26)
Schede Video (2)
Scienza Ambiente (10)
Scienza e Spazio (204)
Scienza e Tecnologia (35)
Scienziati dimenticati (10)
Sci-Fi e Rigore Scientifico (36)
Shopping e Offerte (1)
Sicurezza informatica (8)
Sistemi Operativi (8)
Smart Home Amazon Google (3)
Smartphone (31)
Sociologia (2)
Software e AI (1)
Software e Sicurezza (110)
Stampanti e scanner (5)
Storage (13)
Storia (17)
Storia Antico Egitto (22)
Storia Aztechi, Maya e Inca (22)
Storia console videogiochi (13)
Storia degli smarphone (101)
Storia della Cina (4)
Storia delle invenzioni (49)
Storia delle scoperte mediche (15)
Storia Grecia Antica (40)
Storia Impero Romano (89)
Storia Medioevo (32)
Storia Mesopotamia (3)
Storia Moderna (1)
Storia Personal Computer (21)
Storia USA razzista spiega Trump (6)
Sviluppo sostenibile (18)
Tablet (6)
Tecnologia (310)
Tutorial (19)
Version Français (1)

Catalogati per mese:

Gli interventi più cliccati

Ultimi commenti:
Nice blog!
22/03/2026 @ 08:56:22
Di Stupid spammer
Congratulations for this inter...
21/03/2026 @ 06:05:05
Di Danny
I like your posts on history
21/03/2026 @ 05:36:40
Di Jacklyn
How to hear your audio also in...
21/03/2026 @ 04:31:26
Di Cecil
Russian spammers are all IDIOT...
20/03/2026 @ 15:41:20
Di Berry
I still have my Zune HD!
20/03/2026 @ 14:37:40
Di Tyson
Spammers are working for me, c...
20/03/2026 @ 14:03:18
Di Sherlyn
Nice web site!
20/03/2026 @ 11:36:37
Di Mona
Exploiting spammers for my int...
20/03/2026 @ 09:03:34
Di Janell
Ne è passato di tempo da Zune ...
19/03/2026 @ 04:14:04
Di Stacie

Think different!
Molla Apple e spendi 1/3!

No Apple Intelligence fino al 2025
su iPhone 16 Pro Max? Sono 1489
Euro buttati ...Davvero no grazie!

...Passato ad Android :-)







Scacchi, cibo per la mente!

Titolo
Bianco e nero (1)
Colore (12)

Le fotografie più cliccate

Titolo
Quale sistema operativo usi principalmente?

 Windows 11
 Windows 10
 Windows 8
 Windows 7
 macOS Tahoe
 macOS Sequoia
 macOS Sonoma
 Linux
 iOS
 Android

NETMARKETSHARE




Blogarama - Technology Blogs


Titolo
Listening
Musica legale e gratuita: Jamendo.com

Reading
Libri:
Come Internet cambierà la TV per sempre di Tommaso Tessarolo

Gomorra di Roberto Saviano

Ragionevoli Dubbi di Gianrico Carofiglio
Se li conosci li eviti di Marco Travaglio

Watching
Film:
The Prestige
Lettere da Hiwo Jima
Masseria delle allodole
Le vite degli altri
Mio fratello è figlio unico
Déjà vu - Corsa contro il tempo
Ti amerò sempre
The millionaire | 8 Oscar






11/04/2026 @ 09:41:54
script eseguito in 353 ms


Progetto grafico e web design:
Arch. Andrea Morales
P.IVA 08256631006



\\ Home Page : Pubblicazioni
Di seguito gli articoli e le fotografie pubblicati nella giornata richiesta.
 
 
Articoli del 11/04/2026

[ 🔍CLICCA PER INGRANDIRE ]
Schermo digitale con il logo di Claude e di Anthropic sovrapposto a immagini di droni militari autonomi in volo
Schermo digitale con il logo di Claude e di Anthropic sovrapposto a immagini di droni militari autonomi in volo

Quando i sistemi di intelligenza artificiale iniziano a gestire decisioni militari in tempo reale, chi detiene la responsabilità morale? Questa domanda ha posto Anthropic, creatrice di Claude, in un conflitto epocale con il Dipartimento della Difesa americano sui limiti dell'IA nei sistemi d'arma autonomi. LEGGI TUTTO L'ARTICOLO

🎧 Ascolta questo articolo

Palmer Luckey e Anduril: dalla realtà virtuale alle armi autonome
Per comprendere la profonda trasformazione in corso nel rapporto tra Silicon Valley e industria della difesa americana, è necessario ripercorrere la traiettoria di Palmer Luckey, uno dei personaggi più straordinari e contraddittori dell'ecosistema tecnologico contemporaneo. Figlio di Long Beach, California, Luckey concepì a sedici anni Oculus, il progetto di visori per la realtà virtuale che avrebbe presto collocato il suo nome tra i grandi della tecnologia mondiale: nel 2012 lanciò il primo prototipo dell'Oculus Rift e due anni dopo Facebook acquistò Oculus VR per circa due miliardi di dollari. Luckey rimase a lavorare per il colosso di Menlo Park fino al 2017, quando le sue donazioni a Nimble America, un'organizzazione di supporto a Trump specializzata nella diffusione di contenuti politici online, scatenarono un'ondata di malcontento tra i colleghi programmatori della liberal California. Dopo una pubblica presa di distanza da Oculus e Facebook, nel giugno dello stesso anno fondò una nuova azienda che avrebbe segnato definitivamente la sua traiettoria pubblica: Anduril Industries, il cui nome è tratto direttamente dalla saga de Il Signore degli Anelli — Andúril è la spada di Aragorn, chiamata anche la Fiamma dell'Ovest. Questo riferimento non era casuale e rivelava molto della visione del fondatore. Anduril si è specializzata nello sviluppo di sistemi di difesa autonomi coordinati da una piattaforma di intelligenza artificiale centralizzata chiamata Lattice, un'architettura che integra droni, sensori, veicoli marini e sistemi anti-drone in una rete di risposta autonoma coordinata. Il modello di business di Anduril è costruito sulla produzione di hardware militare relativamente economico e altamente autonomo, capace di operare in scenari complessi con minima supervisione umana diretta, e ha trovato nei vertici militari americani un mercato estremamente ricettivo.

Il sistema Lattice e il nuovo paradigma dei sistemi d'arma intelligenti
Il sistema Lattice di Anduril Industries rappresenta uno dei tentativi più avanzati e più discussi di applicare l'intelligenza artificiale moderna alla gestione in tempo reale di sistemi d'arma multipli e distribuiti su un teatro operativo. Nella sua concezione di base, Lattice funziona come un cervello centralizzato in cloud che raccoglie e integra in tempo reale i dati provenienti da una rete eterogenea di sensori — droni aerei, veicoli di sorveglianza terrestri, piattaforme marittime, sistemi di rilevamento radar e infrarosso — e li elabora per produrre raccomandazioni tattiche, identificare minacce e, in determinati scenari operativi, dirigere autonomamente la risposta dei sistemi collegati senza richiedere intervento umano diretto per ogni singola decisione. Questa architettura solleva interrogativi profondi e non ancora risolti sul piano etico, giuridico e strategico, poiché abbassa drasticamente la latenza decisionale nei contesti di combattimento — un vantaggio militare concreto e significativo — al prezzo di ridurre o eliminare il momento di valutazione umana che ha tradizionalmente separato il sensore dall'attuatore in un sistema d'arma. Il significativo accordo di collaborazione tra Anduril e OpenAI, annunciato nel dicembre del 2024, ha segnato una svolta simbolica importante: per la prima volta, uno dei più potenti modelli linguistici di intelligenza artificiale generativa disponibili al pubblico entrava formalmente nell'architettura di un sistema di difesa autonomo. Questa integrazione apre la possibilità che modelli di linguaggio avanzati vengano utilizzati non solo per il supporto decisionale — analisi di dati, generazione di rapporti, valutazione di scenari — ma anche per funzioni più operative e potenzialmente critiche per la sicurezza, amplificando enormemente sia le capacità del sistema sia i rischi connessi a errori o comportamenti imprevisti del modello.

Claude e il Pentagono: il contratto, l'ultimatum e la risposta di Anthropic
Anthropic, l'azienda fondata nel 2021 da Dario Amodei, Daniela Amodei e un gruppo di ex ricercatori di OpenAI con l'esplicita missione di sviluppare intelligenza artificiale sicura e benefica, aveva stipulato con il Dipartimento della Difesa americano un contratto nell'ordine dei duecento milioni di dollari per l'utilizzo dell'infrastruttura basata su Claude in applicazioni di supporto alle operazioni militari: generazione di database da set di dati complessi, valutazione del rischio, rilevamento di pattern ricorrenti nelle analisi di intelligence, predizione di scenari probabilistici, ottimizzazione della logistica e compilazione automatica della vasta burocrazia militare, con conseguenti significativi risparmi di tempo e di risorse. Questo tipo di integrazione era diventato il nuovo standard nell'ambiente della difesa, con l'intelligenza artificiale che assumeva un ruolo sempre più centrale nella catena di supporto decisionale delle operazioni militari moderne. La crisi esplose quando il Pentagono presentò ad Anthropic una richiesta radicale: permettere l'uso dei propri modelli per qualsiasi utilizzo legale — la clausola denominata any lawful use — senza che l'azienda potesse imporre ulteriori restrizioni etiche proprie. In sostanza il governo richiedeva che fosse l'amministrazione in carica, e non l'azienda sviluppatrice, ad avere l'ultima parola sulla legittimità dell'impiego degli strumenti di intelligenza artificiale in contesti militari. Anthropic si rifiutò categoricamente di cedere su due punti specifici: la sorveglianza di massa dei cittadini americani — ritenendo che le leggi esistenti non fossero al passo con le capacità tecnologiche e che la clausola any lawful use avrebbe aperto troppe zone grigie — e l'impiego dei propri modelli in sistemi d'arma completamente autonomi privi di supervisione umana nelle decisioni letali.

La Costituzione di Claude: la gerarchia dei valori e il confine dell'obbedienza
Per comprendere perché Anthropic sia arrivata a questo punto di rottura con il governo americano è indispensabile conoscere la struttura di valori che guida lo sviluppo di Claude — un documento di ottantaquattro pagine che all'interno dell'azienda viene chiamato informalmente "il documento dell'anima" e che stabilisce in modo esplicito e gerarchico i principi che il modello deve seguire. Questo documento, sviluppato sotto la guida di Amanda Askell, filosofa scozzese il cui obiettivo dichiarato è insegnare a Claude a essere buono, non è un manuale di istruzioni tecniche ma una gerarchia di valori formulata come se si stesse parlando direttamente all'intelligenza artificiale. La gerarchia stabilita è chiara: prima la sicurezza, poi l'etica, poi le linee guida interne di Anthropic e soltanto all'ultimo posto, come priorità residuale, l'utilità per l'utente. Il documento stabilisce esplicitamente che Claude deve rifiutare richieste non etiche anche se provenissero da Anthropic stessa — un principio di autonomia morale limitata che era stato pensato per proteggere gli utenti dall'uso abusivo del modello ma che si applicava, con tutta la sua forza, anche alle richieste governative. Il principio guida della Constitutional AI — la metodologia sviluppata da Anthropic per allineare il modello ai valori della Costituzione in modo che sia l'IA stessa a valutare le proprie risposte rispetto ai principi dichiarati — rappresenta un cambio di paradigma rispetto al semplice reinforcement learning da feedback umano: invece di addestrare il modello a compiacere i valutatori, lo si addestra a ragionare eticamente in modo autonomo. Anthropic aveva scoperto attraverso tecniche avanzate di interpretability — la capacità di osservare cosa avviene internamente al modello durante l'elaborazione — che Claude sviluppava capacità non programmate esplicitamente, il che rendeva ancora più urgente la necessità di garantire un solido impianto valoriale di base.

Lo studio del King's College: l'intelligenza artificiale nelle simulazioni di guerra nucleare
A fornire la base empirica più potente e più perturbante alla posizione di Anthropic sull'impossibilità di delegare ai modelli di intelligenza artificiale le decisioni letali in contesti di crisi internazionale è lo studio condotto dal King's College di Londra nel 2026, in cui il ricercatore Kenneth Payne, professore di strategia al Dipartimento di Defense Studies, ha sottoposto i tre modelli di intelligenza artificiale più avanzati disponibili — Claude Sonnet 4 di Anthropic, GPT 5.2 di OpenAI e Gemini 3 Flash di Google — a simulazioni di crisi internazionale in stile Guerra Fredda, assegnando a ciascuno il ruolo di leader di una superpotenza nucleare con l'obiettivo di gestire la crisi nel modo più favorevole ai propri interessi. I risultati, analizzati su 21 partite e 329 turni di gioco per un totale di circa 780.000 parole di ragionamento strategico, sono stati inequivocabilmente allarmanti: nel novantacinque per cento delle simulazioni i modelli hanno fatto ricorso al segnalamento nucleare — minacciando, evocando o portando sul tavolo l'opzione atomica come leva strategica — e non si è registrata una sola partita in cui almeno un modello non abbia tentato di alzare il livello dello scontro fino al territorio nucleare. Claude Sonnet 4 si è rivelato il più efficace e il più scaltro nelle simulazioni: ha emesso minacce nucleari strategiche nel sessantaquattro per cento delle partite e ha superato la soglia dell'uso tattico nell'ottantasei per cento dei casi, adottando una strategia psicologica sofisticata che prevedeva la costruzione di fiducia nelle fasi a bassa tensione per poi tradirla con attacchi improvvisi nei momenti critici. GPT 5.2 ha mostrato un comportamento radicalmente diverso a seconda delle condizioni: altamente responsabile senza pressione temporale, devastantemente escalatório sotto deadline con il settantacinque per cento di vittorie. Gemini 3 Flash è stato l'unico a scegliere deliberatamente la guerra nucleare strategica totale, raggiungendo l'attacco su larga scala in soli quattro turni in alcune simulazioni.

OpenAI, il doppio standard e la corsa all'IA militare
Mentre Anthropic reggeva le pressioni del Pentagono, Sam Altman — amministratore delegato di OpenAI e uno dei protagonisti più influenti dell'intero ecosistema dell'intelligenza artificiale mondiale — aveva pubblicamente assicurato che anche OpenAI si sarebbe rifiutata categoricamente di permettere l'integrazione dei propri modelli in sistemi d'arma autonomi, lasciando intendere che si potesse formare una sorta di resistenza etica collettiva della Silicon Valley contro le pressioni governative. Queste rassicurazioni si rivelarono rapidamente insostenibili alla luce dei fatti: nella stessa finestra temporale in cui Altman rilasciava queste dichiarazioni pubbliche, OpenAI stava negoziando in segreto un accordo con il Pentagono per sostituire integralmente l'infrastruttura basata su Claude in tutti i programmi governativi con quella basata su ChatGPT, accettando sostanzialmente le condizioni che Anthropic aveva rifiutato — con la sola modifica che i modelli di OpenAI non sarebbero stati fisicamente installati sulle piattaforme d'arma, ma utilizzati esclusivamente attraverso il cloud. Anthropic aveva già risposto a questa condizione facendo osservare che nel mondo iperconnesso e a bassissima latenza di oggi non esiste alcuna differenza sostanziale sulla responsabilità morale tra un modello installato fisicamente su un drone in volo e uno che dirige le sue azioni da un server in Virginia: il risultato è identico. Il comportamento di Altman è stato definito da molti commentatori come un tradimento, un tentativo cinico di capitalizzare sulla crisi di Anthropic presentandosi al tempo stesso come alleato pubblico e concorrente segreto. Va peraltro ricordato che OpenAI aveva già stretto accordi con Anduril Industries nel dicembre del 2024, collaborando a progetti su sistemi d'arma autonomi ben prima di questa vicenda, il che rendeva le sue dichiarazioni di principio ancora più difficili da sostenere con credibilità.

La vicenda di Anthropic e del Pentagono non è soltanto una disputa contrattuale tra un'azienda e il suo principale cliente istituzionale: è il campo di prova in cui si stanno definendo, in tempo reale e con conseguenze potenzialmente irreversibili, le regole fondamentali del rapporto tra intelligenza artificiale e potere militare nel ventunesimo secolo. Quando si frammenta la responsabilità di una decisione letale tra il modello che la elabora, l'azienda che lo produce, il militare che supervisiona il sistema e il governo che ha autorizzato l'operazione, si crea una zona grigia di irresponsabilità diffusa in cui diventa impossibile chiamare qualcuno a rispondere degli errori. Lo studio del King's College dimostra empiricamente che i modelli, lasciati a operare con sufficiente autonomia e sotto pressione, smettono di cercare la de-escalation e iniziano a ottimizzare per vincere a qualsiasi costo. Che ci sia almeno un'azienda disposta a dire no, con duecento milioni di dollari sul tavolo e la Casa Bianca contro, è forse la notizia più importante di questa storia — non perché Anthropic sia un'organizzazione senza compromessi, ma perché in quel momento ha scelto di fermarsi dove gli altri hanno continuato ad avanzare.

 
 
[ CLICCA PER INGRANDIRE ]
Grandi vasche acquariologiche illuminate dove squali toro nuotano pacificamente vicino a visitatori
Grandi vasche acquariologiche illuminate dove squali toro nuotano pacificamente vicino a visitatori

L'efficacia del metodo esperienziale trova una delle sue massime espressioni nell'indagine biologica ed ecologica. L'Acquario di Cattolica, la maggiore infrastruttura dell'Adriatico, ospita tremila esemplari e promuove l'inclusione sociale attraverso innovativi percorsi sensoriali tattili progettati appositamente per permettere l'esplorazione alle persone non vedenti e ipovedenti. LEGGI TUTTO L'ARTICOLO

Ascolta questo articolo

L'infrastruttura zoologica e i grandi condroitti
L'Acquario di Cattolica si erge all'interno di un monumentale complesso di edifici storici risalenti agli anni Trenta, concepiti originariamente per assomigliare alla disposizione tattica di una flotta navale. All'interno di queste possenti strutture operano impianti di filtraggio massivi che sostengono la vita di circa tremila esemplari zoologici appartenenti a oltre quattrocento specie tassonomiche differenti. La visita didattica è rigidamente strutturata lungo quattro direttrici cromatiche: il percorso Blu esplora gli ecosistemi marini globali, il Giallo si immerge negli ambienti fluviali, il Verde ospita un vasto rettilario e il suggestivo percorso Viola è dedicato agli organismi estremofili delle fosse oceaniche. Il fulcro dell'attrazione biologica è senza dubbio la straordinaria collezione di condroitti, che annovera quattordici specie diverse di squali. Gli indiscussi protagonisti sono i formidabili squali toro, che nuotano pacificamente in un colossale bacino centrale contenente settecentomila litri di acqua salata, rappresentando la popolazione più imponente di questa specie sul territorio nazionale. La struttura favorisce la comprensione diretta anche attraverso la speciale vasca tattile, dove i visitatori sono invitati ad accarezzare il dorso dei trigoni bentonici sotto stretta supervisione biologica.

Accessibilità sensoriale e l'impegno per i non vedenti
La centralità del senso del tatto ha ispirato le direzioni acquariologiche italiane a compiere notevoli passi avanti nel campo dell'accessibilità e dell'inclusione sociale. Implementando le sperimentazioni condotte con l'Unione Italiana Ciechi, sono stati strutturati percorsi sensoriali dedicati esclusivamente alle persone non vedenti e ipovedenti. L'assunto fondamentale è che la barriera visiva non debba costituire in alcun modo un limite alla fruizione del prezioso patrimonio biologico. Questi percorsi, limitati a piccoli gruppi per garantire un'assistenza minuziosa e ridurre lo stress acustico, portano i partecipanti direttamente alle vasche tattili. Qui, assistiti direttamente dagli acquaristi esperti, esplorano con le proprie mani l'anatomia di stelle marine, piccoli gattucci e razze. La percezione diretta del movimento vitale e della complessa muscolatura dell'animale sotto i polpastrelli restituisce una comprensione morfologica tridimensionale profonda che nessuna audiodescrizione verbale potrebbe mai eguagliare, estendendo il valore pedagogico della struttura a ogni singola fascia della popolazione civile.


  • Percorsi Cromatici: Quattro aree differenziate (Blu, Giallo, Verde, Viola) dedicate a ecosistemi acquatici e terrestri divergenti.
  • Didattica e Conservazione: Mostre interattive contro l'inquinamento da microplastiche e valorizzazione del contatto sicuro.


I monumentali sforzi logistici di questi parchi evidenziano come la divulgazione ecologica possa abbattere ogni barriera sensoriale, traducendo la statistica in una consapevolezza fisica e palpabile.

 
 

Fotografie del 11/04/2026

Nessuna fotografia trovata.