\\ Home Page : Pubblicazioni
Di seguito gli articoli e le fotografie pubblicati nella giornata richiesta.
Articoli del 16/10/2025
Di Alex (pubblicato @ 17:00:00 in Storia dell'informatica, letto 8 volte)

Una composizione che mostra l'evoluzione del mouse: dal primo prototipo in legno di Engelbart a un moderno mouse da gaming ergonomico.
Oggi è un dispositivo onnipresente e dato per scontato, ma il mouse ha una storia affascinante che ha rivoluzionato l'interazione uomo-macchina. La sua invenzione, concepita negli anni '60 da Douglas Engelbart e sviluppata nei laboratori Xerox PARC, ha gettato le basi per l'interfaccia grafica moderna, trasformando il computer da uno strumento per pochi specialisti a un dispositivo accessibile a tutti. Ripercorriamo le tappe di questa evoluzione. ARTICOLO COMPLETO
L'intuizione di Douglas Engelbart
La storia del mouse inizia nel 1964, quando Douglas Engelbart, un ingegnere dello Stanford Research Institute, costruì il primo prototipo. Era un dispositivo rudimentale, un guscio di legno con due rotelle metalliche perpendicolari e un singolo pulsante. Engelbart lo chiamò "indicatore di posizione X-Y per un sistema di visualizzazione" e lo presentò al mondo nel 1968 durante una storica dimostrazione passata alla storia come "The Mother of All Demos", in cui mostrò anche l'ipertesto, la videoscrittura e le videoconferenze.
Lo sviluppo allo Xerox PARC e l'arrivo sul mercato
L'idea di Engelbart fu perfezionata negli anni '70 dai ricercatori dello Xerox PARC. Sostituirono le rotelle con una sfera metallica (trackball) che poteva ruotare in ogni direzione, rendendo il movimento più fluido. Questo nuovo design fu integrato nel rivoluzionario computer Xerox Alto nel 1973, il primo a utilizzare una metafora della scrivania con icone e finestre. Fu però la Apple a portare il mouse al grande pubblico, prima con il Lisa (1983) e poi, con successo planetario, con il primo Macintosh (1984), rendendolo lo standard de facto per l'interazione con i personal computer.
Dalla sfera al laser
Per decenni, il mouse a sfera ha dominato il mercato, ma presentava un problema: la sfera raccoglieva polvere e sporco, richiedendo una pulizia costante. La svolta arrivò alla fine degli anni '90 con l'introduzione del mouse ottico, che sostituì la meccanica con un LED e un piccolo sensore per tracciare il movimento. Poco dopo, la tecnologia si evolse ulteriormente con il mouse laser, ancora più preciso e capace di funzionare su quasi ogni superficie. Oggi, i mouse moderni integrano sensori ad altissima precisione (DPI), design ergonomici e connettività wireless, ma il principio fondamentale rimane quello immaginato da Engelbart quasi sessant'anni fa.
L'invenzione del mouse è una testimonianza di come un'idea semplice possa cambiare radicalmente il nostro rapporto con la tecnologia. Ha trasformato il computer in un'estensione della nostra mano, rendendo l'informatica visiva, intuitiva e accessibile. Ogni volta che clicchiamo su un'icona, stiamo rendendo omaggio alla visione pionieristica di Douglas Engelbart e dei ricercatori che hanno trasformato un blocco di legno in uno strumento indispensabile.

Il robot umanoide industriale DR02 di DEEP Robotics è progettato per operare in qualsiasi condizione atmosferica.
I robot umanoidi stanno finalmente uscendo dai laboratori di ricerca per entrare nel mondo reale. Non più prototipi delicati, ma macchine robuste pronte per il lavoro industriale. L'azienda cinese DEEP Robotics ha presentato il DR02, un robot umanoide che definisce come il primo al mondo di livello industriale in grado di operare in qualsiasi condizione meteorologica e in qualsiasi scenario. ARTICOLO COMPLETO
Il lancio del DR02 mira a superare una delle limitazioni chiave del settore: la scarsa adattabilità dei robot alle complesse condizioni del mondo reale. Questo umanoide è stato progettato per essere un lavoratore instancabile, 24 ore su 24, 7 giorni su 7, indipendentemente da pioggia, polvere o temperature estreme.
Progettato per il mondo reale: specifiche e capacità
Le specifiche tecniche del DR02 sono impressionanti e focalizzate sulla robustezza. La caratteristica principale è la protezione completa IP66, che lo rende totalmente protetto da polvere e getti d'acqua potenti. Può operare in un intervallo di temperature che va da -20°C a 55°C. Alto 175 cm, ha una velocità di camminata standard di 1.5 m/s e una massima di 4 m/s. È in grado di superare ostacoli come scale alte 20 cm e di affrontare pendenze fino a 20°. Può trasportare un carico utile fino a 20 kg. Inoltre, un design modulare a sgancio rapido consente una manutenzione veloce sul campo.
"All-Weather, All-Scenario": i casi d'uso
La sua capacità di resistere a qualsiasi condizione meteo sblocca un'ampia gamma di applicazioni industriali. Il DR02 è ideale per compiti come ispezioni di impianti all'aperto (centrali elettriche, siti chimici), pattugliamenti di sicurezza perimetrale in qualsiasi momento del giorno e della notte, e operazioni all'interno di fabbriche o magazzini dove la presenza di polvere o liquidi è comune. La sua versatilità lo rende una risorsa economicamente vantaggiosa, in grado di giustificare l'investimento iniziale grazie a un'operatività continua.
Cervello e sensi: intelligenza artificiale a bordo
Per navigare e operare autonomamente in ambienti complessi, il DR02 è dotato di un potente sistema di calcolo e percezione. A bordo è presente un'unità di calcolo da 275 TOPS (trilioni di operazioni al secondo) che elabora i dati provenienti da un sistema multi-sensore (probabilmente una combinazione di LiDAR, telecamere e sensori inerziali). Questo "cervello" permette al robot di avere una percezione dell'ambiente in tempo reale, di pianificare percorsi per evitare ostacoli e di eseguire i suoi compiti in modo autonomo.
Il contesto del mercato: la corsa all'umanoide
Il lancio del DR02 avviene in un momento di grande fermento nel settore della robotica umanoide. Mentre aziende come Boston Dynamics continuano a spingere i limiti della mobilità, nuove realtà, soprattutto cinesi, stanno accelerando la commercializzazione. Un esempio è Unitree, il cui robot umanoide G1 è già in vendita sul sito americano di Walmart, puntando a un mercato più ampio e accademico. L'approccio di DEEP Robotics è diverso: punta direttamente al mercato industriale di fascia alta (B2B) con un prodotto specializzato e ultra-resistente, delineando una delle due principali strategie che probabilmente caratterizzeranno il settore nei prossimi anni.
Il DR02 di DEEP Robotics non è più fantascienza. È uno strumento di lavoro concreto che rappresenta un passo significativo verso l'automazione di compiti fisici in ambienti non strutturati. Questi lavoratori metallici potrebbero presto diventare una presenza comune in molti settori industriali, ridefinendo i concetti di produttività, logistica e sicurezza.
Di Alex (pubblicato @ 16:00:00 in Storia dell'informatica, letto 15 volte)

Una replica del primo transistor a contatto puntiforme inventato ai Bell Labs, un dispositivo dall'aspetto rudimentale che ha cambiato il mondo.
Potrebbe essere l'invenzione più importante del XX secolo, eppure pochi ne conoscono la storia. Il 23 dicembre 1947, nei Bell Labs, John Bardeen, Walter Brattain e William Shockley dimostrarono il funzionamento del primo transistor a contatto puntiforme. Questo piccolo dispositivo ha sostituito le ingombranti e inaffidabili valvole termoioniche, dando il via alla miniaturizzazione dell'elettronica e rendendo possibile ogni dispositivo che usiamo oggi. ARTICOLO COMPLETO
Prima del transistor: l'era delle valvole
Per comprendere l'importanza del transistor, bisogna pensare ai computer dell'epoca, come l'ENIAC. Erano macchine colossali, che occupavano intere stanze, consumavano enormi quantità di energia e richiedevano una manutenzione costante. Il loro funzionamento si basava sulle valvole termoioniche, essenzialmente delle lampadine che agivano da interruttori. Le valvole erano grandi, fragili, producevano molto calore e si bruciavano frequentemente, rendendo i computer estremamente inaffidabili.
La svolta ai Bell Labs
Il team dei Bell Labs stava cercando un'alternativa a stato solido. L'idea era di utilizzare i semiconduttori, materiali come il germanio o il silicio, per controllare il flusso di elettricità. Dopo anni di ricerca, l'esperimento decisivo avvenne a dicembre del 1947: applicando due contatti d'oro a un cristallo di germanio, Bardeen e Brattain riuscirono ad amplificare un segnale elettrico. Avevano creato il primo transistor funzionante. Shockley, il supervisore del gruppo, sviluppò poco dopo una versione più robusta e producibile in massa, il transistor a giunzione. Per la loro scoperta, i tre scienziati condivisero il Premio Nobel per la Fisica nel 1956.
L'impatto sulla tecnologia moderna
L'impatto del transistor fu epocale. Essendo piccolo, efficiente, economico e affidabile, permise la creazione di dispositivi elettronici sempre più compatti e potenti. Dalle prime radio a transistor tascabili degli anni '50 si passò ai circuiti integrati (chip) degli anni '60, che contenevano migliaia di transistor su una singola piastrina di silicio. Questo processo di miniaturizzazione, descritto dalla Legge di Moore, ha portato ai microprocessori moderni, che contengono miliardi di transistor e alimentano i nostri smartphone, computer e ogni altro dispositivo digitale.
Senza l'invenzione del transistor, il mondo come lo conosciamo non esisterebbe. Non avremmo smartphone, computer portatili, internet o l'esplorazione spaziale. Quel rudimentale dispositivo creato ai Bell Labs non è stato solo un progresso tecnologico, ma la vera e propria scintilla che ha innescato la rivoluzione digitale, trasformando per sempre la società e il modo in cui viviamo, lavoriamo e comunichiamo.

Una vista satellitare di strane formazioni nuvolose esagonali sopra l'oceano nel Triangolo delle Bermuda.
Il Triangolo delle Bermuda affascina e inquieta da decenni, ma una teoria scientifica ha guadagnato terreno per spiegare alcune delle sue misteriose sparizioni. I ricercatori hanno identificato tramite satellite delle peculiari formazioni nuvolose esagonali, capaci di generare "bombe d'aria" con venti fino a 270 km/h e onde anomale, offrendo una spiegazione razionale a un fenomeno a lungo avvolto nel mito del paranormale. ARTICOLO COMPLETO
Nuvole dalla forma insolita
Utilizzando i dati dei satelliti meteorologici, un team di scienziati dell'Università del Colorado ha osservato la presenza ricorrente di nubi con contorni perfettamente esagonali sopra la porzione occidentale del Triangolo delle Bermuda. Queste formazioni, che possono estendersi per decine di chilometri, sono un fenomeno raro ma conosciuto in meteorologia. Sono associate a correnti discensionali estremamente potenti, note come "microbursts" o, più colloquialmente, "bombe d'aria".
La teoria delle "bombe d'aria"
Secondo la teoria, queste nubi agirebbero come dei veri e propri cannoni. L'aria fredda e densa al loro interno precipita verso l'oceano ad altissima velocità, colpendo la superficie del mare con una forza devastante. L'impatto può generare venti paragonabili a quelli di un uragano (fino a 270 km/h) e creare onde anomale alte decine di metri. Un aereo che si trovasse a volare attraverso una di queste "bombe d'aria" verrebbe spinto verso il basso con una forza incontrastabile, mentre una nave potrebbe essere capovolta e affondata in pochi istanti da onde così improvvise e violente.
Una spiegazione, non la spiegazione
È importante sottolineare che questa teoria non pretende di spiegare tutti i casi di sparizione associati al Triangolo delle Bermuda, molti dei quali sono stati smentiti o ricondotti a errori umani e normali avarie. Tuttavia, fornisce un meccanismo fisico plausibile e scientificamente fondato per spiegare come aerei e navi possano scomparire senza lasciare traccia in condizioni meteorologiche apparentemente normali. Il fenomeno dei microbursts è ben documentato e rappresenta un pericolo noto per l'aviazione. La particolarità, in questo caso, sarebbe la frequenza e l'intensità con cui sembrano manifestarsi in quella specifica area.
La leggenda del Triangolo delle Bermuda probabilmente non svanirà, ma la scienza continua a fornire pezzi del puzzle. La teoria delle nubi esagonali e delle "bombe d'aria" rappresenta uno degli sforzi più convincenti per portare un fenomeno dal regno del paranormale a quello della meteorologia estrema, dimostrando ancora una volta come le forze della natura possano essere più sorprendenti e terrificanti di qualsiasi mito.

La maschera funeraria dorata di Tutankhamon in primo piano, con geroglifici e decorazioni egizie sullo sfondo.
La tomba di Tutankhamon, scoperta quasi intatta da Howard Carter nel 1922, potrebbe non aver ancora svelato tutti i suoi segreti. Un team internazionale di archeologi sta utilizzando una nuova tecnica di georadar a microonde per scansionare le pareti della camera funeraria, alla ricerca di prove a sostegno di una teoria controversa: la presenza di camere nascoste che potrebbero contenere la tomba della regina Nefertiti. ARTICOLO COMPLETO
La teoria delle camere segrete
La teoria, proposta originariamente dall'egittologo Nicholas Reeves, si basa su un'analisi dettagliata delle pitture murali della camera funeraria. Reeves ha notato delle anomalie, come linee e contorni che suggeriscono la presenza di porte sigillate e poi intonacate. Secondo la sua ipotesi, la tomba di Tutankhamon sarebbe in realtà solo l'anticamera di una tomba molto più grande e importante, quella di Nefertiti, la sua matrigna. La morte improvvisa e prematura del giovane faraone avrebbe costretto i sacerdoti a riadattare in fretta e furia una tomba non destinata a lui.
Nuova tecnologia per un vecchio mistero
I tentativi passati di sondare le pareti con il georadar hanno dato risultati contrastanti e inconcludenti. Questa nuova indagine, approvata dal Ministero delle Antichità egiziano, utilizzerà una tecnologia molto più avanzata. Il georadar a microonde a banda ultralarga (ULB-GPR) può penetrare la roccia con una risoluzione molto più alta, distinguendo tra cavità vuote, roccia solida e materiali diversi. Gli scienziati sperano di creare una mappa 3D dettagliata di ciò che si trova dietro le pareti dipinte, senza danneggiare in alcun modo il sito.
La possibilità di trovare la tomba inviolata di Nefertiti, una delle figure più potenti e misteriose dell'antico Egitto, sarebbe una delle scoperte archeologiche più importanti di tutti i tempi. Sebbene molti esperti rimangano scettici, questa nuova indagine tecnologica riaccende la speranza. Indipendentemente dal risultato, lo studio approfondirà la nostra conoscenza della costruzione della tomba e della storia tumultuosa di quel periodo, aggiungendo un nuovo capitolo all'infinita saga del faraone ragazzo.
Di Alex (pubblicato @ 13:00:00 in Fantascienza-Misteri, letto 26 volte)

Un'immagine evocativa in stile cyberpunk di una Los Angeles notturna e piovosa nel 2099, con auto volanti e ologrammi giganti.
L'universo di Blade Runner è pronto a espandersi ancora. Amazon ha confermato ufficialmente la produzione di "Blade Runner 2099", una serie TV live-action che fungerà da sequel diretto di "Blade Runner 2049". Con Ridley Scott a bordo come produttore esecutivo e Silka Luisa (Shining Girls) come showrunner, il progetto si preannuncia come uno degli eventi televisivi più attesi dei prossimi anni, con un debutto previsto per fine 2026. ARTICOLO COMPLETO
Cosa sappiamo della trama
I dettagli sulla trama sono ancora scarsi, ma il titolo stesso ci dà un'indicazione fondamentale: la storia si svolgerà 50 anni dopo gli eventi del film di Denis Villeneuve. Silka Luisa ha dichiarato che la serie esplorerà "la prossima evoluzione dell'umanità e dell'intelligenza artificiale". Ci si può aspettare che vengano affrontati temi come la longevità dei replicanti Nexus-9, le conseguenze della rivoluzione accennata in "2049" e il ruolo della Tyrell Corporation (o di ciò che ne resta) in questo nuovo futuro. Ridley Scott ha confermato che il primo episodio getterà le basi per un mondo profondamente cambiato, ma visivamente e tematicamente coerente con i film precedenti.
Produzione e cast
La produzione è di altissimo livello. Oltre a Scott, anche Michael Green, co-sceneggiatore di "Blade Runner 2049", è coinvolto come produttore. La regia dei primi episodi è stata affidata a Jonathan van Tulleken, noto per il suo lavoro sulla acclamata serie "Shōgun". Per quanto riguarda il cast, non ci sono ancora annunci ufficiali, ma circolano voci insistenti sulla possibile partecipazione di Harrison Ford in un ruolo di collegamento, anche se probabilmente marginale. È improbabile, invece, un ritorno di Ryan Gosling, il cui arco narrativo si è concluso nel film precedente.
"Blade Runner 2099" ha il potenziale per essere un capolavoro o un'occasione mancata. L'eredità dei due film è immensa, ma il team produttivo di altissimo profilo e la promessa di espandere questo affascinante universo narrativo lasciano ben sperare. I fan dovranno armarsi di pazienza, ma l'attesa per tornare a immergersi nelle strade piovose di una Los Angeles cyberpunk sarà, si spera, ampiamente ripagata.
Di Alex (pubblicato @ 12:00:00 in Smartphone Android, letto 53 volte)

Il Samsung Galaxy A35 si posiziona come uno dei migliori smartphone nella sua fascia di prezzo.
La fascia media del mercato smartphone è un campo di battaglia affollatissimo, ma Samsung continua a dominarla con una formula precisa: portare caratteristiche un tempo riservate ai top di gamma a un prezzo accessibile. Il nuovo Galaxy A35 è l'ultima incarnazione di questa strategia, un dispositivo che promette un'esperienza quasi da flagship senza svuotare il portafoglio. ARTICOLO COMPLETO
Il Samsung Galaxy A35 si presenta come un dispositivo con specifiche da medio di gamma che lo rendono estremamente interessante, offrendo un pacchetto bilanciato e affidabile. Analizziamone ogni aspetto in dettaglio.
Design e display: un'esperienza visiva premium
Il punto di forza che salta subito all'occhio è il display. Il Galaxy A35 monta un pannello Super AMOLED da 6,6 pollici con risoluzione Full HD+ (2340 x 1080 pixel) e una frequenza di aggiornamento fino a 120 Hz. Questo si traduce in colori vividi, neri assoluti e una fluidità eccezionale, caratteristiche difficili da trovare in questa fascia di prezzo. La protezione è garantita dal vetro Gorilla Glass Victus Plus, mentre la certificazione IP67 per la resistenza ad acqua e polvere aggiunge una tranquillità tipica dei modelli superiori.
Hardware e prestazioni: il cuore Exynos 1380
A muovere il dispositivo troviamo il processore Samsung Exynos 1380, un chip octa-core realizzato con processo produttivo a 5 nm che garantisce un buon equilibrio tra prestazioni ed efficienza energetica. È affiancato da 6 o 8 GB di RAM e 128 o 256 GB di memoria interna, espandibile fino a 1 TB tramite microSD. Nell'uso quotidiano, questa configurazione offre un'esperienza fluida e reattiva, gestendo senza problemi multitasking e app comuni. L'uso di un chip proprietario permette a Samsung di ottimizzare l'integrazione hardware-software e di controllare i costi di produzione.
Comparto fotografico: 50 megapixel stabilizzati
La fotografia è un altro fiore all'occhiello. Il sensore principale è un'unità da 50 MP con apertura f/1.8 e, soprattutto, stabilizzazione ottica dell'immagine (OIS). Questa caratteristica, non scontata a questo prezzo, permette di ottenere scatti nitidi e video stabili anche in condizioni di scarsa luminosità. Il comparto è completato da un sensore ultra-grandangolare da 8 MP e da un sensore macro da 5 MP. Sebbene la fotocamera principale sia la vera star, il pacchetto complessivo è definito da molti il migliore nella sua categoria di prezzo.
Autonomia e ricarica: tanta durata, poca velocità
La batteria da 5.000 mAh garantisce un'ottima autonomia, consentendo di arrivare a fine giornata anche con un uso intenso. Il lato debole, tuttavia, è la ricarica. Il supporto alla ricarica "rapida" a 25 watt è ormai superato da molti concorrenti, anche più economici, che offrono velocità decisamente superiori. È un compromesso che si deve accettare in cambio delle altre caratteristiche premium.
Software e aggiornamenti: la promessa di lunga vita
Forse il più grande valore aggiunto del Galaxy A35 è il software. Arriva con Android 14 e la One UI 6.1, ma soprattutto gode della politica di aggiornamenti di Samsung: 4 nuove versioni di Android e 5 anni di patch di sicurezza. Questa garanzia di longevità e sicurezza è un fattore differenziante enorme, che trasforma l'acquisto in un investimento a lungo termine.
In conclusione, il Samsung Galaxy A35 si conferma un acquisto eccellente. Non è il più potente né il più veloce a ricaricarsi, ma offre un pacchetto incredibilmente bilanciato. Con il suo display superbo, una fotocamera principale di alta qualità e una politica di aggiornamenti senza rivali, si candida a essere il vero re della fascia media, ideale per chi cerca affidabilità e durata nel tempo.
Di Alex (pubblicato @ 12:00:00 in Scienza e Spazio, letto 34 volte)

Un'illustrazione stilizzata che mostra una scatola chiusa. All'interno, la figura di un gatto è rappresentata sia viva che morta contemporaneamente, a simboleggiare la sovrapposizione quantistica.
Uno dei più celebri e fraintesi esperimenti mentali della scienza, il paradosso del gatto di Schrödinger, fu concepito dal fisico Erwin Schrödinger nel 1935 non per dimostrare che un gatto potesse essere contemporaneamente vivo e morto, ma per evidenziare l'assurdità che derivava dall'applicare le bizzarre regole della meccanica quantistica al mondo macroscopico che esperiamo tutti i giorni. Analizziamo cosa rappresenta davvero. ARTICOLO COMPLETO
L'esperimento mentale
Immaginiamo di chiudere un gatto in una scatola d'acciaio insieme a un meccanismo infernale: una fiala di veleno e un martelletto pronto a romperla. Il martelletto è collegato a un contatore Geiger che monitora un singolo atomo radioattivo. In un dato intervallo di tempo, poniamo un'ora, l'atomo ha esattamente il 50% di probabilità di decadere e il 50% di probabilità di non decadere. Se l'atomo decade, il contatore Geiger scatta, il martelletto rompe la fiala e il gatto muore. Se non decade, il gatto vive.
La sovrapposizione quantistica
Secondo l'interpretazione di Copenaghen della meccanica quantistica, fino a quando non viene effettuata un'osservazione, l'atomo si trova in uno stato di "sovrapposizione": non è né decaduto né non decaduto, ma entrambe le cose contemporaneamente. Schrödinger, con il suo paradosso, estende questa stranezza al mondo macroscopico: se lo stato dell'atomo è indeterminato, allora anche il destino del gatto, che dipende da esso, deve essere indeterminato. Fino a quando non apriamo la scatola per osservare, il gatto non è né vivo né morto, ma si trova in una macabra sovrapposizione di "gatto vivo" e "gatto morto".
Il significato del paradosso
L'atto di aprire la scatola e guardare dentro è l' "osservazione" che costringe il sistema a "scegliere" uno stato definito: l'atomo o è decaduto o non lo è, e il gatto o è vivo o è morto. Questo collasso della funzione d'onda è uno dei concetti più controintuitivi della fisica. Schrödinger non credeva che un gatto potesse letteralmente essere in due stati contemporaneamente. Il suo era un argomento per assurdo, progettato per criticare l'interpretazione di Copenaghen e per evidenziare il problema del "confine" tra il mondo quantistico (dove la sovrapposizione è la norma) e il mondo classico (dove non lo è).
Il paradosso del gatto di Schrödinger rimane uno strumento pedagogico potentissimo per introdurre il concetto di sovrapposizione e il ruolo dell'osservatore nella meccanica quantistica. Non ci dice nulla sulla biologia dei gatti, ma ci costringe a confrontarci con una realtà, quella subatomica, dove le regole della nostra intuizione quotidiana cessano di essere valide, aprendo le porte a un universo molto più strano e affascinante di quanto possiamo immaginare.
Di Alex (pubblicato @ 11:00:00 in Scienza e Spazio, letto 63 volte)

Una rappresentazione artistica dell'universo primordiale con onde gravitazionali che increspano lo spaziotempo.
Un nuovo studio basato sui dati raccolti dagli array di pulsar timing (PTA) ha rivelato un "ronzio" di fondo di onde gravitazionali a bassissima frequenza che pervade l'universo. Sebbene previsto dalla teoria, l'intensità di questo segnale è molto più alta di quanto i modelli standard si aspettassero, suggerendo la presenza di fenomeni cosmologici sconosciuti o la necessità di rivedere le nostre teorie sull'universo primordiale. ARTICOLO COMPLETO
Ascoltare l'universo con le pulsar
A differenza di LIGO e Virgo, che rilevano onde gravitazionali ad alta frequenza generate da eventi violenti come fusioni di buchi neri, gli esperimenti PTA come NANOGrav usano le pulsar millisecondo come una rete di orologi cosmici di precisione. Queste stelle di neutroni ruotano centinaia di volte al secondo, emettendo fasci di onde radio a intervalli regolarissimi. Il passaggio di un'onda gravitazionale a bassissima frequenza "stira" e "comprime" lo spaziotempo tra la Terra e una pulsar, causando una minuscola ma rilevabile variazione nel tempo di arrivo dei suoi segnali.
Un segnale troppo forte
Dopo oltre 15 anni di osservazioni, i dati combinati di diversi PTA hanno confermato con un'altissima significatività statistica la presenza di questo fondo stocastico di onde gravitazionali. La fonte più probabile sono le coppie di buchi neri supermassicci che spiraleggiano lentamente l'uno verso l'altro al centro delle galassie in fusione. Tuttavia, i modelli astrofisici attuali che simulano queste fusioni non riescono a spiegare l'ampiezza del segnale osservato: è da due a tre volte più intenso del previsto.
Nuova fisica all'orizzonte?
Questa discrepanza ha acceso l'entusiasmo della comunità scientifica, poiché potrebbe essere la prima prova di "nuova fisica". Tra le ipotesi alternative, vi sono le vibrazioni di stringhe cosmiche, transizioni di fase nell'universo primordiale o persino forme esotiche di materia oscura. I prossimi anni saranno cruciali: l'aumento della sensibilità dei PTA, grazie all'inclusione di più pulsar e a un periodo di osservazione più lungo, permetterà di mappare questo fondo con maggiore precisione, aiutando i cosmologi a distinguere tra le diverse teorie e, forse, a scoprire un capitolo completamente nuovo della storia del cosmo.
La scoperta del fondo di onde gravitazionali a bassa frequenza non è un punto di arrivo, ma l'inizio di una nuova era per l'astronomia. Il "ronzio" dell'universo è più forte del previsto, e capire il perché potrebbe costringerci a riconsiderare alcuni degli assunti fondamentali sulla formazione delle galassie e sull'evoluzione dell'universo stesso. L'indagine è appena iniziata, e le risposte promettono di essere rivoluzionarie.

Una rappresentazione artistica di un disco volante precipitato nel deserto del New Mexico, con detriti metallici sparsi al suolo.
Nel luglio del 1947, qualcosa precipitò in un ranch vicino a Roswell, New Mexico. Da allora, l'incidente è diventato il caso più iconico e dibattuto della storia dell'ufologia. Ma cosa accadde veramente? Analizzando i fatti storici e le spiegazioni ufficiali fornite dall'aeronautica militare statunitense, è possibile tracciare un quadro molto più terrestre, seppur affascinante, di un evento trasformato in leggenda dal folklore e dalla segretezza militare. ARTICOLO COMPLETO
I fatti iniziali e il comunicato stampa
Tutto iniziò quando un allevatore, W.W. "Mac" Brazel, scoprì un campo di strani detriti metallici e di gomma. Informato lo sceriffo locale, la questione arrivò rapidamente alla base aerea di Roswell, che inviò il maggiore Jesse Marcel a investigare. Inizialmente, l'esercito emise un comunicato stampa sensazionale, annunciando il recupero di un "disco volante". Tuttavia, poche ore dopo, la narrativa cambiò drasticamente: i detriti appartenevano a un pallone meteorologico, e il maggiore Marcel fu fotografato con i resti di questo pallone per smentire la storia.
La spiegazione ufficiale: il progetto Mogul
Per decenni, la spiegazione del pallone sonda rimase quella ufficiale, ma non convinse mai del tutto la comunità ufologica. Solo negli anni '90, l'US Air Force declassificò una serie di documenti che rivelarono la vera natura dell'oggetto: si trattava di un pallone ad alta quota del Progetto Mogul, un programma militare top-secret volto a monitorare eventuali test nucleari sovietici tramite sensori acustici trasportati da palloni stratosferici. I materiali dei detriti trovati da Brazel (stagnola riflettente, nastro adesivo con simboli, travi di balsa) erano perfettamente compatibili con quelli usati per questi palloni.
La nascita di un mito
La segretezza che circondava il Progetto Mogul, unita alla ritrattazione frettolosa e poco convincente dell'esercito, creò un terreno fertile per le teorie del complotto. Negli anni successivi, testimoni (spesso con ricordi emersi decenni dopo) iniziarono a parlare di corpi alieni e navicelle intatte, alimentando un mito che è cresciuto a dismisura, culminando in libri, film e persino nel famoso video dell' "autopsia aliena" (poi rivelatosi un falso). La spiegazione del Progetto Mogul, sebbene meno eccitante, è supportata da prove documentali e offre un quadro coerente di come un incidente militare segreto sia stato interpretato come un evento extraterrestre.
Il caso Roswell è un esempio perfetto di come la segretezza governativa e il desiderio umano di credere nello straordinario possano creare una leggenda quasi indistruttibile. Sebbene le prove indichino una spiegazione convenzionale legata allo spionaggio della Guerra Fredda, il disco volante di Roswell continua a vivere nell'immaginario collettivo, a testimonianza del fascino intramontabile dei misteri dello spazio e della domanda "siamo soli?".
Di Alex (pubblicato @ 09:00:00 in Fantascienza-Misteri, letto 48 volte)

Il celebre fotogramma del filmato di Patterson-Gimlin del 1967, che mostra la presunta creatura Bigfoot mentre cammina nella foresta.
Il Bigfoot, o Sasquatch, è una delle figure più radicate nel folklore nordamericano e un caposaldo della criptozoologia. Nonostante decenni di presunti avvistamenti, impronte e filmati sgranati, la comunità scientifica rimane scettica. Ma quali sono le "prove" a sostegno della sua esistenza, e perché la scienza non le ritiene sufficienti? Analizziamo il fenomeno in modo critico e obiettivo, al di là del mito. ARTICOLO COMPLETO
Le prove principali: filmati e impronte
La prova più famosa a favore del Bigfoot è il filmato girato da Roger Patterson e Bob Gimlin nel 1967 a Bluff Creek, in California. Il breve filmato mostra una figura alta e pelosa che cammina con andatura bipede. Sebbene iconico, il filmato è molto controverso: molti esperti di effetti speciali e anatomisti ritengono che si tratti di un uomo in un costume, evidenziando incongruenze nella muscolatura e nel movimento. Altre prove comuni sono le grandi impronte ritrovate nelle foreste. Tuttavia, la maggior parte di queste si è rivelata essere opera di burloni o errate identificazioni di tracce di animali noti (come orsi) deformate dal terreno.
L'analisi del DNA e l'assenza di fossili
Negli ultimi anni, sono stati condotti diversi studi genetici su presunti campioni di peli e tessuti di Bigfoot. Un'analisi completa del 2014, guidata dal genetista Bryan Sykes dell'Università di Oxford, ha esaminato decine di campioni provenienti da tutto il mondo. I risultati sono stati deludenti per i sostenitori del Bigfoot: la maggior parte dei campioni apparteneva a orsi, lupi, mucche e altri animali conosciuti. Un altro grande ostacolo per la tesi del Bigfoot è la totale assenza di prove fossili. Per una popolazione di primati di grandi dimensioni possa sopravvivere e riprodursi per secoli, dovrebbe lasciare tracce nel record fossile, cosa che non è mai avvenuta.
Dal punto di vista scientifico, non esiste alcuna prova credibile che supporti l'esistenza del Bigfoot. Le prove aneddotiche, i filmati sfuocati e le impronte non reggono a un'analisi rigorosa. Il fenomeno Bigfoot è meglio compreso come un potente mito moderno, un prodotto del folklore, della psicologia umana (la pareidolia, il desiderio di credere) e della vastità selvaggia del continente nordamericano. Rappresenta il nostro fascino per l'ignoto e per l'idea che, forse, non abbiamo ancora scoperto tutto.
Di Alex (pubblicato @ 07:00:00 in Storia dell'informatica, letto 68 volte)

Il Kenbak-1, progettato nel 1971, è riconosciuto come il primo personal computer al mondo.
La narrazione comune colloca la nascita del personal computer a metà degli anni '70, con l'Apple II o il kit dell'Altair 8800. Ma la storia è diversa. Il primo vero PC è nato prima, nel 1971, in un'epoca dominata da mainframe grandi come stanze. Si chiamava Kenbak-1 e fu il frutto della visione di un uomo che immaginò un computer per l'individuo prima ancora che esistesse il microprocessore. ARTICOLO COMPLETO
Nel 1986, il Computer Museum di Boston lanciò un concorso per determinare quale fosse stato il primo vero personal computer. Il vincitore non fu un prodotto di Apple o Microsoft, ma il Kenbak-1 di John Blankenbaker, un dispositivo che anticipò la rivoluzione informatica di diversi anni.
John Blankenbaker e la sua visione
All'inizio degli anni '70, i computer erano strumenti inaccessibili, riservati a governi e grandi aziende. In questo contesto, l'idea di un computer "personale" era a dir poco rivoluzionaria. John Blankenbaker, un ingegnere informatico, ebbe la visione di creare una macchina economica e accessibile, non per il business, ma per scopi educativi. Voleva uno strumento che potesse insegnare i principi della programmazione e della logica informatica. Lavorando da solo nel suo garage, progettò e costruì il computer, scrivendo anche tutti i manuali di riferimento. Il suo obiettivo era venderlo a 750 dollari, un prezzo incredibilmente basso per l'epoca.
Anatomia del primo PC: interruttori e luci
Il Kenbak-1 era un prodotto del suo tempo, un'epoca precedente all'invenzione del microprocessore. La sua architettura non era basata su un singolo chip CPU, ma su circuiti integrati a piccola e media scala (SSI e MSI). La sua memoria era di soli 256 byte. Ma la caratteristica più distintiva era la sua interfaccia: non c'erano né schermo né tastiera. L'input veniva inserito tramite una serie di interruttori sul pannello frontale, e l'output veniva letto attraverso una fila di luci. Per usarlo, bisognava "parlare" con la macchina nel suo linguaggio nativo, il binario. Questo lo rendeva uno strumento educativo potente, ma anche incredibilmente ostico per chiunque non fosse un appassionato.
Il fallimento commerciale e l'arrivo dell'Altair
Nonostante la visione pionieristica, il Kenbak-1 fu un fallimento commerciale. Blankenbaker riuscì a vendere solo una quarantina di unità prima di chiudere l'azienda nel 1973. Il suo prodotto era arrivato troppo presto, prima che si formasse una vera cultura hobbistica attorno all'informatica. Il successo arrise invece, nel 1975, al MITS Altair 8800. Basato sul nuovo microprocessore Intel 8080 e presentato come un kit da assemblare sulla rivista "Popular Electronics", l'Altair catturò l'immaginazione di una nascente comunità di appassionati di elettronica, generando migliaia di ordini e dando il via alla rivoluzione. Il suo successo fu tanto culturale e di marketing quanto tecnologico.
Sebbene dimenticato per anni, il Kenbak-1 si è guadagnato il suo posto nella storia. Non fu un successo, ma rappresentò la prima, coraggiosa incarnazione fisica dell'idea di un computer per l'individuo. Fu un passo fondamentale, un'intuizione geniale che anticipò di anni la rivoluzione che avrebbe cambiato per sempre il nostro mondo, dimostrando che le grandi idee spesso precedono la tecnologia e il mercato necessari per realizzarle.
Di Alex (pubblicato @ 07:00:00 in Nuove Tecnologie, letto 88 volte)

Un'immagine macro di un processore futuristico con chiplet ottici che emettono deboli fasci di luce, interconnessi da guide d'onda fotoniche.
La legge di Moore sta raggiungendo i suoi limiti fisici, ma una nuova tecnologia promette di aprire un'era di performance inimmaginabili: i chiplet ottici. Sostituendo le connessioni elettriche tra i core di un processore con impulsi di luce, la fotonica del silicio potrebbe eliminare i colli di bottiglia della comunicazione dati, portando a un'efficienza energetica e a una velocità di calcolo ordini di grandezza superiori a quelle attuali. ARTICOLO COMPLETO
Il problema del "muro di memoria"
Nei processori moderni, la velocità di calcolo dei singoli core è aumentata esponenzialmente, ma la velocità con cui questi core possono comunicare tra loro e con la memoria (la larghezza di banda) non ha tenuto il passo. Questo crea un "muro di memoria", un collo di bottiglia che limita le prestazioni complessive, specialmente nei carichi di lavoro dell'intelligenza artificiale e dell'analisi di big data. Le connessioni elettriche in rame, infatti, consumano molta energia, generano calore e perdono integrità del segnale su distanze anche minime all'interno di un chip.
La soluzione: comunicare con la luce
La fotonica del silicio propone di risolvere questo problema incidendo minuscole "guide d'onda" direttamente sul silicio, creando dei veri e propri circuiti ottici. Invece di elettroni che si muovono attraverso fili di rame, sono i fotoni (particelle di luce) a viaggiare in queste guide. I vantaggi sono enormi: la luce viaggia più velocemente, non genera calore per resistenza, non subisce interferenze elettromagnetiche e può trasportare molti più dati contemporaneamente utilizzando diverse lunghezze d'onda (colori) sulla stessa guida.
Dai laboratori ai data center
Aziende come Intel, Ayar Labs e GlobalFoundries stanno già producendo i primi prototipi di processori con chiplet ottici. Questi "co-packaged optics" integrano i componenti fotonici direttamente accanto ai chip di calcolo. Un recente prototipo presentato su Nature ha dimostrato una larghezza di banda di interconnessione superiore di dieci volte rispetto alle migliori soluzioni elettriche, con un consumo energetico ridotto del 95%. Sebbene la tecnologia sia ancora costosa, il suo primo campo di applicazione saranno i data center, dove l'efficienza energetica e la velocità di calcolo sono cruciali.
I chiplet ottici non sono più fantascienza. Rappresentano la prossima, inevitabile evoluzione dell'hardware per il calcolo ad alte prestazioni. Sostituendo i fili con la luce, questa tecnologia promette di abbattere le barriere che oggi limitano la potenza dei nostri computer, aprendo la strada a modelli di IA più complessi, simulazioni scientifiche più accurate e un'infrastruttura cloud più veloce ed efficiente dal punto di vista energetico.
Fotografie del 16/10/2025
Nessuna fotografia trovata.
|