\\ Home Page : Pubblicazioni
Di seguito gli articoli e le fotografie pubblicati nella giornata richiesta.
Articoli del 16/10/2025
Di Alex (pubblicato @ 22:00:00 in Scienza e Spazio, letto 18 volte)

Il prototipo di Starship di SpaceX che esegue un ammaraggio controllato nell'oceano, con i motori Raptor che si riaccendono per la manovra finale.
Un passo storico per l'esplorazione spaziale. Durante il suo ultimo volo di prova, il prototipo di Starship di SpaceX ha completato con successo l'intera sequenza di rientro atmosferico, eseguendo per la prima volta un ammaraggio morbido e controllato nel Golfo del Messico. Questo traguardo fondamentale dimostra la fattibilità della manovra di atterraggio e apre la strada ai futuri tentativi di recupero al volo del veicolo. ARTICOLO COMPLETO
La manovra "belly-flop"
Dopo aver raggiunto l'apogeo di circa 10 km, il prototipo SN28 ha iniziato la sua discesa, posizionandosi in orizzontale per massimizzare la resistenza atmosferica, una manovra che Elon Musk ha soprannominato "belly-flop" (tuffo di pancia). Controllata da quattro grandi alettoni, la navicella ha rallentato la sua caduta attraversando i densi strati dell'atmosfera. Questa fase è la più critica, poiché lo stress termico e aerodinamico sul veicolo è immenso. A differenza dei tentativi precedenti, tutte le superfici di controllo hanno risposto perfettamente.
La riaccensione e l'ammaraggio
A poche centinaia di metri dalla superficie dell'oceano, Starship ha eseguito la manovra più attesa e complessa: la "landing flip maneuver". Ha riacceso due dei suoi motori Raptor, ruotando rapidamente in posizione verticale e annullando la velocità di discesa. Il veicolo si è poi posato delicatamente sulla superficie dell'acqua, rimanendo in posizione verticale per diversi secondi prima di inclinarsi, come previsto. L'obiettivo del test non era il recupero, ma la dimostrazione che la manovra di atterraggio potesse essere eseguita con successo.
Il successo di questo test è una pietra miliare nel programma Starship. Dimostra che il design radicale del veicolo e la sua complessa manovra di rientro sono validi. Il prossimo passo sarà tentare di "afferrare" al volo il booster Super Heavy e, in seguito, la stessa Starship, utilizzando la torre di lancio "Mechazilla". Con questo successo, il sogno di un sistema di trasporto interplanetario completamente e rapidamente riutilizzabile è oggi molto più vicino.
Di Alex (pubblicato @ 21:00:00 in Storia dell'informatica, letto 21 volte)

Una foto in bianco e nero di J. Robert Oppenheimer con il suo iconico cappello, con l'immagine stilizzata di un'esplosione atomica sovrapposta.
La storia del Progetto Manhattan è la cronaca di una delle più grandi e terribili imprese scientifiche della storia umana. Guidato dal fisico teorico J. Robert Oppenheimer, questo progetto top-secret riunì le menti più brillanti del mondo per un unico scopo: costruire un'arma atomica prima che lo facessero i nazisti. Un'epopea di genialità, dilemmi morali e conseguenze che hanno plasmato il mondo moderno e l'era nucleare. ARTICOLO COMPLETO
L'inizio: la lettera di Einstein
Tutto ebbe inizio nel 1939, quando i fisici Leó Szilárd e Albert Einstein inviarono una lettera al presidente statunitense Franklin D. Roosevelt, avvertendolo che i recenti progressi nella fissione nucleare in Germania avrebbero potuto portare alla costruzione di "bombe di un nuovo tipo, estremamente potenti". Preoccupato dalla minaccia nazista, Roosevelt autorizzò la creazione di un comitato per studiare la questione, che in seguito si evolse nel colossale Progetto Manhattan.
Los Alamos e il "padre" della bomba
Il cuore scientifico del progetto fu il laboratorio segreto di Los Alamos, nel deserto del New Mexico. A dirigerlo fu chiamato J. Robert Oppenheimer, un fisico brillante e carismatico, ma anche complesso e tormentato. Sotto la sua guida, un team eterogeneo di scienziati, ingegneri e tecnici lavorò incessantemente per risolvere le immense sfide teoriche e pratiche della costruzione di una bomba atomica, dall'arricchimento dell'uranio alla progettazione del meccanismo di implosione per il plutonio.
Il Trinity Test e la fine della guerra
Il 16 luglio 1945, nel deserto di Alamogordo, si tenne il "Trinity Test", la prima esplosione nucleare della storia. La potenza terrificante dell'esplosione superò ogni aspettativa. Di fronte a quella visione, Oppenheimer citò una frase dalla Bhagavad Gita: "Ora sono diventato Morte, il distruttore di mondi". Meno di un mese dopo, le bombe atomiche furono sganciate su Hiroshima e Nagasaki, portando alla resa del Giappone e alla fine della Seconda Guerra Mondiale, ma inaugurando allo stesso tempo l'era del terrore nucleare e della Guerra Fredda.
Il Progetto Manhattan rimane una storia profondamente ambivalente. Fu un trionfo della scienza e dell'ingegneria, ma diede all'umanità il potere di autodistruggersi. La figura di Oppenheimer incarna questo paradosso: un genio che ha donato al suo paese un'arma decisiva, ma che ha passato il resto della sua vita a lottare contro la proliferazione nucleare, perseguitato dalle implicazioni morali della sua creazione.
Di Alex (pubblicato @ 20:00:00 in Smartphone Android, letto 58 volte)

OnePlus 13 con processore Snapdragon 8 Elite e tripla fotocamera Hasselblad 50MP
OnePlus 13 debutta con il potente Snapdragon 8 Elite, display LTPO da 6,82 pollici, batteria da 6000 mAh e sistema fotografico Hasselblad completamente rinnovato con sensori da 50 megapixel. ARTICOLO COMPLETO
Snapdragon 8 Elite e prestazioni record
Il processore Qualcomm Snapdragon 8 Elite con CPU Oryon a 4,32 GHz e GPU Adreno 830 stabilisce nuovi benchmark di velocità per Android. Costruito su processo a 3 nanometri, il chipset integra un Neural Engine potenziato per accelerare funzioni di intelligenza artificiale avanzate e supporta fino a 24GB di RAM LPDDR5X con storage UFS 4.0 fino a 1TB.
Display ProXDR innovativo
Lo schermo LTPO 4.1 AMOLED da 6,82 pollici con risoluzione QHD+ raggiunge luminosità di picco di 4500 nits e supporto nativo per Display P3 con profondità colore a 10-bit. La tecnologia Ceramic Guard protegge il pannello mentre il refresh rate adattivo da 1 a 120Hz ottimizza l'efficienza energetica mantenendo fluidità eccezionale.
Sistema fotografico Hasselblad
La partnership con Hasselblad produce una tripla fotocamera completamente rinnovata: sensore principale Sony LYT-808 da 50MP con apertura f/1.6, teleobiettivo Sony LYT-600 da 50MP con zoom ottico 3x e ultra-grandangolare da 50MP con autofocus per macro. Tutte le fotocamere supportano registrazione 4K Dolby Vision e Clear Burst per scatti istantanei senza motion blur.
Batteria e ricarica superiori
La batteria al silicio-carbonio da 6000 mAh garantisce autonomia di due giorni con utilizzo intensivo. La ricarica SuperVOOC da 100W raggiunge il 100% in 36 minuti, mentre la ricarica wireless AirVOOC da 50W completa il ciclo in 34 minuti. Il sistema supporta anche ricarica wireless inversa da 10W per accessori compatibili.
Design e resistenza premium
OnePlus 13 adotta certificazione IP68 e IP69 per resistenza completa ad acqua, polvere e getti ad alta pressione. Il design è disponibile in tre colorazioni: Midnight Ocean in microfibra, Arctic Dawn e Black Eclipse con finitura ceramica. La tecnologia Aqua Touch 2.0 mantiene la sensibilità del display anche con mani bagnate.
OxygenOS 15 e intelligenza artificiale
Il sistema operativo OxygenOS 15 basato su Android 15 integra funzionalità AI native per ottimizzazione automatica delle prestazioni, gestione intelligente della batteria e miglioramenti fotografici computazionali. OnePlus garantisce 4 anni di aggiornamenti maggiori e 6 anni di patch di sicurezza per supporto a lungo termine.
OnePlus 13 rappresenta il flagship più completo mai prodotto dall'azienda, combinando prestazioni da record, autonomia eccezionale e qualità fotografica professionale in un dispositivo che ridefinisce gli standard del segmento premium Android.

Il monitor curvo Dell UltraSharp da 40 pollici su una scrivania, che mostra un'immagine colorata e dettagliata che ne esalta la qualità del pannello OLED.
Dell ha presentato un monitor che sembra unire il meglio di tutti i mondi: il nuovo UltraSharp U4025QW è un display curvo ultrawide da 40 pollici con un pannello OLED e una risoluzione 5K (5120x2160). Progettato per i professionisti della creatività, questo monitor offre una qualità d'immagine eccezionale, colori precisissimi e una connettività all'avanguardia, puntando a diventare il display definitivo per il multitasking e l'editing video. ARTICOLO COMPLETO
Qualità d'immagine senza compromessi
Il pannello OLED è il protagonista assoluto. Garantisce neri perfetti, un rapporto di contrasto praticamente infinito e una copertura colore del 99% dello spazio DCI-P3, rendendolo ideale per il fotoritocco e il color grading. La risoluzione 5K2K su una diagonale da 40 pollici offre una densità di pixel elevata (circa 140 PPI), garantendo testi e immagini incredibilmente nitidi. Il refresh rate è di 120Hz, offrendo una fluidità superiore nello scrolling e nel movimento delle finestre.
Connettività e produttività
Il monitor è anche un potente hub di connettività. È dotato di una porta Thunderbolt 4 che fornisce fino a 140W di potenza, sufficienti per alimentare e ricaricare anche i notebook più potenti con un unico cavo. Sono presenti inoltre numerose altre porte, tra cui HDMI 2.1, DisplayPort 1.4 e un hub USB con porte Type-A e Type-C. La curvatura 2500R è studiata per avvolgere il campo visivo dell'utente, migliorando l'immersione e riducendo l'affaticamento degli occhi durante le lunghe sessioni di lavoro.
Il Dell UltraSharp U4025QW è un monitor "endgame" per molti professionisti. Combina la risoluzione, le dimensioni e il formato di un display per la produttività con la qualità d'immagine superlativa della tecnologia OLED. Il prezzo è, come prevedibile, molto elevato, ma per chi lavora con le immagini e cerca un display che sia allo stesso tempo un hub di lavoro completo, questo monitor rappresenta la nuova vetta tecnologica da raggiungere.
Di Alex (pubblicato @ 19:00:00 in Microsoft Windows, letto 28 volte)

Il nuovo Surface Laptop 7 in colorazione platino, aperto su una scrivania minimalista, con lo schermo che mostra il logo di Windows 12.
Microsoft lancia una sfida diretta al MacBook Air di Apple con il nuovo Surface Laptop 7, il primo della linea a essere basato sul potente chip Snapdragon X Elite di Qualcomm. Abbandonando (per questo modello) i processori Intel, l'azienda promette un'efficienza energetica senza precedenti, con oltre 20 ore di autonomia dichiarata, e performance IA accelerate grazie alla NPU integrata, il tutto nel classico design premium Surface. ARTICOLO COMPLETO
La rivoluzione ARM per Windows
Il Surface Laptop 7 segna una svolta per Microsoft, che abbraccia con convinzione l'architettura ARM per i suoi notebook di punta. Il chip Snapdragon X Elite, con la sua CPU Oryon a 12 core, non solo garantisce un'efficienza energetica superiore, ma offre anche prestazioni multi-core che, secondo i benchmark preliminari di Qualcomm, superano quelle del chip M3 di Apple. La vera differenza, però, è nella NPU (Neural Processing Unit) Hexagon, capace di eseguire 45 trilioni di operazioni al secondo (TOPS), accelerando le funzionalità di intelligenza artificiale native di Windows 12, come Copilot e la traduzione in tempo reale.
Design e display confermati
Dal punto di vista estetico, il Surface Laptop 7 non si discosta molto dal suo predecessore, mantenendo il telaio in alluminio unibody, la tastiera in Alcantara (opzionale) e il display PixelSense in formato 3:2. Lo schermo, disponibile nelle versioni da 13.5 e 15 pollici, offre ora una luminosità di picco di 600 nit e un refresh rate dinamico fino a 120Hz. La webcam è stata aggiornata a un sensore 1080p con effetti "Windows Studio" accelerati dalla NPU, come la sfocatura dello sfondo e il contatto visivo automatico.
Il Surface Laptop 7 non è un semplice aggiornamento, ma una dichiarazione d'intenti. Microsoft fa sul serio con Windows on ARM, e questo dispositivo, con la sua combinazione di autonomia record e potenza IA, è la sua arma migliore per competere nel mercato dei notebook ultrasottili. Il successo dipenderà dalla maturità dell'emulazione di app x86 e dal supporto degli sviluppatori, ma la promessa di un laptop Windows che "dura tutto il giorno, per davvero" è finalmente a portata di mano.

La webcam Logitech MX Brio montata elegantemente sopra un monitor di design, in un ambiente di lavoro moderno e luminoso.
Logitech alza il livello delle webcam professionali con la nuova MX Brio, un successore spirituale della popolare Brio 4K. Progettata per creator e professionisti, questa webcam vanta un sensore con pixel più grandi del 70% per performance superiori in bassa luce, un design premium in alluminio e una serie di funzionalità basate sull'IA per migliorare la qualità dell'immagine e offrire nuove modalità di interazione, come lo "Show Mode". ARTICOLO COMPLETO
Qualità d'immagine superiore in ogni condizione
Il punto di forza della MX Brio è il nuovo sensore d'immagine. Sebbene la risoluzione rimanga 4K, i pixel sono ora più grandi del 70% rispetto alla Brio 4K. Questo si traduce in una capacità molto maggiore di catturare la luce, producendo immagini più nitide, con meno rumore e colori più accurati, specialmente in ambienti non illuminati perfettamente. L'intelligenza artificiale integrata contribuisce a ottimizzare l'immagine in tempo reale, migliorando l'esposizione del volto, il bilanciamento del bianco e riducendo il rumore digitale.
Design e funzionalità intelligenti
La MX Brio abbandona la plastica per un elegante corpo in alluminio riciclato. È dotata di un otturatore per la privacy integrato, che si attiva ruotando un anello attorno all'obiettivo. Una delle funzioni più interessanti è lo "Show Mode": inclinando la webcam verso il basso, l'immagine ruota automaticamente, permettendo di mostrare schizzi o oggetti sulla scrivania in modo chiaro e leggibile ai partecipanti di una videochiamata. La webcam si integra perfettamente con i software Logi Options+ e G Hub per una personalizzazione avanzata di inquadratura, colore e messa a fuoco.
La Logitech MX Brio è un aggiornamento significativo che si rivolge a un'utenza esigente. Non è una webcam per tutti, dato il prezzo di lancio, ma per i professionisti, gli streamer e i creator che cercano la massima qualità d'immagine e funzionalità smart, rappresenta il nuovo punto di riferimento del mercato. La combinazione di un hardware eccellente e un software potenziato dall'IA la rende uno strumento potente e versatile.
Di Alex (pubblicato @ 17:00:00 in Storia dell'informatica, letto 30 volte)

Una composizione che mostra l'evoluzione del mouse: dal primo prototipo in legno di Engelbart a un moderno mouse da gaming ergonomico.
Oggi è un dispositivo onnipresente e dato per scontato, ma il mouse ha una storia affascinante che ha rivoluzionato l'interazione uomo-macchina. La sua invenzione, concepita negli anni '60 da Douglas Engelbart e sviluppata nei laboratori Xerox PARC, ha gettato le basi per l'interfaccia grafica moderna, trasformando il computer da uno strumento per pochi specialisti a un dispositivo accessibile a tutti. Ripercorriamo le tappe di questa evoluzione. ARTICOLO COMPLETO
L'intuizione di Douglas Engelbart
La storia del mouse inizia nel 1964, quando Douglas Engelbart, un ingegnere dello Stanford Research Institute, costruì il primo prototipo. Era un dispositivo rudimentale, un guscio di legno con due rotelle metalliche perpendicolari e un singolo pulsante. Engelbart lo chiamò "indicatore di posizione X-Y per un sistema di visualizzazione" e lo presentò al mondo nel 1968 durante una storica dimostrazione passata alla storia come "The Mother of All Demos", in cui mostrò anche l'ipertesto, la videoscrittura e le videoconferenze.
Lo sviluppo allo Xerox PARC e l'arrivo sul mercato
L'idea di Engelbart fu perfezionata negli anni '70 dai ricercatori dello Xerox PARC. Sostituirono le rotelle con una sfera metallica (trackball) che poteva ruotare in ogni direzione, rendendo il movimento più fluido. Questo nuovo design fu integrato nel rivoluzionario computer Xerox Alto nel 1973, il primo a utilizzare una metafora della scrivania con icone e finestre. Fu però la Apple a portare il mouse al grande pubblico, prima con il Lisa (1983) e poi, con successo planetario, con il primo Macintosh (1984), rendendolo lo standard de facto per l'interazione con i personal computer.
Dalla sfera al laser
Per decenni, il mouse a sfera ha dominato il mercato, ma presentava un problema: la sfera raccoglieva polvere e sporco, richiedendo una pulizia costante. La svolta arrivò alla fine degli anni '90 con l'introduzione del mouse ottico, che sostituì la meccanica con un LED e un piccolo sensore per tracciare il movimento. Poco dopo, la tecnologia si evolse ulteriormente con il mouse laser, ancora più preciso e capace di funzionare su quasi ogni superficie. Oggi, i mouse moderni integrano sensori ad altissima precisione (DPI), design ergonomici e connettività wireless, ma il principio fondamentale rimane quello immaginato da Engelbart quasi sessant'anni fa.
L'invenzione del mouse è una testimonianza di come un'idea semplice possa cambiare radicalmente il nostro rapporto con la tecnologia. Ha trasformato il computer in un'estensione della nostra mano, rendendo l'informatica visiva, intuitiva e accessibile. Ogni volta che clicchiamo su un'icona, stiamo rendendo omaggio alla visione pionieristica di Douglas Engelbart e dei ricercatori che hanno trasformato un blocco di legno in uno strumento indispensabile.

Il robot umanoide industriale DR02 di DEEP Robotics è progettato per operare in qualsiasi condizione atmosferica.
I robot umanoidi stanno finalmente uscendo dai laboratori di ricerca per entrare nel mondo reale. Non più prototipi delicati, ma macchine robuste pronte per il lavoro industriale. L'azienda cinese DEEP Robotics ha presentato il DR02, un robot umanoide che definisce come il primo al mondo di livello industriale in grado di operare in qualsiasi condizione meteorologica e in qualsiasi scenario. ARTICOLO COMPLETO
Il lancio del DR02 mira a superare una delle limitazioni chiave del settore: la scarsa adattabilità dei robot alle complesse condizioni del mondo reale. Questo umanoide è stato progettato per essere un lavoratore instancabile, 24 ore su 24, 7 giorni su 7, indipendentemente da pioggia, polvere o temperature estreme.
Progettato per il mondo reale: specifiche e capacità
Le specifiche tecniche del DR02 sono impressionanti e focalizzate sulla robustezza. La caratteristica principale è la protezione completa IP66, che lo rende totalmente protetto da polvere e getti d'acqua potenti. Può operare in un intervallo di temperature che va da -20°C a 55°C. Alto 175 cm, ha una velocità di camminata standard di 1.5 m/s e una massima di 4 m/s. È in grado di superare ostacoli come scale alte 20 cm e di affrontare pendenze fino a 20°. Può trasportare un carico utile fino a 20 kg. Inoltre, un design modulare a sgancio rapido consente una manutenzione veloce sul campo.
"All-Weather, All-Scenario": i casi d'uso
La sua capacità di resistere a qualsiasi condizione meteo sblocca un'ampia gamma di applicazioni industriali. Il DR02 è ideale per compiti come ispezioni di impianti all'aperto (centrali elettriche, siti chimici), pattugliamenti di sicurezza perimetrale in qualsiasi momento del giorno e della notte, e operazioni all'interno di fabbriche o magazzini dove la presenza di polvere o liquidi è comune. La sua versatilità lo rende una risorsa economicamente vantaggiosa, in grado di giustificare l'investimento iniziale grazie a un'operatività continua.
Cervello e sensi: intelligenza artificiale a bordo
Per navigare e operare autonomamente in ambienti complessi, il DR02 è dotato di un potente sistema di calcolo e percezione. A bordo è presente un'unità di calcolo da 275 TOPS (trilioni di operazioni al secondo) che elabora i dati provenienti da un sistema multi-sensore (probabilmente una combinazione di LiDAR, telecamere e sensori inerziali). Questo "cervello" permette al robot di avere una percezione dell'ambiente in tempo reale, di pianificare percorsi per evitare ostacoli e di eseguire i suoi compiti in modo autonomo.
Il contesto del mercato: la corsa all'umanoide
Il lancio del DR02 avviene in un momento di grande fermento nel settore della robotica umanoide. Mentre aziende come Boston Dynamics continuano a spingere i limiti della mobilità, nuove realtà, soprattutto cinesi, stanno accelerando la commercializzazione. Un esempio è Unitree, il cui robot umanoide G1 è già in vendita sul sito americano di Walmart, puntando a un mercato più ampio e accademico. L'approccio di DEEP Robotics è diverso: punta direttamente al mercato industriale di fascia alta (B2B) con un prodotto specializzato e ultra-resistente, delineando una delle due principali strategie che probabilmente caratterizzeranno il settore nei prossimi anni.
Il DR02 di DEEP Robotics non è più fantascienza. È uno strumento di lavoro concreto che rappresenta un passo significativo verso l'automazione di compiti fisici in ambienti non strutturati. Questi lavoratori metallici potrebbero presto diventare una presenza comune in molti settori industriali, ridefinendo i concetti di produttività, logistica e sicurezza.
Di Alex (pubblicato @ 16:00:00 in Storia dell'informatica, letto 31 volte)

Una replica del primo transistor a contatto puntiforme inventato ai Bell Labs, un dispositivo dall'aspetto rudimentale che ha cambiato il mondo.
Potrebbe essere l'invenzione più importante del XX secolo, eppure pochi ne conoscono la storia. Il 23 dicembre 1947, nei Bell Labs, John Bardeen, Walter Brattain e William Shockley dimostrarono il funzionamento del primo transistor a contatto puntiforme. Questo piccolo dispositivo ha sostituito le ingombranti e inaffidabili valvole termoioniche, dando il via alla miniaturizzazione dell'elettronica e rendendo possibile ogni dispositivo che usiamo oggi. ARTICOLO COMPLETO
Prima del transistor: l'era delle valvole
Per comprendere l'importanza del transistor, bisogna pensare ai computer dell'epoca, come l'ENIAC. Erano macchine colossali, che occupavano intere stanze, consumavano enormi quantità di energia e richiedevano una manutenzione costante. Il loro funzionamento si basava sulle valvole termoioniche, essenzialmente delle lampadine che agivano da interruttori. Le valvole erano grandi, fragili, producevano molto calore e si bruciavano frequentemente, rendendo i computer estremamente inaffidabili.
La svolta ai Bell Labs
Il team dei Bell Labs stava cercando un'alternativa a stato solido. L'idea era di utilizzare i semiconduttori, materiali come il germanio o il silicio, per controllare il flusso di elettricità. Dopo anni di ricerca, l'esperimento decisivo avvenne a dicembre del 1947: applicando due contatti d'oro a un cristallo di germanio, Bardeen e Brattain riuscirono ad amplificare un segnale elettrico. Avevano creato il primo transistor funzionante. Shockley, il supervisore del gruppo, sviluppò poco dopo una versione più robusta e producibile in massa, il transistor a giunzione. Per la loro scoperta, i tre scienziati condivisero il Premio Nobel per la Fisica nel 1956.
L'impatto sulla tecnologia moderna
L'impatto del transistor fu epocale. Essendo piccolo, efficiente, economico e affidabile, permise la creazione di dispositivi elettronici sempre più compatti e potenti. Dalle prime radio a transistor tascabili degli anni '50 si passò ai circuiti integrati (chip) degli anni '60, che contenevano migliaia di transistor su una singola piastrina di silicio. Questo processo di miniaturizzazione, descritto dalla Legge di Moore, ha portato ai microprocessori moderni, che contengono miliardi di transistor e alimentano i nostri smartphone, computer e ogni altro dispositivo digitale.
Senza l'invenzione del transistor, il mondo come lo conosciamo non esisterebbe. Non avremmo smartphone, computer portatili, internet o l'esplorazione spaziale. Quel rudimentale dispositivo creato ai Bell Labs non è stato solo un progresso tecnologico, ma la vera e propria scintilla che ha innescato la rivoluzione digitale, trasformando per sempre la società e il modo in cui viviamo, lavoriamo e comunichiamo.

Una vista satellitare di strane formazioni nuvolose esagonali sopra l'oceano nel Triangolo delle Bermuda.
Il Triangolo delle Bermuda affascina e inquieta da decenni, ma una teoria scientifica ha guadagnato terreno per spiegare alcune delle sue misteriose sparizioni. I ricercatori hanno identificato tramite satellite delle peculiari formazioni nuvolose esagonali, capaci di generare "bombe d'aria" con venti fino a 270 km/h e onde anomale, offrendo una spiegazione razionale a un fenomeno a lungo avvolto nel mito del paranormale. ARTICOLO COMPLETO
Nuvole dalla forma insolita
Utilizzando i dati dei satelliti meteorologici, un team di scienziati dell'Università del Colorado ha osservato la presenza ricorrente di nubi con contorni perfettamente esagonali sopra la porzione occidentale del Triangolo delle Bermuda. Queste formazioni, che possono estendersi per decine di chilometri, sono un fenomeno raro ma conosciuto in meteorologia. Sono associate a correnti discensionali estremamente potenti, note come "microbursts" o, più colloquialmente, "bombe d'aria".
La teoria delle "bombe d'aria"
Secondo la teoria, queste nubi agirebbero come dei veri e propri cannoni. L'aria fredda e densa al loro interno precipita verso l'oceano ad altissima velocità, colpendo la superficie del mare con una forza devastante. L'impatto può generare venti paragonabili a quelli di un uragano (fino a 270 km/h) e creare onde anomale alte decine di metri. Un aereo che si trovasse a volare attraverso una di queste "bombe d'aria" verrebbe spinto verso il basso con una forza incontrastabile, mentre una nave potrebbe essere capovolta e affondata in pochi istanti da onde così improvvise e violente.
Una spiegazione, non la spiegazione
È importante sottolineare che questa teoria non pretende di spiegare tutti i casi di sparizione associati al Triangolo delle Bermuda, molti dei quali sono stati smentiti o ricondotti a errori umani e normali avarie. Tuttavia, fornisce un meccanismo fisico plausibile e scientificamente fondato per spiegare come aerei e navi possano scomparire senza lasciare traccia in condizioni meteorologiche apparentemente normali. Il fenomeno dei microbursts è ben documentato e rappresenta un pericolo noto per l'aviazione. La particolarità, in questo caso, sarebbe la frequenza e l'intensità con cui sembrano manifestarsi in quella specifica area.
La leggenda del Triangolo delle Bermuda probabilmente non svanirà, ma la scienza continua a fornire pezzi del puzzle. La teoria delle nubi esagonali e delle "bombe d'aria" rappresenta uno degli sforzi più convincenti per portare un fenomeno dal regno del paranormale a quello della meteorologia estrema, dimostrando ancora una volta come le forze della natura possano essere più sorprendenti e terrificanti di qualsiasi mito.

La maschera funeraria dorata di Tutankhamon in primo piano, con geroglifici e decorazioni egizie sullo sfondo.
La tomba di Tutankhamon, scoperta quasi intatta da Howard Carter nel 1922, potrebbe non aver ancora svelato tutti i suoi segreti. Un team internazionale di archeologi sta utilizzando una nuova tecnica di georadar a microonde per scansionare le pareti della camera funeraria, alla ricerca di prove a sostegno di una teoria controversa: la presenza di camere nascoste che potrebbero contenere la tomba della regina Nefertiti. ARTICOLO COMPLETO
La teoria delle camere segrete
La teoria, proposta originariamente dall'egittologo Nicholas Reeves, si basa su un'analisi dettagliata delle pitture murali della camera funeraria. Reeves ha notato delle anomalie, come linee e contorni che suggeriscono la presenza di porte sigillate e poi intonacate. Secondo la sua ipotesi, la tomba di Tutankhamon sarebbe in realtà solo l'anticamera di una tomba molto più grande e importante, quella di Nefertiti, la sua matrigna. La morte improvvisa e prematura del giovane faraone avrebbe costretto i sacerdoti a riadattare in fretta e furia una tomba non destinata a lui.
Nuova tecnologia per un vecchio mistero
I tentativi passati di sondare le pareti con il georadar hanno dato risultati contrastanti e inconcludenti. Questa nuova indagine, approvata dal Ministero delle Antichità egiziano, utilizzerà una tecnologia molto più avanzata. Il georadar a microonde a banda ultralarga (ULB-GPR) può penetrare la roccia con una risoluzione molto più alta, distinguendo tra cavità vuote, roccia solida e materiali diversi. Gli scienziati sperano di creare una mappa 3D dettagliata di ciò che si trova dietro le pareti dipinte, senza danneggiare in alcun modo il sito.
La possibilità di trovare la tomba inviolata di Nefertiti, una delle figure più potenti e misteriose dell'antico Egitto, sarebbe una delle scoperte archeologiche più importanti di tutti i tempi. Sebbene molti esperti rimangano scettici, questa nuova indagine tecnologica riaccende la speranza. Indipendentemente dal risultato, lo studio approfondirà la nostra conoscenza della costruzione della tomba e della storia tumultuosa di quel periodo, aggiungendo un nuovo capitolo all'infinita saga del faraone ragazzo.
Di Alex (pubblicato @ 13:00:00 in Fantascienza-Misteri, letto 46 volte)

Un'immagine evocativa in stile cyberpunk di una Los Angeles notturna e piovosa nel 2099, con auto volanti e ologrammi giganti.
L'universo di Blade Runner è pronto a espandersi ancora. Amazon ha confermato ufficialmente la produzione di "Blade Runner 2099", una serie TV live-action che fungerà da sequel diretto di "Blade Runner 2049". Con Ridley Scott a bordo come produttore esecutivo e Silka Luisa (Shining Girls) come showrunner, il progetto si preannuncia come uno degli eventi televisivi più attesi dei prossimi anni, con un debutto previsto per fine 2026. ARTICOLO COMPLETO
Cosa sappiamo della trama
I dettagli sulla trama sono ancora scarsi, ma il titolo stesso ci dà un'indicazione fondamentale: la storia si svolgerà 50 anni dopo gli eventi del film di Denis Villeneuve. Silka Luisa ha dichiarato che la serie esplorerà "la prossima evoluzione dell'umanità e dell'intelligenza artificiale". Ci si può aspettare che vengano affrontati temi come la longevità dei replicanti Nexus-9, le conseguenze della rivoluzione accennata in "2049" e il ruolo della Tyrell Corporation (o di ciò che ne resta) in questo nuovo futuro. Ridley Scott ha confermato che il primo episodio getterà le basi per un mondo profondamente cambiato, ma visivamente e tematicamente coerente con i film precedenti.
Produzione e cast
La produzione è di altissimo livello. Oltre a Scott, anche Michael Green, co-sceneggiatore di "Blade Runner 2049", è coinvolto come produttore. La regia dei primi episodi è stata affidata a Jonathan van Tulleken, noto per il suo lavoro sulla acclamata serie "Shōgun". Per quanto riguarda il cast, non ci sono ancora annunci ufficiali, ma circolano voci insistenti sulla possibile partecipazione di Harrison Ford in un ruolo di collegamento, anche se probabilmente marginale. È improbabile, invece, un ritorno di Ryan Gosling, il cui arco narrativo si è concluso nel film precedente.
"Blade Runner 2099" ha il potenziale per essere un capolavoro o un'occasione mancata. L'eredità dei due film è immensa, ma il team produttivo di altissimo profilo e la promessa di espandere questo affascinante universo narrativo lasciano ben sperare. I fan dovranno armarsi di pazienza, ma l'attesa per tornare a immergersi nelle strade piovose di una Los Angeles cyberpunk sarà, si spera, ampiamente ripagata.
Di Alex (pubblicato @ 12:00:00 in Smartphone Android, letto 70 volte)

Il Samsung Galaxy A35 si posiziona come uno dei migliori smartphone nella sua fascia di prezzo.
La fascia media del mercato smartphone è un campo di battaglia affollatissimo, ma Samsung continua a dominarla con una formula precisa: portare caratteristiche un tempo riservate ai top di gamma a un prezzo accessibile. Il nuovo Galaxy A35 è l'ultima incarnazione di questa strategia, un dispositivo che promette un'esperienza quasi da flagship senza svuotare il portafoglio. ARTICOLO COMPLETO
Il Samsung Galaxy A35 si presenta come un dispositivo con specifiche da medio di gamma che lo rendono estremamente interessante, offrendo un pacchetto bilanciato e affidabile. Analizziamone ogni aspetto in dettaglio.
Design e display: un'esperienza visiva premium
Il punto di forza che salta subito all'occhio è il display. Il Galaxy A35 monta un pannello Super AMOLED da 6,6 pollici con risoluzione Full HD+ (2340 x 1080 pixel) e una frequenza di aggiornamento fino a 120 Hz. Questo si traduce in colori vividi, neri assoluti e una fluidità eccezionale, caratteristiche difficili da trovare in questa fascia di prezzo. La protezione è garantita dal vetro Gorilla Glass Victus Plus, mentre la certificazione IP67 per la resistenza ad acqua e polvere aggiunge una tranquillità tipica dei modelli superiori.
Hardware e prestazioni: il cuore Exynos 1380
A muovere il dispositivo troviamo il processore Samsung Exynos 1380, un chip octa-core realizzato con processo produttivo a 5 nm che garantisce un buon equilibrio tra prestazioni ed efficienza energetica. È affiancato da 6 o 8 GB di RAM e 128 o 256 GB di memoria interna, espandibile fino a 1 TB tramite microSD. Nell'uso quotidiano, questa configurazione offre un'esperienza fluida e reattiva, gestendo senza problemi multitasking e app comuni. L'uso di un chip proprietario permette a Samsung di ottimizzare l'integrazione hardware-software e di controllare i costi di produzione.
Comparto fotografico: 50 megapixel stabilizzati
La fotografia è un altro fiore all'occhiello. Il sensore principale è un'unità da 50 MP con apertura f/1.8 e, soprattutto, stabilizzazione ottica dell'immagine (OIS). Questa caratteristica, non scontata a questo prezzo, permette di ottenere scatti nitidi e video stabili anche in condizioni di scarsa luminosità. Il comparto è completato da un sensore ultra-grandangolare da 8 MP e da un sensore macro da 5 MP. Sebbene la fotocamera principale sia la vera star, il pacchetto complessivo è definito da molti il migliore nella sua categoria di prezzo.
Autonomia e ricarica: tanta durata, poca velocità
La batteria da 5.000 mAh garantisce un'ottima autonomia, consentendo di arrivare a fine giornata anche con un uso intenso. Il lato debole, tuttavia, è la ricarica. Il supporto alla ricarica "rapida" a 25 watt è ormai superato da molti concorrenti, anche più economici, che offrono velocità decisamente superiori. È un compromesso che si deve accettare in cambio delle altre caratteristiche premium.
Software e aggiornamenti: la promessa di lunga vita
Forse il più grande valore aggiunto del Galaxy A35 è il software. Arriva con Android 14 e la One UI 6.1, ma soprattutto gode della politica di aggiornamenti di Samsung: 4 nuove versioni di Android e 5 anni di patch di sicurezza. Questa garanzia di longevità e sicurezza è un fattore differenziante enorme, che trasforma l'acquisto in un investimento a lungo termine.
In conclusione, il Samsung Galaxy A35 si conferma un acquisto eccellente. Non è il più potente né il più veloce a ricaricarsi, ma offre un pacchetto incredibilmente bilanciato. Con il suo display superbo, una fotocamera principale di alta qualità e una politica di aggiornamenti senza rivali, si candida a essere il vero re della fascia media, ideale per chi cerca affidabilità e durata nel tempo.
Di Alex (pubblicato @ 12:00:00 in Scienza e Spazio, letto 54 volte)

Un'illustrazione stilizzata che mostra una scatola chiusa. All'interno, la figura di un gatto è rappresentata sia viva che morta contemporaneamente, a simboleggiare la sovrapposizione quantistica.
Uno dei più celebri e fraintesi esperimenti mentali della scienza, il paradosso del gatto di Schrödinger, fu concepito dal fisico Erwin Schrödinger nel 1935 non per dimostrare che un gatto potesse essere contemporaneamente vivo e morto, ma per evidenziare l'assurdità che derivava dall'applicare le bizzarre regole della meccanica quantistica al mondo macroscopico che esperiamo tutti i giorni. Analizziamo cosa rappresenta davvero. ARTICOLO COMPLETO
L'esperimento mentale
Immaginiamo di chiudere un gatto in una scatola d'acciaio insieme a un meccanismo infernale: una fiala di veleno e un martelletto pronto a romperla. Il martelletto è collegato a un contatore Geiger che monitora un singolo atomo radioattivo. In un dato intervallo di tempo, poniamo un'ora, l'atomo ha esattamente il 50% di probabilità di decadere e il 50% di probabilità di non decadere. Se l'atomo decade, il contatore Geiger scatta, il martelletto rompe la fiala e il gatto muore. Se non decade, il gatto vive.
La sovrapposizione quantistica
Secondo l'interpretazione di Copenaghen della meccanica quantistica, fino a quando non viene effettuata un'osservazione, l'atomo si trova in uno stato di "sovrapposizione": non è né decaduto né non decaduto, ma entrambe le cose contemporaneamente. Schrödinger, con il suo paradosso, estende questa stranezza al mondo macroscopico: se lo stato dell'atomo è indeterminato, allora anche il destino del gatto, che dipende da esso, deve essere indeterminato. Fino a quando non apriamo la scatola per osservare, il gatto non è né vivo né morto, ma si trova in una macabra sovrapposizione di "gatto vivo" e "gatto morto".
Il significato del paradosso
L'atto di aprire la scatola e guardare dentro è l' "osservazione" che costringe il sistema a "scegliere" uno stato definito: l'atomo o è decaduto o non lo è, e il gatto o è vivo o è morto. Questo collasso della funzione d'onda è uno dei concetti più controintuitivi della fisica. Schrödinger non credeva che un gatto potesse letteralmente essere in due stati contemporaneamente. Il suo era un argomento per assurdo, progettato per criticare l'interpretazione di Copenaghen e per evidenziare il problema del "confine" tra il mondo quantistico (dove la sovrapposizione è la norma) e il mondo classico (dove non lo è).
Il paradosso del gatto di Schrödinger rimane uno strumento pedagogico potentissimo per introdurre il concetto di sovrapposizione e il ruolo dell'osservatore nella meccanica quantistica. Non ci dice nulla sulla biologia dei gatti, ma ci costringe a confrontarci con una realtà, quella subatomica, dove le regole della nostra intuizione quotidiana cessano di essere valide, aprendo le porte a un universo molto più strano e affascinante di quanto possiamo immaginare.
Di Alex (pubblicato @ 11:00:00 in Scienza e Spazio, letto 72 volte)

Una rappresentazione artistica dell'universo primordiale con onde gravitazionali che increspano lo spaziotempo.
Un nuovo studio basato sui dati raccolti dagli array di pulsar timing (PTA) ha rivelato un "ronzio" di fondo di onde gravitazionali a bassissima frequenza che pervade l'universo. Sebbene previsto dalla teoria, l'intensità di questo segnale è molto più alta di quanto i modelli standard si aspettassero, suggerendo la presenza di fenomeni cosmologici sconosciuti o la necessità di rivedere le nostre teorie sull'universo primordiale. ARTICOLO COMPLETO
Ascoltare l'universo con le pulsar
A differenza di LIGO e Virgo, che rilevano onde gravitazionali ad alta frequenza generate da eventi violenti come fusioni di buchi neri, gli esperimenti PTA come NANOGrav usano le pulsar millisecondo come una rete di orologi cosmici di precisione. Queste stelle di neutroni ruotano centinaia di volte al secondo, emettendo fasci di onde radio a intervalli regolarissimi. Il passaggio di un'onda gravitazionale a bassissima frequenza "stira" e "comprime" lo spaziotempo tra la Terra e una pulsar, causando una minuscola ma rilevabile variazione nel tempo di arrivo dei suoi segnali.
Un segnale troppo forte
Dopo oltre 15 anni di osservazioni, i dati combinati di diversi PTA hanno confermato con un'altissima significatività statistica la presenza di questo fondo stocastico di onde gravitazionali. La fonte più probabile sono le coppie di buchi neri supermassicci che spiraleggiano lentamente l'uno verso l'altro al centro delle galassie in fusione. Tuttavia, i modelli astrofisici attuali che simulano queste fusioni non riescono a spiegare l'ampiezza del segnale osservato: è da due a tre volte più intenso del previsto.
Nuova fisica all'orizzonte?
Questa discrepanza ha acceso l'entusiasmo della comunità scientifica, poiché potrebbe essere la prima prova di "nuova fisica". Tra le ipotesi alternative, vi sono le vibrazioni di stringhe cosmiche, transizioni di fase nell'universo primordiale o persino forme esotiche di materia oscura. I prossimi anni saranno cruciali: l'aumento della sensibilità dei PTA, grazie all'inclusione di più pulsar e a un periodo di osservazione più lungo, permetterà di mappare questo fondo con maggiore precisione, aiutando i cosmologi a distinguere tra le diverse teorie e, forse, a scoprire un capitolo completamente nuovo della storia del cosmo.
La scoperta del fondo di onde gravitazionali a bassa frequenza non è un punto di arrivo, ma l'inizio di una nuova era per l'astronomia. Il "ronzio" dell'universo è più forte del previsto, e capire il perché potrebbe costringerci a riconsiderare alcuni degli assunti fondamentali sulla formazione delle galassie e sull'evoluzione dell'universo stesso. L'indagine è appena iniziata, e le risposte promettono di essere rivoluzionarie.

Una rappresentazione artistica di un disco volante precipitato nel deserto del New Mexico, con detriti metallici sparsi al suolo.
Nel luglio del 1947, qualcosa precipitò in un ranch vicino a Roswell, New Mexico. Da allora, l'incidente è diventato il caso più iconico e dibattuto della storia dell'ufologia. Ma cosa accadde veramente? Analizzando i fatti storici e le spiegazioni ufficiali fornite dall'aeronautica militare statunitense, è possibile tracciare un quadro molto più terrestre, seppur affascinante, di un evento trasformato in leggenda dal folklore e dalla segretezza militare. ARTICOLO COMPLETO
I fatti iniziali e il comunicato stampa
Tutto iniziò quando un allevatore, W.W. "Mac" Brazel, scoprì un campo di strani detriti metallici e di gomma. Informato lo sceriffo locale, la questione arrivò rapidamente alla base aerea di Roswell, che inviò il maggiore Jesse Marcel a investigare. Inizialmente, l'esercito emise un comunicato stampa sensazionale, annunciando il recupero di un "disco volante". Tuttavia, poche ore dopo, la narrativa cambiò drasticamente: i detriti appartenevano a un pallone meteorologico, e il maggiore Marcel fu fotografato con i resti di questo pallone per smentire la storia.
La spiegazione ufficiale: il progetto Mogul
Per decenni, la spiegazione del pallone sonda rimase quella ufficiale, ma non convinse mai del tutto la comunità ufologica. Solo negli anni '90, l'US Air Force declassificò una serie di documenti che rivelarono la vera natura dell'oggetto: si trattava di un pallone ad alta quota del Progetto Mogul, un programma militare top-secret volto a monitorare eventuali test nucleari sovietici tramite sensori acustici trasportati da palloni stratosferici. I materiali dei detriti trovati da Brazel (stagnola riflettente, nastro adesivo con simboli, travi di balsa) erano perfettamente compatibili con quelli usati per questi palloni.
La nascita di un mito
La segretezza che circondava il Progetto Mogul, unita alla ritrattazione frettolosa e poco convincente dell'esercito, creò un terreno fertile per le teorie del complotto. Negli anni successivi, testimoni (spesso con ricordi emersi decenni dopo) iniziarono a parlare di corpi alieni e navicelle intatte, alimentando un mito che è cresciuto a dismisura, culminando in libri, film e persino nel famoso video dell' "autopsia aliena" (poi rivelatosi un falso). La spiegazione del Progetto Mogul, sebbene meno eccitante, è supportata da prove documentali e offre un quadro coerente di come un incidente militare segreto sia stato interpretato come un evento extraterrestre.
Il caso Roswell è un esempio perfetto di come la segretezza governativa e il desiderio umano di credere nello straordinario possano creare una leggenda quasi indistruttibile. Sebbene le prove indichino una spiegazione convenzionale legata allo spionaggio della Guerra Fredda, il disco volante di Roswell continua a vivere nell'immaginario collettivo, a testimonianza del fascino intramontabile dei misteri dello spazio e della domanda "siamo soli?".
Di Alex (pubblicato @ 09:00:00 in Fantascienza-Misteri, letto 65 volte)

Il celebre fotogramma del filmato di Patterson-Gimlin del 1967, che mostra la presunta creatura Bigfoot mentre cammina nella foresta.
Il Bigfoot, o Sasquatch, è una delle figure più radicate nel folklore nordamericano e un caposaldo della criptozoologia. Nonostante decenni di presunti avvistamenti, impronte e filmati sgranati, la comunità scientifica rimane scettica. Ma quali sono le "prove" a sostegno della sua esistenza, e perché la scienza non le ritiene sufficienti? Analizziamo il fenomeno in modo critico e obiettivo, al di là del mito. ARTICOLO COMPLETO
Le prove principali: filmati e impronte
La prova più famosa a favore del Bigfoot è il filmato girato da Roger Patterson e Bob Gimlin nel 1967 a Bluff Creek, in California. Il breve filmato mostra una figura alta e pelosa che cammina con andatura bipede. Sebbene iconico, il filmato è molto controverso: molti esperti di effetti speciali e anatomisti ritengono che si tratti di un uomo in un costume, evidenziando incongruenze nella muscolatura e nel movimento. Altre prove comuni sono le grandi impronte ritrovate nelle foreste. Tuttavia, la maggior parte di queste si è rivelata essere opera di burloni o errate identificazioni di tracce di animali noti (come orsi) deformate dal terreno.
L'analisi del DNA e l'assenza di fossili
Negli ultimi anni, sono stati condotti diversi studi genetici su presunti campioni di peli e tessuti di Bigfoot. Un'analisi completa del 2014, guidata dal genetista Bryan Sykes dell'Università di Oxford, ha esaminato decine di campioni provenienti da tutto il mondo. I risultati sono stati deludenti per i sostenitori del Bigfoot: la maggior parte dei campioni apparteneva a orsi, lupi, mucche e altri animali conosciuti. Un altro grande ostacolo per la tesi del Bigfoot è la totale assenza di prove fossili. Per una popolazione di primati di grandi dimensioni possa sopravvivere e riprodursi per secoli, dovrebbe lasciare tracce nel record fossile, cosa che non è mai avvenuta.
Dal punto di vista scientifico, non esiste alcuna prova credibile che supporti l'esistenza del Bigfoot. Le prove aneddotiche, i filmati sfuocati e le impronte non reggono a un'analisi rigorosa. Il fenomeno Bigfoot è meglio compreso come un potente mito moderno, un prodotto del folklore, della psicologia umana (la pareidolia, il desiderio di credere) e della vastità selvaggia del continente nordamericano. Rappresenta il nostro fascino per l'ignoto e per l'idea che, forse, non abbiamo ancora scoperto tutto.
Di Alex (pubblicato @ 07:00:00 in Storia dell'informatica, letto 75 volte)

Il Kenbak-1, progettato nel 1971, è riconosciuto come il primo personal computer al mondo.
La narrazione comune colloca la nascita del personal computer a metà degli anni '70, con l'Apple II o il kit dell'Altair 8800. Ma la storia è diversa. Il primo vero PC è nato prima, nel 1971, in un'epoca dominata da mainframe grandi come stanze. Si chiamava Kenbak-1 e fu il frutto della visione di un uomo che immaginò un computer per l'individuo prima ancora che esistesse il microprocessore. ARTICOLO COMPLETO
Nel 1986, il Computer Museum di Boston lanciò un concorso per determinare quale fosse stato il primo vero personal computer. Il vincitore non fu un prodotto di Apple o Microsoft, ma il Kenbak-1 di John Blankenbaker, un dispositivo che anticipò la rivoluzione informatica di diversi anni.
John Blankenbaker e la sua visione
All'inizio degli anni '70, i computer erano strumenti inaccessibili, riservati a governi e grandi aziende. In questo contesto, l'idea di un computer "personale" era a dir poco rivoluzionaria. John Blankenbaker, un ingegnere informatico, ebbe la visione di creare una macchina economica e accessibile, non per il business, ma per scopi educativi. Voleva uno strumento che potesse insegnare i principi della programmazione e della logica informatica. Lavorando da solo nel suo garage, progettò e costruì il computer, scrivendo anche tutti i manuali di riferimento. Il suo obiettivo era venderlo a 750 dollari, un prezzo incredibilmente basso per l'epoca.
Anatomia del primo PC: interruttori e luci
Il Kenbak-1 era un prodotto del suo tempo, un'epoca precedente all'invenzione del microprocessore. La sua architettura non era basata su un singolo chip CPU, ma su circuiti integrati a piccola e media scala (SSI e MSI). La sua memoria era di soli 256 byte. Ma la caratteristica più distintiva era la sua interfaccia: non c'erano né schermo né tastiera. L'input veniva inserito tramite una serie di interruttori sul pannello frontale, e l'output veniva letto attraverso una fila di luci. Per usarlo, bisognava "parlare" con la macchina nel suo linguaggio nativo, il binario. Questo lo rendeva uno strumento educativo potente, ma anche incredibilmente ostico per chiunque non fosse un appassionato.
Il fallimento commerciale e l'arrivo dell'Altair
Nonostante la visione pionieristica, il Kenbak-1 fu un fallimento commerciale. Blankenbaker riuscì a vendere solo una quarantina di unità prima di chiudere l'azienda nel 1973. Il suo prodotto era arrivato troppo presto, prima che si formasse una vera cultura hobbistica attorno all'informatica. Il successo arrise invece, nel 1975, al MITS Altair 8800. Basato sul nuovo microprocessore Intel 8080 e presentato come un kit da assemblare sulla rivista "Popular Electronics", l'Altair catturò l'immaginazione di una nascente comunità di appassionati di elettronica, generando migliaia di ordini e dando il via alla rivoluzione. Il suo successo fu tanto culturale e di marketing quanto tecnologico.
Sebbene dimenticato per anni, il Kenbak-1 si è guadagnato il suo posto nella storia. Non fu un successo, ma rappresentò la prima, coraggiosa incarnazione fisica dell'idea di un computer per l'individuo. Fu un passo fondamentale, un'intuizione geniale che anticipò di anni la rivoluzione che avrebbe cambiato per sempre il nostro mondo, dimostrando che le grandi idee spesso precedono la tecnologia e il mercato necessari per realizzarle.
Di Alex (pubblicato @ 07:00:00 in Nuove Tecnologie, letto 105 volte)

Un'immagine macro di un processore futuristico con chiplet ottici che emettono deboli fasci di luce, interconnessi da guide d'onda fotoniche.
La legge di Moore sta raggiungendo i suoi limiti fisici, ma una nuova tecnologia promette di aprire un'era di performance inimmaginabili: i chiplet ottici. Sostituendo le connessioni elettriche tra i core di un processore con impulsi di luce, la fotonica del silicio potrebbe eliminare i colli di bottiglia della comunicazione dati, portando a un'efficienza energetica e a una velocità di calcolo ordini di grandezza superiori a quelle attuali. ARTICOLO COMPLETO
Il problema del "muro di memoria"
Nei processori moderni, la velocità di calcolo dei singoli core è aumentata esponenzialmente, ma la velocità con cui questi core possono comunicare tra loro e con la memoria (la larghezza di banda) non ha tenuto il passo. Questo crea un "muro di memoria", un collo di bottiglia che limita le prestazioni complessive, specialmente nei carichi di lavoro dell'intelligenza artificiale e dell'analisi di big data. Le connessioni elettriche in rame, infatti, consumano molta energia, generano calore e perdono integrità del segnale su distanze anche minime all'interno di un chip.
La soluzione: comunicare con la luce
La fotonica del silicio propone di risolvere questo problema incidendo minuscole "guide d'onda" direttamente sul silicio, creando dei veri e propri circuiti ottici. Invece di elettroni che si muovono attraverso fili di rame, sono i fotoni (particelle di luce) a viaggiare in queste guide. I vantaggi sono enormi: la luce viaggia più velocemente, non genera calore per resistenza, non subisce interferenze elettromagnetiche e può trasportare molti più dati contemporaneamente utilizzando diverse lunghezze d'onda (colori) sulla stessa guida.
Dai laboratori ai data center
Aziende come Intel, Ayar Labs e GlobalFoundries stanno già producendo i primi prototipi di processori con chiplet ottici. Questi "co-packaged optics" integrano i componenti fotonici direttamente accanto ai chip di calcolo. Un recente prototipo presentato su Nature ha dimostrato una larghezza di banda di interconnessione superiore di dieci volte rispetto alle migliori soluzioni elettriche, con un consumo energetico ridotto del 95%. Sebbene la tecnologia sia ancora costosa, il suo primo campo di applicazione saranno i data center, dove l'efficienza energetica e la velocità di calcolo sono cruciali.
I chiplet ottici non sono più fantascienza. Rappresentano la prossima, inevitabile evoluzione dell'hardware per il calcolo ad alte prestazioni. Sostituendo i fili con la luce, questa tecnologia promette di abbattere le barriere che oggi limitano la potenza dei nostri computer, aprendo la strada a modelli di IA più complessi, simulazioni scientifiche più accurate e un'infrastruttura cloud più veloce ed efficiente dal punto di vista energetico.
Fotografie del 16/10/2025
Nessuna fotografia trovata.
|