Normal
Zoomed for Chrome, Safari, IE
Zoomed for FF
Powered by Jasper Roberts - Blog
Home Archivio Microsmeta Portal Galleria Forum Podcast Contatti
Cerca in Digital Worlds
 

English Translation

MOBILE E DESKTOP

Regola ampiezza visuale

Digital Worlds WordPress


Contatta il webmaster
Alex - Microsmeta


Martina - Redazione
Social Media Manager


Think different!
Molla Apple e spendi 1/3!

No Apple Intelligence fino al 2025
su iPhone 16 Pro Max? Sono 1489
Euro buttati ...Davvero no grazie!

...Passato ad Android :-)

Pertecipa a Digital Worlds

TopTecnoPodcast
CLICCA PER VEDERLI
TopPodcastITA

Scacchi,
cibo per la mente!

Russian Grandmaster
Natalia Pogonina









Ci sono 6723 persone collegate


Feed XML RSS 0.91 Microsmeta Podcast
Feed XML RSS 0.91 Feed RSS Commenti
Feed XML RSS 0.91 Feed RSS Articoli
Feed XML Atom 0.3 Feed Atom 0.3



français Visiteurs Français

english English Visitors

< agosto 2029 >
L
M
M
G
V
S
D
  
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
   
             

Titolo
Action Camera (2)
Antivirus-Firewall-VPN (13)
Auto elettriche (9)
BarCamp (11)
Chiacchiere Varie (31)
Curiosità (32)
Domotica (4)
Droni (4)
ENGLISH VERSION (1)
Fantascienza-Misteri (28)
FIBRA ADSL LTE 4G (12)
FIBRA, 5G, FWA (2)
Gadgets vari (19)
Giochi intelligenti (5)
Guide Digital Worlds (11)
Hardware (57)
Intelligenza Artificiale (26)
Internet - Web 2.0 (57)
Linux - open source (162)
macOS (39)
Microsmeta Podcast (20)
Microsoft Windows (15)
Misteri (15)
Netbook (8)
Netbook - Tablet (6)
Notebook (8)
Nuove Tecnologie (176)
PC Android (4)
PC desktop all-in-one (6)
Robotica (77)
Salute e benessere (9)
Scienza e Spazio (107)
Smart Home Amazon Google (3)
Smartphone (29)
Smartphone Android (169)
Smartphone HP Palm (3)
Smartphone iPhone (96)
Smartphone Linux (7)
Smartphone Symbian (4)
Smartphone Win (30)
Smartwatch-Wearable (9)
Social networks (18)
Software (40)
Storia dell'informatica (10)
Sviluppo sostenibile (61)
Tablet (54)
Tecnologia indossabile (13)
TV e Video on-line (49)
TV LED - OLED (1)
ultrabook (1)
Universo Apple (73)
Universo Blog (4)
Universo Google (20)
Universo Microsoft (42)
Universo Podcast (16)
Version Français (1)
Videogiochi (26)
Videogiochi e console (1)
WiFi WiMax (5)

Catalogati per mese:

Gli interventi più cliccati

Ultimi commenti:
Ciao Stella, scusa il ritardo....
15/01/2021 @ 19:28:44
Di Alex - Microsmeta
Gentilmente qualcuno sa indica...
07/01/2021 @ 14:30:10
Di stella

Titolo
Bianco e nero (1)
Colore (12)

Le fotografie più cliccate

Titolo
Quale sistema operativo usi principalmente?

 Windows 11
 Windows 10
 Windows 8
 Windows 7
 macOS Sequoia
 macOS Sonoma
 macOS Precedenti
 Linux
 iOS
 Android

NETMARKETSHARE




Blogarama - Technology Blogs


Titolo
Listening
Musica legale e gratuita: Jamendo.com

Reading
Libri:
Come Internet cambierà la TV per sempre di Tommaso Tessarolo

Gomorra di Roberto Saviano

Ragionevoli Dubbi di Gianrico Carofiglio
Se li conosci li eviti di Marco Travaglio

Watching
Film:
The Prestige
Lettere da Hiwo Jima
Masseria delle allodole
Le vite degli altri
Mio fratello è figlio unico
Déjà vu - Corsa contro il tempo
Ti amerò sempre
The millionaire | 8 Oscar







16/10/2025 @ 23:25:38
script eseguito in 140 ms


Progetto grafico e web design:
Arch. Andrea Morales
P.IVA 08256631006



\\ Home Page : Pubblicazioni
Di seguito gli articoli e le fotografie pubblicati nella giornata richiesta.
 
 
Articoli del 16/10/2025

Il prototipo di Starship di SpaceX che esegue un ammaraggio controllato nell'oceano, con i motori Raptor che si riaccendono per la manovra finale.
Il prototipo di Starship di SpaceX che esegue un ammaraggio controllato nell'oceano, con i motori Raptor che si riaccendono per la manovra finale.

Un passo storico per l'esplorazione spaziale. Durante il suo ultimo volo di prova, il prototipo di Starship di SpaceX ha completato con successo l'intera sequenza di rientro atmosferico, eseguendo per la prima volta un ammaraggio morbido e controllato nel Golfo del Messico. Questo traguardo fondamentale dimostra la fattibilità della manovra di atterraggio e apre la strada ai futuri tentativi di recupero al volo del veicolo. ARTICOLO COMPLETO

La manovra "belly-flop"
Dopo aver raggiunto l'apogeo di circa 10 km, il prototipo SN28 ha iniziato la sua discesa, posizionandosi in orizzontale per massimizzare la resistenza atmosferica, una manovra che Elon Musk ha soprannominato "belly-flop" (tuffo di pancia). Controllata da quattro grandi alettoni, la navicella ha rallentato la sua caduta attraversando i densi strati dell'atmosfera. Questa fase è la più critica, poiché lo stress termico e aerodinamico sul veicolo è immenso. A differenza dei tentativi precedenti, tutte le superfici di controllo hanno risposto perfettamente.

La riaccensione e l'ammaraggio
A poche centinaia di metri dalla superficie dell'oceano, Starship ha eseguito la manovra più attesa e complessa: la "landing flip maneuver". Ha riacceso due dei suoi motori Raptor, ruotando rapidamente in posizione verticale e annullando la velocità di discesa. Il veicolo si è poi posato delicatamente sulla superficie dell'acqua, rimanendo in posizione verticale per diversi secondi prima di inclinarsi, come previsto. L'obiettivo del test non era il recupero, ma la dimostrazione che la manovra di atterraggio potesse essere eseguita con successo.

Il successo di questo test è una pietra miliare nel programma Starship. Dimostra che il design radicale del veicolo e la sua complessa manovra di rientro sono validi. Il prossimo passo sarà tentare di "afferrare" al volo il booster Super Heavy e, in seguito, la stessa Starship, utilizzando la torre di lancio "Mechazilla". Con questo successo, il sogno di un sistema di trasporto interplanetario completamente e rapidamente riutilizzabile è oggi molto più vicino.

 
 
Di Alex (pubblicato @ 20:00:00 in Smartphone Android, letto 58 volte)
OnePlus 13 con processore Snapdragon 8 Elite e tripla fotocamera Hasselblad 50MP
OnePlus 13 con processore Snapdragon 8 Elite e tripla fotocamera Hasselblad 50MP

OnePlus 13 debutta con il potente Snapdragon 8 Elite, display LTPO da 6,82 pollici, batteria da 6000 mAh e sistema fotografico Hasselblad completamente rinnovato con sensori da 50 megapixel. ARTICOLO COMPLETO

Snapdragon 8 Elite e prestazioni record
Il processore Qualcomm Snapdragon 8 Elite con CPU Oryon a 4,32 GHz e GPU Adreno 830 stabilisce nuovi benchmark di velocità per Android. Costruito su processo a 3 nanometri, il chipset integra un Neural Engine potenziato per accelerare funzioni di intelligenza artificiale avanzate e supporta fino a 24GB di RAM LPDDR5X con storage UFS 4.0 fino a 1TB.

Display ProXDR innovativo
Lo schermo LTPO 4.1 AMOLED da 6,82 pollici con risoluzione QHD+ raggiunge luminosità di picco di 4500 nits e supporto nativo per Display P3 con profondità colore a 10-bit. La tecnologia Ceramic Guard protegge il pannello mentre il refresh rate adattivo da 1 a 120Hz ottimizza l'efficienza energetica mantenendo fluidità eccezionale.

Sistema fotografico Hasselblad
La partnership con Hasselblad produce una tripla fotocamera completamente rinnovata: sensore principale Sony LYT-808 da 50MP con apertura f/1.6, teleobiettivo Sony LYT-600 da 50MP con zoom ottico 3x e ultra-grandangolare da 50MP con autofocus per macro. Tutte le fotocamere supportano registrazione 4K Dolby Vision e Clear Burst per scatti istantanei senza motion blur.

Batteria e ricarica superiori
La batteria al silicio-carbonio da 6000 mAh garantisce autonomia di due giorni con utilizzo intensivo. La ricarica SuperVOOC da 100W raggiunge il 100% in 36 minuti, mentre la ricarica wireless AirVOOC da 50W completa il ciclo in 34 minuti. Il sistema supporta anche ricarica wireless inversa da 10W per accessori compatibili.

Design e resistenza premium
OnePlus 13 adotta certificazione IP68 e IP69 per resistenza completa ad acqua, polvere e getti ad alta pressione. Il design è disponibile in tre colorazioni: Midnight Ocean in microfibra, Arctic Dawn e Black Eclipse con finitura ceramica. La tecnologia Aqua Touch 2.0 mantiene la sensibilità del display anche con mani bagnate.

OxygenOS 15 e intelligenza artificiale
Il sistema operativo OxygenOS 15 basato su Android 15 integra funzionalità AI native per ottimizzazione automatica delle prestazioni, gestione intelligente della batteria e miglioramenti fotografici computazionali. OnePlus garantisce 4 anni di aggiornamenti maggiori e 6 anni di patch di sicurezza per supporto a lungo termine.

OnePlus 13 rappresenta il flagship più completo mai prodotto dall'azienda, combinando prestazioni da record, autonomia eccezionale e qualità fotografica professionale in un dispositivo che ridefinisce gli standard del segmento premium Android.

 
Di Alex (pubblicato @ 20:00:00 in Hardware, letto 27 volte)
Il monitor curvo Dell UltraSharp da 40 pollici su una scrivania, che mostra un'immagine colorata e dettagliata che ne esalta la qualità del pannello OLED.
Il monitor curvo Dell UltraSharp da 40 pollici su una scrivania, che mostra un'immagine colorata e dettagliata che ne esalta la qualità del pannello OLED.

Dell ha presentato un monitor che sembra unire il meglio di tutti i mondi: il nuovo UltraSharp U4025QW è un display curvo ultrawide da 40 pollici con un pannello OLED e una risoluzione 5K (5120x2160). Progettato per i professionisti della creatività, questo monitor offre una qualità d'immagine eccezionale, colori precisissimi e una connettività all'avanguardia, puntando a diventare il display definitivo per il multitasking e l'editing video. ARTICOLO COMPLETO

Qualità d'immagine senza compromessi
Il pannello OLED è il protagonista assoluto. Garantisce neri perfetti, un rapporto di contrasto praticamente infinito e una copertura colore del 99% dello spazio DCI-P3, rendendolo ideale per il fotoritocco e il color grading. La risoluzione 5K2K su una diagonale da 40 pollici offre una densità di pixel elevata (circa 140 PPI), garantendo testi e immagini incredibilmente nitidi. Il refresh rate è di 120Hz, offrendo una fluidità superiore nello scrolling e nel movimento delle finestre.

Connettività e produttività
Il monitor è anche un potente hub di connettività. È dotato di una porta Thunderbolt 4 che fornisce fino a 140W di potenza, sufficienti per alimentare e ricaricare anche i notebook più potenti con un unico cavo. Sono presenti inoltre numerose altre porte, tra cui HDMI 2.1, DisplayPort 1.4 e un hub USB con porte Type-A e Type-C. La curvatura 2500R è studiata per avvolgere il campo visivo dell'utente, migliorando l'immersione e riducendo l'affaticamento degli occhi durante le lunghe sessioni di lavoro.

Il Dell UltraSharp U4025QW è un monitor "endgame" per molti professionisti. Combina la risoluzione, le dimensioni e il formato di un display per la produttività con la qualità d'immagine superlativa della tecnologia OLED. Il prezzo è, come prevedibile, molto elevato, ma per chi lavora con le immagini e cerca un display che sia allo stesso tempo un hub di lavoro completo, questo monitor rappresenta la nuova vetta tecnologica da raggiungere.

 
 
Il nuovo Surface Laptop 7 in colorazione platino, aperto su una scrivania minimalista, con lo schermo che mostra il logo di Windows 12.
Il nuovo Surface Laptop 7 in colorazione platino, aperto su una scrivania minimalista, con lo schermo che mostra il logo di Windows 12.

Microsoft lancia una sfida diretta al MacBook Air di Apple con il nuovo Surface Laptop 7, il primo della linea a essere basato sul potente chip Snapdragon X Elite di Qualcomm. Abbandonando (per questo modello) i processori Intel, l'azienda promette un'efficienza energetica senza precedenti, con oltre 20 ore di autonomia dichiarata, e performance IA accelerate grazie alla NPU integrata, il tutto nel classico design premium Surface. ARTICOLO COMPLETO

La rivoluzione ARM per Windows
Il Surface Laptop 7 segna una svolta per Microsoft, che abbraccia con convinzione l'architettura ARM per i suoi notebook di punta. Il chip Snapdragon X Elite, con la sua CPU Oryon a 12 core, non solo garantisce un'efficienza energetica superiore, ma offre anche prestazioni multi-core che, secondo i benchmark preliminari di Qualcomm, superano quelle del chip M3 di Apple. La vera differenza, però, è nella NPU (Neural Processing Unit) Hexagon, capace di eseguire 45 trilioni di operazioni al secondo (TOPS), accelerando le funzionalità di intelligenza artificiale native di Windows 12, come Copilot e la traduzione in tempo reale.

Design e display confermati
Dal punto di vista estetico, il Surface Laptop 7 non si discosta molto dal suo predecessore, mantenendo il telaio in alluminio unibody, la tastiera in Alcantara (opzionale) e il display PixelSense in formato 3:2. Lo schermo, disponibile nelle versioni da 13.5 e 15 pollici, offre ora una luminosità di picco di 600 nit e un refresh rate dinamico fino a 120Hz. La webcam è stata aggiornata a un sensore 1080p con effetti "Windows Studio" accelerati dalla NPU, come la sfocatura dello sfondo e il contatto visivo automatico.

Il Surface Laptop 7 non è un semplice aggiornamento, ma una dichiarazione d'intenti. Microsoft fa sul serio con Windows on ARM, e questo dispositivo, con la sua combinazione di autonomia record e potenza IA, è la sua arma migliore per competere nel mercato dei notebook ultrasottili. Il successo dipenderà dalla maturità dell'emulazione di app x86 e dal supporto degli sviluppatori, ma la promessa di un laptop Windows che "dura tutto il giorno, per davvero" è finalmente a portata di mano.

 
 
La webcam Logitech MX Brio montata elegantemente sopra un monitor di design, in un ambiente di lavoro moderno e luminoso.
La webcam Logitech MX Brio montata elegantemente sopra un monitor di design, in un ambiente di lavoro moderno e luminoso.

Logitech alza il livello delle webcam professionali con la nuova MX Brio, un successore spirituale della popolare Brio 4K. Progettata per creator e professionisti, questa webcam vanta un sensore con pixel più grandi del 70% per performance superiori in bassa luce, un design premium in alluminio e una serie di funzionalità basate sull'IA per migliorare la qualità dell'immagine e offrire nuove modalità di interazione, come lo "Show Mode". ARTICOLO COMPLETO

Qualità d'immagine superiore in ogni condizione
Il punto di forza della MX Brio è il nuovo sensore d'immagine. Sebbene la risoluzione rimanga 4K, i pixel sono ora più grandi del 70% rispetto alla Brio 4K. Questo si traduce in una capacità molto maggiore di catturare la luce, producendo immagini più nitide, con meno rumore e colori più accurati, specialmente in ambienti non illuminati perfettamente. L'intelligenza artificiale integrata contribuisce a ottimizzare l'immagine in tempo reale, migliorando l'esposizione del volto, il bilanciamento del bianco e riducendo il rumore digitale.

Design e funzionalità intelligenti
La MX Brio abbandona la plastica per un elegante corpo in alluminio riciclato. È dotata di un otturatore per la privacy integrato, che si attiva ruotando un anello attorno all'obiettivo. Una delle funzioni più interessanti è lo "Show Mode": inclinando la webcam verso il basso, l'immagine ruota automaticamente, permettendo di mostrare schizzi o oggetti sulla scrivania in modo chiaro e leggibile ai partecipanti di una videochiamata. La webcam si integra perfettamente con i software Logi Options+ e G Hub per una personalizzazione avanzata di inquadratura, colore e messa a fuoco.

La Logitech MX Brio è un aggiornamento significativo che si rivolge a un'utenza esigente. Non è una webcam per tutti, dato il prezzo di lancio, ma per i professionisti, gli streamer e i creator che cercano la massima qualità d'immagine e funzionalità smart, rappresenta il nuovo punto di riferimento del mercato. La combinazione di un hardware eccellente e un software potenziato dall'IA la rende uno strumento potente e versatile.

 
 
Il robot umanoide industriale DR02 di DEEP Robotics è progettato per operare in qualsiasi condizione atmosferica.
Il robot umanoide industriale DR02 di DEEP Robotics è progettato per operare in qualsiasi condizione atmosferica.

I robot umanoidi stanno finalmente uscendo dai laboratori di ricerca per entrare nel mondo reale. Non più prototipi delicati, ma macchine robuste pronte per il lavoro industriale. L'azienda cinese DEEP Robotics ha presentato il DR02, un robot umanoide che definisce come il primo al mondo di livello industriale in grado di operare in qualsiasi condizione meteorologica e in qualsiasi scenario. ARTICOLO COMPLETO



Il lancio del DR02 mira a superare una delle limitazioni chiave del settore: la scarsa adattabilità dei robot alle complesse condizioni del mondo reale. Questo umanoide è stato progettato per essere un lavoratore instancabile, 24 ore su 24, 7 giorni su 7, indipendentemente da pioggia, polvere o temperature estreme.

Progettato per il mondo reale: specifiche e capacità
Le specifiche tecniche del DR02 sono impressionanti e focalizzate sulla robustezza. La caratteristica principale è la protezione completa IP66, che lo rende totalmente protetto da polvere e getti d'acqua potenti. Può operare in un intervallo di temperature che va da -20°C a 55°C. Alto 175 cm, ha una velocità di camminata standard di 1.5 m/s e una massima di 4 m/s. È in grado di superare ostacoli come scale alte 20 cm e di affrontare pendenze fino a 20°. Può trasportare un carico utile fino a 20 kg. Inoltre, un design modulare a sgancio rapido consente una manutenzione veloce sul campo.

"All-Weather, All-Scenario": i casi d'uso
La sua capacità di resistere a qualsiasi condizione meteo sblocca un'ampia gamma di applicazioni industriali. Il DR02 è ideale per compiti come ispezioni di impianti all'aperto (centrali elettriche, siti chimici), pattugliamenti di sicurezza perimetrale in qualsiasi momento del giorno e della notte, e operazioni all'interno di fabbriche o magazzini dove la presenza di polvere o liquidi è comune. La sua versatilità lo rende una risorsa economicamente vantaggiosa, in grado di giustificare l'investimento iniziale grazie a un'operatività continua.

Cervello e sensi: intelligenza artificiale a bordo
Per navigare e operare autonomamente in ambienti complessi, il DR02 è dotato di un potente sistema di calcolo e percezione. A bordo è presente un'unità di calcolo da 275 TOPS (trilioni di operazioni al secondo) che elabora i dati provenienti da un sistema multi-sensore (probabilmente una combinazione di LiDAR, telecamere e sensori inerziali). Questo "cervello" permette al robot di avere una percezione dell'ambiente in tempo reale, di pianificare percorsi per evitare ostacoli e di eseguire i suoi compiti in modo autonomo.

Il contesto del mercato: la corsa all'umanoide
Il lancio del DR02 avviene in un momento di grande fermento nel settore della robotica umanoide. Mentre aziende come Boston Dynamics continuano a spingere i limiti della mobilità, nuove realtà, soprattutto cinesi, stanno accelerando la commercializzazione. Un esempio è Unitree, il cui robot umanoide G1 è già in vendita sul sito americano di Walmart, puntando a un mercato più ampio e accademico. L'approccio di DEEP Robotics è diverso: punta direttamente al mercato industriale di fascia alta (B2B) con un prodotto specializzato e ultra-resistente, delineando una delle due principali strategie che probabilmente caratterizzeranno il settore nei prossimi anni.

Il DR02 di DEEP Robotics non è più fantascienza. È uno strumento di lavoro concreto che rappresenta un passo significativo verso l'automazione di compiti fisici in ambienti non strutturati. Questi lavoratori metallici potrebbero presto diventare una presenza comune in molti settori industriali, ridefinendo i concetti di produttività, logistica e sicurezza.

 
 
Una replica del primo transistor a contatto puntiforme inventato ai Bell Labs, un dispositivo dall'aspetto rudimentale che ha cambiato il mondo.
Una replica del primo transistor a contatto puntiforme inventato ai Bell Labs, un dispositivo dall'aspetto rudimentale che ha cambiato il mondo.

Potrebbe essere l'invenzione più importante del XX secolo, eppure pochi ne conoscono la storia. Il 23 dicembre 1947, nei Bell Labs, John Bardeen, Walter Brattain e William Shockley dimostrarono il funzionamento del primo transistor a contatto puntiforme. Questo piccolo dispositivo ha sostituito le ingombranti e inaffidabili valvole termoioniche, dando il via alla miniaturizzazione dell'elettronica e rendendo possibile ogni dispositivo che usiamo oggi. ARTICOLO COMPLETO

Prima del transistor: l'era delle valvole
Per comprendere l'importanza del transistor, bisogna pensare ai computer dell'epoca, come l'ENIAC. Erano macchine colossali, che occupavano intere stanze, consumavano enormi quantità di energia e richiedevano una manutenzione costante. Il loro funzionamento si basava sulle valvole termoioniche, essenzialmente delle lampadine che agivano da interruttori. Le valvole erano grandi, fragili, producevano molto calore e si bruciavano frequentemente, rendendo i computer estremamente inaffidabili.

La svolta ai Bell Labs
Il team dei Bell Labs stava cercando un'alternativa a stato solido. L'idea era di utilizzare i semiconduttori, materiali come il germanio o il silicio, per controllare il flusso di elettricità. Dopo anni di ricerca, l'esperimento decisivo avvenne a dicembre del 1947: applicando due contatti d'oro a un cristallo di germanio, Bardeen e Brattain riuscirono ad amplificare un segnale elettrico. Avevano creato il primo transistor funzionante. Shockley, il supervisore del gruppo, sviluppò poco dopo una versione più robusta e producibile in massa, il transistor a giunzione. Per la loro scoperta, i tre scienziati condivisero il Premio Nobel per la Fisica nel 1956.

L'impatto sulla tecnologia moderna
L'impatto del transistor fu epocale. Essendo piccolo, efficiente, economico e affidabile, permise la creazione di dispositivi elettronici sempre più compatti e potenti. Dalle prime radio a transistor tascabili degli anni '50 si passò ai circuiti integrati (chip) degli anni '60, che contenevano migliaia di transistor su una singola piastrina di silicio. Questo processo di miniaturizzazione, descritto dalla Legge di Moore, ha portato ai microprocessori moderni, che contengono miliardi di transistor e alimentano i nostri smartphone, computer e ogni altro dispositivo digitale.

Senza l'invenzione del transistor, il mondo come lo conosciamo non esisterebbe. Non avremmo smartphone, computer portatili, internet o l'esplorazione spaziale. Quel rudimentale dispositivo creato ai Bell Labs non è stato solo un progresso tecnologico, ma la vera e propria scintilla che ha innescato la rivoluzione digitale, trasformando per sempre la società e il modo in cui viviamo, lavoriamo e comunichiamo.

 
 
Di Alex (pubblicato @ 15:00:00 in Misteri, letto 32 volte)
Una vista satellitare di strane formazioni nuvolose esagonali sopra l'oceano nel Triangolo delle Bermuda.
Una vista satellitare di strane formazioni nuvolose esagonali sopra l'oceano nel Triangolo delle Bermuda.

Il Triangolo delle Bermuda affascina e inquieta da decenni, ma una teoria scientifica ha guadagnato terreno per spiegare alcune delle sue misteriose sparizioni. I ricercatori hanno identificato tramite satellite delle peculiari formazioni nuvolose esagonali, capaci di generare "bombe d'aria" con venti fino a 270 km/h e onde anomale, offrendo una spiegazione razionale a un fenomeno a lungo avvolto nel mito del paranormale. ARTICOLO COMPLETO

Nuvole dalla forma insolita
Utilizzando i dati dei satelliti meteorologici, un team di scienziati dell'Università del Colorado ha osservato la presenza ricorrente di nubi con contorni perfettamente esagonali sopra la porzione occidentale del Triangolo delle Bermuda. Queste formazioni, che possono estendersi per decine di chilometri, sono un fenomeno raro ma conosciuto in meteorologia. Sono associate a correnti discensionali estremamente potenti, note come "microbursts" o, più colloquialmente, "bombe d'aria".

La teoria delle "bombe d'aria"
Secondo la teoria, queste nubi agirebbero come dei veri e propri cannoni. L'aria fredda e densa al loro interno precipita verso l'oceano ad altissima velocità, colpendo la superficie del mare con una forza devastante. L'impatto può generare venti paragonabili a quelli di un uragano (fino a 270 km/h) e creare onde anomale alte decine di metri. Un aereo che si trovasse a volare attraverso una di queste "bombe d'aria" verrebbe spinto verso il basso con una forza incontrastabile, mentre una nave potrebbe essere capovolta e affondata in pochi istanti da onde così improvvise e violente.

Una spiegazione, non la spiegazione
È importante sottolineare che questa teoria non pretende di spiegare tutti i casi di sparizione associati al Triangolo delle Bermuda, molti dei quali sono stati smentiti o ricondotti a errori umani e normali avarie. Tuttavia, fornisce un meccanismo fisico plausibile e scientificamente fondato per spiegare come aerei e navi possano scomparire senza lasciare traccia in condizioni meteorologiche apparentemente normali. Il fenomeno dei microbursts è ben documentato e rappresenta un pericolo noto per l'aviazione. La particolarità, in questo caso, sarebbe la frequenza e l'intensità con cui sembrano manifestarsi in quella specifica area.

La leggenda del Triangolo delle Bermuda probabilmente non svanirà, ma la scienza continua a fornire pezzi del puzzle. La teoria delle nubi esagonali e delle "bombe d'aria" rappresenta uno degli sforzi più convincenti per portare un fenomeno dal regno del paranormale a quello della meteorologia estrema, dimostrando ancora una volta come le forze della natura possano essere più sorprendenti e terrificanti di qualsiasi mito.

 
 
La maschera funeraria dorata di Tutankhamon in primo piano, con geroglifici e decorazioni egizie sullo sfondo.
La maschera funeraria dorata di Tutankhamon in primo piano, con geroglifici e decorazioni egizie sullo sfondo.

La tomba di Tutankhamon, scoperta quasi intatta da Howard Carter nel 1922, potrebbe non aver ancora svelato tutti i suoi segreti. Un team internazionale di archeologi sta utilizzando una nuova tecnica di georadar a microonde per scansionare le pareti della camera funeraria, alla ricerca di prove a sostegno di una teoria controversa: la presenza di camere nascoste che potrebbero contenere la tomba della regina Nefertiti. ARTICOLO COMPLETO

La teoria delle camere segrete
La teoria, proposta originariamente dall'egittologo Nicholas Reeves, si basa su un'analisi dettagliata delle pitture murali della camera funeraria. Reeves ha notato delle anomalie, come linee e contorni che suggeriscono la presenza di porte sigillate e poi intonacate. Secondo la sua ipotesi, la tomba di Tutankhamon sarebbe in realtà solo l'anticamera di una tomba molto più grande e importante, quella di Nefertiti, la sua matrigna. La morte improvvisa e prematura del giovane faraone avrebbe costretto i sacerdoti a riadattare in fretta e furia una tomba non destinata a lui.

Nuova tecnologia per un vecchio mistero
I tentativi passati di sondare le pareti con il georadar hanno dato risultati contrastanti e inconcludenti. Questa nuova indagine, approvata dal Ministero delle Antichità egiziano, utilizzerà una tecnologia molto più avanzata. Il georadar a microonde a banda ultralarga (ULB-GPR) può penetrare la roccia con una risoluzione molto più alta, distinguendo tra cavità vuote, roccia solida e materiali diversi. Gli scienziati sperano di creare una mappa 3D dettagliata di ciò che si trova dietro le pareti dipinte, senza danneggiare in alcun modo il sito.

La possibilità di trovare la tomba inviolata di Nefertiti, una delle figure più potenti e misteriose dell'antico Egitto, sarebbe una delle scoperte archeologiche più importanti di tutti i tempi. Sebbene molti esperti rimangano scettici, questa nuova indagine tecnologica riaccende la speranza. Indipendentemente dal risultato, lo studio approfondirà la nostra conoscenza della costruzione della tomba e della storia tumultuosa di quel periodo, aggiungendo un nuovo capitolo all'infinita saga del faraone ragazzo.

 
 
Un'immagine evocativa in stile cyberpunk di una Los Angeles notturna e piovosa nel 2099, con auto volanti e ologrammi giganti.
Un'immagine evocativa in stile cyberpunk di una Los Angeles notturna e piovosa nel 2099, con auto volanti e ologrammi giganti.

L'universo di Blade Runner è pronto a espandersi ancora. Amazon ha confermato ufficialmente la produzione di "Blade Runner 2099", una serie TV live-action che fungerà da sequel diretto di "Blade Runner 2049". Con Ridley Scott a bordo come produttore esecutivo e Silka Luisa (Shining Girls) come showrunner, il progetto si preannuncia come uno degli eventi televisivi più attesi dei prossimi anni, con un debutto previsto per fine 2026. ARTICOLO COMPLETO

Cosa sappiamo della trama
I dettagli sulla trama sono ancora scarsi, ma il titolo stesso ci dà un'indicazione fondamentale: la storia si svolgerà 50 anni dopo gli eventi del film di Denis Villeneuve. Silka Luisa ha dichiarato che la serie esplorerà "la prossima evoluzione dell'umanità e dell'intelligenza artificiale". Ci si può aspettare che vengano affrontati temi come la longevità dei replicanti Nexus-9, le conseguenze della rivoluzione accennata in "2049" e il ruolo della Tyrell Corporation (o di ciò che ne resta) in questo nuovo futuro. Ridley Scott ha confermato che il primo episodio getterà le basi per un mondo profondamente cambiato, ma visivamente e tematicamente coerente con i film precedenti.

Produzione e cast
La produzione è di altissimo livello. Oltre a Scott, anche Michael Green, co-sceneggiatore di "Blade Runner 2049", è coinvolto come produttore. La regia dei primi episodi è stata affidata a Jonathan van Tulleken, noto per il suo lavoro sulla acclamata serie "Shōgun". Per quanto riguarda il cast, non ci sono ancora annunci ufficiali, ma circolano voci insistenti sulla possibile partecipazione di Harrison Ford in un ruolo di collegamento, anche se probabilmente marginale. È improbabile, invece, un ritorno di Ryan Gosling, il cui arco narrativo si è concluso nel film precedente.

"Blade Runner 2099" ha il potenziale per essere un capolavoro o un'occasione mancata. L'eredità dei due film è immensa, ma il team produttivo di altissimo profilo e la promessa di espandere questo affascinante universo narrativo lasciano ben sperare. I fan dovranno armarsi di pazienza, ma l'attesa per tornare a immergersi nelle strade piovose di una Los Angeles cyberpunk sarà, si spera, ampiamente ripagata.

 
 
Il Samsung Galaxy A35 si posiziona come uno dei migliori smartphone nella sua fascia di prezzo.
Il Samsung Galaxy A35 si posiziona come uno dei migliori smartphone nella sua fascia di prezzo.

La fascia media del mercato smartphone è un campo di battaglia affollatissimo, ma Samsung continua a dominarla con una formula precisa: portare caratteristiche un tempo riservate ai top di gamma a un prezzo accessibile. Il nuovo Galaxy A35 è l'ultima incarnazione di questa strategia, un dispositivo che promette un'esperienza quasi da flagship senza svuotare il portafoglio. ARTICOLO COMPLETO



Il Samsung Galaxy A35 si presenta come un dispositivo con specifiche da medio di gamma che lo rendono estremamente interessante, offrendo un pacchetto bilanciato e affidabile. Analizziamone ogni aspetto in dettaglio.

Design e display: un'esperienza visiva premium
Il punto di forza che salta subito all'occhio è il display. Il Galaxy A35 monta un pannello Super AMOLED da 6,6 pollici con risoluzione Full HD+ (2340 x 1080 pixel) e una frequenza di aggiornamento fino a 120 Hz. Questo si traduce in colori vividi, neri assoluti e una fluidità eccezionale, caratteristiche difficili da trovare in questa fascia di prezzo. La protezione è garantita dal vetro Gorilla Glass Victus Plus, mentre la certificazione IP67 per la resistenza ad acqua e polvere aggiunge una tranquillità tipica dei modelli superiori.

Hardware e prestazioni: il cuore Exynos 1380
A muovere il dispositivo troviamo il processore Samsung Exynos 1380, un chip octa-core realizzato con processo produttivo a 5 nm che garantisce un buon equilibrio tra prestazioni ed efficienza energetica. È affiancato da 6 o 8 GB di RAM e 128 o 256 GB di memoria interna, espandibile fino a 1 TB tramite microSD. Nell'uso quotidiano, questa configurazione offre un'esperienza fluida e reattiva, gestendo senza problemi multitasking e app comuni. L'uso di un chip proprietario permette a Samsung di ottimizzare l'integrazione hardware-software e di controllare i costi di produzione.

Comparto fotografico: 50 megapixel stabilizzati
La fotografia è un altro fiore all'occhiello. Il sensore principale è un'unità da 50 MP con apertura f/1.8 e, soprattutto, stabilizzazione ottica dell'immagine (OIS). Questa caratteristica, non scontata a questo prezzo, permette di ottenere scatti nitidi e video stabili anche in condizioni di scarsa luminosità. Il comparto è completato da un sensore ultra-grandangolare da 8 MP e da un sensore macro da 5 MP. Sebbene la fotocamera principale sia la vera star, il pacchetto complessivo è definito da molti il migliore nella sua categoria di prezzo.

Autonomia e ricarica: tanta durata, poca velocità
La batteria da 5.000 mAh garantisce un'ottima autonomia, consentendo di arrivare a fine giornata anche con un uso intenso. Il lato debole, tuttavia, è la ricarica. Il supporto alla ricarica "rapida" a 25 watt è ormai superato da molti concorrenti, anche più economici, che offrono velocità decisamente superiori. È un compromesso che si deve accettare in cambio delle altre caratteristiche premium.

Software e aggiornamenti: la promessa di lunga vita
Forse il più grande valore aggiunto del Galaxy A35 è il software. Arriva con Android 14 e la One UI 6.1, ma soprattutto gode della politica di aggiornamenti di Samsung: 4 nuove versioni di Android e 5 anni di patch di sicurezza. Questa garanzia di longevità e sicurezza è un fattore differenziante enorme, che trasforma l'acquisto in un investimento a lungo termine.

In conclusione, il Samsung Galaxy A35 si conferma un acquisto eccellente. Non è il più potente né il più veloce a ricaricarsi, ma offre un pacchetto incredibilmente bilanciato. Con il suo display superbo, una fotocamera principale di alta qualità e una politica di aggiornamenti senza rivali, si candida a essere il vero re della fascia media, ideale per chi cerca affidabilità e durata nel tempo.

 
 
Un'illustrazione stilizzata che mostra una scatola chiusa. All'interno, la figura di un gatto è rappresentata sia viva che morta contemporaneamente, a simboleggiare la sovrapposizione quantistica.
Un'illustrazione stilizzata che mostra una scatola chiusa. All'interno, la figura di un gatto è rappresentata sia viva che morta contemporaneamente, a simboleggiare la sovrapposizione quantistica.

Uno dei più celebri e fraintesi esperimenti mentali della scienza, il paradosso del gatto di Schrödinger, fu concepito dal fisico Erwin Schrödinger nel 1935 non per dimostrare che un gatto potesse essere contemporaneamente vivo e morto, ma per evidenziare l'assurdità che derivava dall'applicare le bizzarre regole della meccanica quantistica al mondo macroscopico che esperiamo tutti i giorni. Analizziamo cosa rappresenta davvero. ARTICOLO COMPLETO

L'esperimento mentale
Immaginiamo di chiudere un gatto in una scatola d'acciaio insieme a un meccanismo infernale: una fiala di veleno e un martelletto pronto a romperla. Il martelletto è collegato a un contatore Geiger che monitora un singolo atomo radioattivo. In un dato intervallo di tempo, poniamo un'ora, l'atomo ha esattamente il 50% di probabilità di decadere e il 50% di probabilità di non decadere. Se l'atomo decade, il contatore Geiger scatta, il martelletto rompe la fiala e il gatto muore. Se non decade, il gatto vive.

La sovrapposizione quantistica
Secondo l'interpretazione di Copenaghen della meccanica quantistica, fino a quando non viene effettuata un'osservazione, l'atomo si trova in uno stato di "sovrapposizione": non è né decaduto né non decaduto, ma entrambe le cose contemporaneamente. Schrödinger, con il suo paradosso, estende questa stranezza al mondo macroscopico: se lo stato dell'atomo è indeterminato, allora anche il destino del gatto, che dipende da esso, deve essere indeterminato. Fino a quando non apriamo la scatola per osservare, il gatto non è né vivo né morto, ma si trova in una macabra sovrapposizione di "gatto vivo" e "gatto morto".

Il significato del paradosso
L'atto di aprire la scatola e guardare dentro è l' "osservazione" che costringe il sistema a "scegliere" uno stato definito: l'atomo o è decaduto o non lo è, e il gatto o è vivo o è morto. Questo collasso della funzione d'onda è uno dei concetti più controintuitivi della fisica. Schrödinger non credeva che un gatto potesse letteralmente essere in due stati contemporaneamente. Il suo era un argomento per assurdo, progettato per criticare l'interpretazione di Copenaghen e per evidenziare il problema del "confine" tra il mondo quantistico (dove la sovrapposizione è la norma) e il mondo classico (dove non lo è).

Il paradosso del gatto di Schrödinger rimane uno strumento pedagogico potentissimo per introdurre il concetto di sovrapposizione e il ruolo dell'osservatore nella meccanica quantistica. Non ci dice nulla sulla biologia dei gatti, ma ci costringe a confrontarci con una realtà, quella subatomica, dove le regole della nostra intuizione quotidiana cessano di essere valide, aprendo le porte a un universo molto più strano e affascinante di quanto possiamo immaginare.

 
 
Una rappresentazione artistica dell'universo primordiale con onde gravitazionali che increspano lo spaziotempo.
Una rappresentazione artistica dell'universo primordiale con onde gravitazionali che increspano lo spaziotempo.

Un nuovo studio basato sui dati raccolti dagli array di pulsar timing (PTA) ha rivelato un "ronzio" di fondo di onde gravitazionali a bassissima frequenza che pervade l'universo. Sebbene previsto dalla teoria, l'intensità di questo segnale è molto più alta di quanto i modelli standard si aspettassero, suggerendo la presenza di fenomeni cosmologici sconosciuti o la necessità di rivedere le nostre teorie sull'universo primordiale. ARTICOLO COMPLETO

Ascoltare l'universo con le pulsar
A differenza di LIGO e Virgo, che rilevano onde gravitazionali ad alta frequenza generate da eventi violenti come fusioni di buchi neri, gli esperimenti PTA come NANOGrav usano le pulsar millisecondo come una rete di orologi cosmici di precisione. Queste stelle di neutroni ruotano centinaia di volte al secondo, emettendo fasci di onde radio a intervalli regolarissimi. Il passaggio di un'onda gravitazionale a bassissima frequenza "stira" e "comprime" lo spaziotempo tra la Terra e una pulsar, causando una minuscola ma rilevabile variazione nel tempo di arrivo dei suoi segnali.

Un segnale troppo forte
Dopo oltre 15 anni di osservazioni, i dati combinati di diversi PTA hanno confermato con un'altissima significatività statistica la presenza di questo fondo stocastico di onde gravitazionali. La fonte più probabile sono le coppie di buchi neri supermassicci che spiraleggiano lentamente l'uno verso l'altro al centro delle galassie in fusione. Tuttavia, i modelli astrofisici attuali che simulano queste fusioni non riescono a spiegare l'ampiezza del segnale osservato: è da due a tre volte più intenso del previsto.

Nuova fisica all'orizzonte?
Questa discrepanza ha acceso l'entusiasmo della comunità scientifica, poiché potrebbe essere la prima prova di "nuova fisica". Tra le ipotesi alternative, vi sono le vibrazioni di stringhe cosmiche, transizioni di fase nell'universo primordiale o persino forme esotiche di materia oscura. I prossimi anni saranno cruciali: l'aumento della sensibilità dei PTA, grazie all'inclusione di più pulsar e a un periodo di osservazione più lungo, permetterà di mappare questo fondo con maggiore precisione, aiutando i cosmologi a distinguere tra le diverse teorie e, forse, a scoprire un capitolo completamente nuovo della storia del cosmo.

La scoperta del fondo di onde gravitazionali a bassa frequenza non è un punto di arrivo, ma l'inizio di una nuova era per l'astronomia. Il "ronzio" dell'universo è più forte del previsto, e capire il perché potrebbe costringerci a riconsiderare alcuni degli assunti fondamentali sulla formazione delle galassie e sull'evoluzione dell'universo stesso. L'indagine è appena iniziata, e le risposte promettono di essere rivoluzionarie.

 
 
Di Alex (pubblicato @ 10:00:00 in Misteri, letto 74 volte)
Una rappresentazione artistica di un disco volante precipitato nel deserto del New Mexico, con detriti metallici sparsi al suolo.
Una rappresentazione artistica di un disco volante precipitato nel deserto del New Mexico, con detriti metallici sparsi al suolo.

Nel luglio del 1947, qualcosa precipitò in un ranch vicino a Roswell, New Mexico. Da allora, l'incidente è diventato il caso più iconico e dibattuto della storia dell'ufologia. Ma cosa accadde veramente? Analizzando i fatti storici e le spiegazioni ufficiali fornite dall'aeronautica militare statunitense, è possibile tracciare un quadro molto più terrestre, seppur affascinante, di un evento trasformato in leggenda dal folklore e dalla segretezza militare. ARTICOLO COMPLETO

I fatti iniziali e il comunicato stampa
Tutto iniziò quando un allevatore, W.W. "Mac" Brazel, scoprì un campo di strani detriti metallici e di gomma. Informato lo sceriffo locale, la questione arrivò rapidamente alla base aerea di Roswell, che inviò il maggiore Jesse Marcel a investigare. Inizialmente, l'esercito emise un comunicato stampa sensazionale, annunciando il recupero di un "disco volante". Tuttavia, poche ore dopo, la narrativa cambiò drasticamente: i detriti appartenevano a un pallone meteorologico, e il maggiore Marcel fu fotografato con i resti di questo pallone per smentire la storia.

La spiegazione ufficiale: il progetto Mogul
Per decenni, la spiegazione del pallone sonda rimase quella ufficiale, ma non convinse mai del tutto la comunità ufologica. Solo negli anni '90, l'US Air Force declassificò una serie di documenti che rivelarono la vera natura dell'oggetto: si trattava di un pallone ad alta quota del Progetto Mogul, un programma militare top-secret volto a monitorare eventuali test nucleari sovietici tramite sensori acustici trasportati da palloni stratosferici. I materiali dei detriti trovati da Brazel (stagnola riflettente, nastro adesivo con simboli, travi di balsa) erano perfettamente compatibili con quelli usati per questi palloni.

La nascita di un mito
La segretezza che circondava il Progetto Mogul, unita alla ritrattazione frettolosa e poco convincente dell'esercito, creò un terreno fertile per le teorie del complotto. Negli anni successivi, testimoni (spesso con ricordi emersi decenni dopo) iniziarono a parlare di corpi alieni e navicelle intatte, alimentando un mito che è cresciuto a dismisura, culminando in libri, film e persino nel famoso video dell' "autopsia aliena" (poi rivelatosi un falso). La spiegazione del Progetto Mogul, sebbene meno eccitante, è supportata da prove documentali e offre un quadro coerente di come un incidente militare segreto sia stato interpretato come un evento extraterrestre.

Il caso Roswell è un esempio perfetto di come la segretezza governativa e il desiderio umano di credere nello straordinario possano creare una leggenda quasi indistruttibile. Sebbene le prove indichino una spiegazione convenzionale legata allo spionaggio della Guerra Fredda, il disco volante di Roswell continua a vivere nell'immaginario collettivo, a testimonianza del fascino intramontabile dei misteri dello spazio e della domanda "siamo soli?".

 
 
Di Alex (pubblicato @ 09:00:00 in Fantascienza-Misteri, letto 65 volte)
Il celebre fotogramma del filmato di Patterson-Gimlin del 1967, che mostra la presunta creatura Bigfoot mentre cammina nella foresta.
Il celebre fotogramma del filmato di Patterson-Gimlin del 1967, che mostra la presunta creatura Bigfoot mentre cammina nella foresta.

Il Bigfoot, o Sasquatch, è una delle figure più radicate nel folklore nordamericano e un caposaldo della criptozoologia. Nonostante decenni di presunti avvistamenti, impronte e filmati sgranati, la comunità scientifica rimane scettica. Ma quali sono le "prove" a sostegno della sua esistenza, e perché la scienza non le ritiene sufficienti? Analizziamo il fenomeno in modo critico e obiettivo, al di là del mito. ARTICOLO COMPLETO

Le prove principali: filmati e impronte
La prova più famosa a favore del Bigfoot è il filmato girato da Roger Patterson e Bob Gimlin nel 1967 a Bluff Creek, in California. Il breve filmato mostra una figura alta e pelosa che cammina con andatura bipede. Sebbene iconico, il filmato è molto controverso: molti esperti di effetti speciali e anatomisti ritengono che si tratti di un uomo in un costume, evidenziando incongruenze nella muscolatura e nel movimento. Altre prove comuni sono le grandi impronte ritrovate nelle foreste. Tuttavia, la maggior parte di queste si è rivelata essere opera di burloni o errate identificazioni di tracce di animali noti (come orsi) deformate dal terreno.

L'analisi del DNA e l'assenza di fossili
Negli ultimi anni, sono stati condotti diversi studi genetici su presunti campioni di peli e tessuti di Bigfoot. Un'analisi completa del 2014, guidata dal genetista Bryan Sykes dell'Università di Oxford, ha esaminato decine di campioni provenienti da tutto il mondo. I risultati sono stati deludenti per i sostenitori del Bigfoot: la maggior parte dei campioni apparteneva a orsi, lupi, mucche e altri animali conosciuti. Un altro grande ostacolo per la tesi del Bigfoot è la totale assenza di prove fossili. Per una popolazione di primati di grandi dimensioni possa sopravvivere e riprodursi per secoli, dovrebbe lasciare tracce nel record fossile, cosa che non è mai avvenuta.

Dal punto di vista scientifico, non esiste alcuna prova credibile che supporti l'esistenza del Bigfoot. Le prove aneddotiche, i filmati sfuocati e le impronte non reggono a un'analisi rigorosa. Il fenomeno Bigfoot è meglio compreso come un potente mito moderno, un prodotto del folklore, della psicologia umana (la pareidolia, il desiderio di credere) e della vastità selvaggia del continente nordamericano. Rappresenta il nostro fascino per l'ignoto e per l'idea che, forse, non abbiamo ancora scoperto tutto.

 
 
Il Kenbak-1, progettato nel 1971, è riconosciuto come il primo personal computer al mondo.
Il Kenbak-1, progettato nel 1971, è riconosciuto come il primo personal computer al mondo.

La narrazione comune colloca la nascita del personal computer a metà degli anni '70, con l'Apple II o il kit dell'Altair 8800. Ma la storia è diversa. Il primo vero PC è nato prima, nel 1971, in un'epoca dominata da mainframe grandi come stanze. Si chiamava Kenbak-1 e fu il frutto della visione di un uomo che immaginò un computer per l'individuo prima ancora che esistesse il microprocessore. ARTICOLO COMPLETO



Nel 1986, il Computer Museum di Boston lanciò un concorso per determinare quale fosse stato il primo vero personal computer. Il vincitore non fu un prodotto di Apple o Microsoft, ma il Kenbak-1 di John Blankenbaker, un dispositivo che anticipò la rivoluzione informatica di diversi anni.

John Blankenbaker e la sua visione
All'inizio degli anni '70, i computer erano strumenti inaccessibili, riservati a governi e grandi aziende. In questo contesto, l'idea di un computer "personale" era a dir poco rivoluzionaria. John Blankenbaker, un ingegnere informatico, ebbe la visione di creare una macchina economica e accessibile, non per il business, ma per scopi educativi. Voleva uno strumento che potesse insegnare i principi della programmazione e della logica informatica. Lavorando da solo nel suo garage, progettò e costruì il computer, scrivendo anche tutti i manuali di riferimento. Il suo obiettivo era venderlo a 750 dollari, un prezzo incredibilmente basso per l'epoca.

Anatomia del primo PC: interruttori e luci
Il Kenbak-1 era un prodotto del suo tempo, un'epoca precedente all'invenzione del microprocessore. La sua architettura non era basata su un singolo chip CPU, ma su circuiti integrati a piccola e media scala (SSI e MSI). La sua memoria era di soli 256 byte. Ma la caratteristica più distintiva era la sua interfaccia: non c'erano né schermo né tastiera. L'input veniva inserito tramite una serie di interruttori sul pannello frontale, e l'output veniva letto attraverso una fila di luci. Per usarlo, bisognava "parlare" con la macchina nel suo linguaggio nativo, il binario. Questo lo rendeva uno strumento educativo potente, ma anche incredibilmente ostico per chiunque non fosse un appassionato.

Il fallimento commerciale e l'arrivo dell'Altair
Nonostante la visione pionieristica, il Kenbak-1 fu un fallimento commerciale. Blankenbaker riuscì a vendere solo una quarantina di unità prima di chiudere l'azienda nel 1973. Il suo prodotto era arrivato troppo presto, prima che si formasse una vera cultura hobbistica attorno all'informatica. Il successo arrise invece, nel 1975, al MITS Altair 8800. Basato sul nuovo microprocessore Intel 8080 e presentato come un kit da assemblare sulla rivista "Popular Electronics", l'Altair catturò l'immaginazione di una nascente comunità di appassionati di elettronica, generando migliaia di ordini e dando il via alla rivoluzione. Il suo successo fu tanto culturale e di marketing quanto tecnologico.

Sebbene dimenticato per anni, il Kenbak-1 si è guadagnato il suo posto nella storia. Non fu un successo, ma rappresentò la prima, coraggiosa incarnazione fisica dell'idea di un computer per l'individuo. Fu un passo fondamentale, un'intuizione geniale che anticipò di anni la rivoluzione che avrebbe cambiato per sempre il nostro mondo, dimostrando che le grandi idee spesso precedono la tecnologia e il mercato necessari per realizzarle.

 
 
Un'immagine macro di un processore futuristico con chiplet ottici che emettono deboli fasci di luce, interconnessi da guide d'onda fotoniche.
Un'immagine macro di un processore futuristico con chiplet ottici che emettono deboli fasci di luce, interconnessi da guide d'onda fotoniche.

La legge di Moore sta raggiungendo i suoi limiti fisici, ma una nuova tecnologia promette di aprire un'era di performance inimmaginabili: i chiplet ottici. Sostituendo le connessioni elettriche tra i core di un processore con impulsi di luce, la fotonica del silicio potrebbe eliminare i colli di bottiglia della comunicazione dati, portando a un'efficienza energetica e a una velocità di calcolo ordini di grandezza superiori a quelle attuali. ARTICOLO COMPLETO

Il problema del "muro di memoria"
Nei processori moderni, la velocità di calcolo dei singoli core è aumentata esponenzialmente, ma la velocità con cui questi core possono comunicare tra loro e con la memoria (la larghezza di banda) non ha tenuto il passo. Questo crea un "muro di memoria", un collo di bottiglia che limita le prestazioni complessive, specialmente nei carichi di lavoro dell'intelligenza artificiale e dell'analisi di big data. Le connessioni elettriche in rame, infatti, consumano molta energia, generano calore e perdono integrità del segnale su distanze anche minime all'interno di un chip.

La soluzione: comunicare con la luce
La fotonica del silicio propone di risolvere questo problema incidendo minuscole "guide d'onda" direttamente sul silicio, creando dei veri e propri circuiti ottici. Invece di elettroni che si muovono attraverso fili di rame, sono i fotoni (particelle di luce) a viaggiare in queste guide. I vantaggi sono enormi: la luce viaggia più velocemente, non genera calore per resistenza, non subisce interferenze elettromagnetiche e può trasportare molti più dati contemporaneamente utilizzando diverse lunghezze d'onda (colori) sulla stessa guida.

Dai laboratori ai data center
Aziende come Intel, Ayar Labs e GlobalFoundries stanno già producendo i primi prototipi di processori con chiplet ottici. Questi "co-packaged optics" integrano i componenti fotonici direttamente accanto ai chip di calcolo. Un recente prototipo presentato su Nature ha dimostrato una larghezza di banda di interconnessione superiore di dieci volte rispetto alle migliori soluzioni elettriche, con un consumo energetico ridotto del 95%. Sebbene la tecnologia sia ancora costosa, il suo primo campo di applicazione saranno i data center, dove l'efficienza energetica e la velocità di calcolo sono cruciali.

I chiplet ottici non sono più fantascienza. Rappresentano la prossima, inevitabile evoluzione dell'hardware per il calcolo ad alte prestazioni. Sostituendo i fili con la luce, questa tecnologia promette di abbattere le barriere che oggi limitano la potenza dei nostri computer, aprendo la strada a modelli di IA più complessi, simulazioni scientifiche più accurate e un'infrastruttura cloud più veloce ed efficiente dal punto di vista energetico.

 
 

Fotografie del 16/10/2025

Nessuna fotografia trovata.