News

Basta con il cloud ‘a rubinetto’: qualcuno ha deciso di smontare gli Hyperscaler

🇮🇹 · /root · Lamberto Tedaldi

Immaginate di comprare un motore custom per la vostra macchina da corsa, ma di scoprire che per farlo girare dovete prima pagare una tassa sulla velocità, poi una tassa sulla rotazione degli ingranaggi e, infine, una commissione extra ogni volta che volete cambiare marcia. Sembra assurdo, vero? Eppure è esattamente così che funzionano i moderni servizi cloud. Siamo tutti intrappolabile in un ecosistema di astrazioni che promettono semplicità e ci restituiscono solo costi esorbitanti e limitazioni tecniche che sembrano scritte da un burocrate di Amazon. Recentemente è uscita una bomba su Hacker News: un developer (che non sembra uno che si perde in chiacchiere) ha annunciato che sta costruendo exe.dev. E non, non è l’ennesima startup che promette di rivoluzionare il marketing digitale. Sta letteralmente costruendo un cloud. Ma un cloud *vero*, uno di quelli che non ti fa venire il mal di testa quando devi configurare un disco o gestire il traffico di rete. Il punto è che l’attuale paradigma del cloud è rotto. Gli Hyperscaler hanno creato dei ‘monoliti’ di servizi dove tutto è interconnesso in modo da impedirti di andartene. Vuoi usare un disco veloce? Preparati a pagare cifre che farebbero piangere un contabile. Vuoi far parlare due server tra loro senza spendere un patrimonio in egress fees? Buona fortuna. L’autore del post originale ci spiega una cosa che noi smanettoni capiamo fin troppo bene: le VM moderne sono ‘sbagliate’. Sono legate a risorse CPU e memoria in modi rigidi e inutili. E poi c’è il dramma degli SSD. Siamo passati dai dischi meccanici con tempi di accesso da millisecondi a SSD che volano, eppure i provider cloud continuano a offrirci storage remoto che strozza le performance come se fossimo ancora nel 1995. È come avere una Ferrari ma doverla guidare dentro un condotto per l’acqua. Per noi che amiamo il ferro, che passiamo le notti a configurare i nostri server casalinghi o a ottimizzare script per l’automazione, questa notizia è una boccata d’aria fresca. L’idea di avere risorse (CPU, RAM, disco NVMe locale) che puoi gestire senza dover sottostare a logiche di PaaS assurde o a Kubernetes — che, ammettiamolo, spesso è solo un enorme layer di complessità per coprire i buchi dei provider — è entusiasmante. Certo, restiamo con i piedi per terra: costruire un’infrastruttura globale è un’impresa titanica. Ma l’approccio ‘torno alle basi, monto i server nei data center e gestisco io lo stack’ è esattamente il tipo di mentalità hacker che serve per rompere il monopolio della mediocrità tecnologica. Speriamo che exe.dev riesca a farcela. Se riuscissero a offrirci un ambiente dove possiamo lanciare i nostri esperimenti, le nostre AI agent e i nostri servizi senza temere che una fattura improvvisa ci mandi in bancarotta, avrebbero fatto un favore enorme a tutta la community. Meno fuffa, più prestazioni. È tutto quello che chiediamo. Source: I am building a cloud

webnewscloud computingdevopshackinginfrastructuretech news

GPT-5.5: Ancora una dose di magia nera o solo un altro aggiornamento per vendere abbonamenti?

🇮🇹 · /root · Lamberto Tedaldi

Scommetto che l’ultima volta che avete controllato i vostri server, non pensavate che OpenAI sarebbe tornata a scuotere le acque con un nuovo modello così presto. OpenAI ha appena annunciato GPT-5.5 e, come da tradizione, il comunicato ufficiale è un mix letale di promesse rivoluzionarie e quel tipo di linguaggio aziendale che fa venire voglia di lanciare il modem dalla finestra. Il titolo dice tutto: un aggiornamento che promette di essere il salto definitivo verso l’AGI, con capacità di ragionamento che, a parole, sembrano superare persino la nostra capacità di capire perché il codice scritto in C++ ieri sera non compili oggi. Andiamo al sodo. Cosa cambia davvero per noi che non ci accontentiamo dei prompt preimpostati? Le novità riguardano principalmente una gestione molto più fluida dei task multi-step e una finestra di contesto che sembra non avere fine. In teoria, potresti passargli l’intero repository di un progetto su Godot, o magari i log incasinati della tua CNC che ha deciso di sgarrare proprio sul finale di un pezzo in alluminio, e lui dovrebbe capire dove sta l’errore senza perdersi in un loop di allucinazioni. Da smanettone, la cosa che mi eccita di più è l’integrazione potenziata con gli strumenti esterni. Se riescono a rendere il modello capace di agire davvero su agenti autonomi che possono scrivere script, testarli e magari persino renderizzare modelli in Blender senza che io debba fare il babysitting manuale di ogni singolo passaggio, allora abbiamo qualcosa di serio tra le mani. È il sogno di ogni maker: avere un assistente che non si limita a darti consigli, ma che ti aiuta a debuggare l’elettronica o a ottimizzare un percorso di utensili. Però, restiamo con i piedi per terra. C’è sempre quel retrogusto amaro di vendor lock-in che ti segue ovunque. Ogni volta che questi giganti rilasciano qualcosa, ci si chiede quanto di questa potenza rimarrà accessibile e quanto sarà chiusa in un ecosistema proprietario dove non puoi vedere sotto il cofano. Siamo abituati a smontare le cose, a guardare i pesi dei modelli, a capire come funzionano i layer. Se GPT-5.5 diventa un’altra scatola nera blindata e troppo costosa per essere usata seriamente in locale o tramite API senza svuotare il portafoglio, allora è solo un altro giocattolo per far impressione agli azionisti. In conclusione: se è davvero più intelligente e capace di gestire logiche complesse, è una figata atomica. Se è solo un modo più raffinato per farci pagare l’abbonamento Plus mentre ci nascondono come funziona l’inferenza, allora torniamo volentieri ai nostri vecchi script Python e alla buona vecchia manualità. Incrociamo le dita (e i circuiti). Source: GPT-5.5

webnewsaiautomationGPT-5.5openaiTechNews