Il problema è complesso e di non facile soluzione: se non si può più "scendere" di dimensioni, che si fa?
Si stanno già cercando strade alternative, dai processori quantistici (in un futuro ancora lontanuccio) alla commistione tra processori generici (cpu) e processori specialistici (gpu, fpga, asic, ecc).
Mettendola così, sembra che il percorso fatto sinora sia, banalmente parlando, il più ovvio per accedere a una migliore tecnologia. Certo sarebbe stato inutile scendere di dimensioni se non veniva allo stesso tempo introdotta una architettura sempre più complessa e capace di garantire prestazioni migliori, su tutti i fronti.
Mannaggia a Moore, colui che ci ha permesso di assistere a una super competizione sull'hardware.
Ora però ci vorrebbe un Nobel per il software...
Altro grosso scoglio da superare, per ottenere risultati, è ovviamente il sw: come insegnare agli sviluppatori a produrre codice ottimizzato? Ci sono ancora oggi molti programmi che non riescono ad ottenere significativi vantaggi dai sistemi multicore, figurarsi scrivere sw che funzioni su gpu o che sfrutti l'fpga.
E su questo punto potremmo dire poche cose sagge: auguriamoci che il sistema inizi a pensare a questa ovvietà come a una prioritaria necessità.
Se il software inizierà a essere visto alla pari dell'hardware, allora e solo allora potremmo dirci avanzati tecnologicamente.
Per ora abbiamo le braccia grosse e il cervello corto.