Legge di Moore, dal 1965 predice il progresso dei computer

0
10

La ‘legge di Moore’, secondo cui la potenza dei computer è destinata a raddoppiare ogni 18 mesi diminuendo contemporaneamente di costo, almeno fino a quando è possibile ridurre le dimensioni dei transistor che compongono i microchip, non è un vera e propria regola scientifica ma nasce dalle osservazioni fatte 51 anni fa da Gordon Moore, l’87enne co-fondatore con Robert Noyce del colosso Usa dei semiconduttori Intel. Originariamente la legge di Moore ipotizzava un arco di tempo di 12 mesi, che con l’arrivo dei primi microprocessori, nel 1971, si rivelò corretto. Tale periodo è però aumentato a circa 24 mesi nel 1975 e solo alla fine degli anni ’80, quella che nel frattempo era diventata la ‘prima legge di Moore’ (la seconda dice che ‘il costo di una fabbrica di chip raddoppia da una generazione all’altra’) ha assunto la sua forma definitiva e oggi i microprocessori più potenti hanno miliardi di transistor il migliaio dei primi microchip.
    La premessa dietro la legge di Moore – che i microchip dei computer sarebbero diventati periodicamente più potenti costando meno – ha aiutato i colossi dell’elettronica, e in particolare quelli della Silicon Valley californiana, a mantenere un ritmo innovativo incalzante in questo mezzo secolo, partendo dal personal computer per arrivare allo smartphone e alla nuvola del web, all’Internet delle cose e, prossimamente, all”Internet di ogni cosa’. Ecco le tappe principali di questa innovazione.
    1965 – Gordon Moore, allora direttore della ricerca di Fairchild Semiconductor, pubblica un articolo su Electronics Magazine in cui osserva che il numero di componenti, transistor, diodi e resistori in un circuito integrato è raddoppiato ogni anno tra il 1959 e il 1965 e ipotizza che tale andamento è destinato a continuare nei successivi 10 anni.
    1971 – Intel costruisce il suo primo microprocessore, il 4004, progettato dall’italiano Federico Faggin, dando via all’elettronica di consumo.
    1977 – Apple lancia l’Apple II, home computer progenitore dei personal computer.
    1981 – IBM immette nel mercato l’IBM 5150, meglio conosciuto come il PC IBM.
    1989 – Intel introduce l’80486, primo microprocessore con più di un milione di transistor.
    1993 – Intel annuncia la creazione del Pentium, che ha il triplo dei transistor del suo predecessore. 2000 – Il Pentium III supera i 20 milioni di transistor e il Pentium IV, i 40 milioni. Nei 4-5 anni successivi i processori crescono esponenzialmente, fino ai 220 milioni di transistor del Pentium D. Ma crescono anche i problemi per il surriscaldamento dei chip che rallentano momentaneamente la ‘corsa’.
    2005 – Intel introduce il Core 2, il suo primo multicore, con un’architettura che mette in parallelo più processori (core) per moltiplicare le prestazioni. Tre anni dopo arrivano i primi Quad-core (quattro core) di Intel e AMD, con più di 700 milioni di transistor.
    2007 – Apple consegna i primi iPhone, trasformando il telefono in un ‘computer che sta in una mano’.
    2008 – Intel supera la ‘barriera’ dei due miliardi di transistor con il processore Itanium a quattro core.
    2013 – Apple mette nell’iPhone l’A7, un processore da 64 bit e un miliardo di transistor. L’anno dopo l’A8 ‘raddoppia’.
    2015 – Il processore commerciale Xeon, a 18 core, ha 5,5 miliardi di transistor.
    2016 – Intel annuncia il taglio di 12 mila posti di lavoro e una consistente ristrutturazione che riorienterà l’azienda verso l’Internet delle cose. Da molti esperti questo viene considerato un segno che la ‘legge di Moore’ ha raggiunto il suo limite.