Era il caos. L'unica cosa che questi home computer avevano in comune era l'incompatibilità! Ogni macchina era a sé e non aveva la minima intenzione di comunicare con le altre, proprio come facevano i proprietari, divisi praticamente in fazioni come "commodoristi" e "sinclairisti". Oggi non esiste più questo tipo di sana rivalità, la guerra tra PC e MAC è solo l'ombra di ciò che poteva scaturire da un "Commodore 64 vs Spectrum". In questi 15 anni si è concentrato uno sviluppo tecnologico senza precedenti. Farò una sintesi degli eventi che hanno portato alla nascita degli home computer.
Nel 1823 Charles Babbage presentò al governo inglese il suo progetto per la macchina differenziale, il primo calcolatore programmabile della storia. Il progetto fu approvato e Babbage ricevette 1500 sterline per realizzarlo, ma la macchina non vide mai la luce per la mancanza, in quel periodo, di componenti adatti, lasciandola ad uno stato di prototipo mai completato. In sintesi, sarebbe stata in grado di eseguire addizioni, sottrazioni e moltiplicazioni.
Nel 1833, dieci anni dopo, lo stesso Babbage concepì la macchina analitica, la prima macchina programmabile e capace di eseguire tutte le operazioni. Quest'ultima invenzione però rimase solo un progetto. Babbage ha sicuramente il merito di aver gettato le basi per i moderni computer, oltre ad aver ispirato la nascita del filone letterario steampunk.
Nel 1890 Herman Hollerith ideò la carta perforata. L'idea nacque dalla necessità di semplificare l'elaborazione dei dati del censimento americano e la scintilla fu l'osservare un controllore di un treno mentre obliterava i biglietti. nel 1896 fondò la Tabulatine Machine Company, che dopo varie fusioni e cambiamenti di nome diventò nel 1924 la International Business Machine Corporation, meglio nota come IBM.
Nel 1936, Alan Turing concepì l'idea di una macchina, la Turing Machine. Da Wikipedia: "È un potente strumento teorico che viene largamente usato nella teoria della calcolabilità e nello studio della complessità degli algoritmi, in quanto è di notevole aiuto agli studiosi nel comprendere i limiti del calcolo meccanico. La sua importanza è tale che oggi, per definire in modo formalmente preciso la nozione di algoritmo, si tende a ricondurlo alle elaborazioni effettuabili con macchine di Turing." Lo stesso Turing contribuì alla decodifica del codice Enigma, durante la Seconda Guerra Mondiale.
Il primo computer digitale, cioè senza parti elettromeccaniche e ingranaggi, è stato l'Atanasoff Berry Computer, conosciuto anche come ABC. Fu progettato e costruito fra il 1937 e il 1942. Il primo prototipo nacque nel 1939. Introdusse 3 funzioni fondamentali, utilizzate anche dai computer moderni:
1. L'utilizzo dei numeri binari per rappresentare i numeri e i dati
2. Tutti i calcoli sono effettuati attraverso circuiti elettronici invece che con ingranaggi, parti meccaniche o interruttori elettromeccanici
3. L'organizzare il sistema in una parte dedita all'elaborazione e una alla memorizzazione, le due parti sono separate
Nel 1937 Howard Hathaway Aiken volle mettere in pratica le teorie di Babbage sul calcolo automatico. Contattò i costruttori di calcolatrici dell'epoca, ma tutti rifiutarono la proposta. Dopo un pò di tempo riuscì ad avere la collaborazione dell'IBM. La costruzione della macchina cominciò nel 1939, e nel 1943 vide la luce il MARK I, composto da 765.000 componenti e centinaia di chilometri di cavi. Occupava una lunghezza di 16 m, si sviluppava in altezza per 2,4 m ed aveva una profondità di circa 0,5 metri; raggiungeva un peso di circa 4 tonnellate e mezzo. Consumava circa 5000 watt e poteva eseguire tre addizioni o sottrazioni al secondo, una moltiplicazione in 6 secondi, una divisione in 15,3 secondi ed un logaritmo oppure una funzione trigonometrica in più di un minuto.
Nel 1946, John Mauchly e John Presper Eckert costruirono per conto della marina militare USA l'ENIAC, costato circa 500.000$ (la spesa prevista iniziale era 61700$). Conteneva 17468 valvole, 70000 resistenze, 10000 condensatori, 1500 relè e 6000 interruttori manuali. Occupava 180 metri quadrati, pesava 30 tonnellate e consumava 160000 watt, abbastanza per causare un blackout alla città di Philadelphia. Durante la presentazione ufficiale nel 1946 l'ENIAC fu in grado, in meno di un secondo, di moltiplicare il numero 97.367 per sé stesso 5.000 volte, dimostrando di essere 1000 volte più veloce del Mark I.
Il problema principale di queste macchine era la manutenzione. Durante il ciclo di vita dell'ENIAC furono sostituite 19.000 valvole. Le valvole erano delicatissime, oltre a rompersi da sole venivano danneggiate dagli insetti che vi si intrufolavano, dando vita al sempre attuale termine BUG.
Altro problema da affrontare era l'incapacità di queste macchine di memorizzare dati. Sempre nel 1946, Sir Frederik Williams e Tom Kilburn riuscirono a memorizzare un bit di informazioni (ovvero l'ottava parte di un byte) in un tubo a raggi catodici. Nacque il Williams Tube. Una serie di questi tubi fu impiegata all'interno dello Small-Scale Experimental Machine (SSEM), i quali contenevano il primo programma memorizzato della storia.
Nel 1957 si cominciò a cercare un modo di integrare transistor, resistenze, condensatori e cablature che componevano un circuito completo in un singolo cristallo: il chip. Robert Noyce e Jack Kilby stavano ignaramente lavorando parallelamente a questo progetto ed entrambi produssero quasi in contemporanea il primo chip, solo che Noyce utilizzò il silicio e Kilby il germanio. Il primo si fece strada nella produzione di microprocessori, mentre il secondo nella produzione di calcolatrici tascabili.
Nel 1968 Gordon Moore e Robert Noyce lasciarono la Fairchild Semiconductor e fondarono la NM Electronics, cambiando poi il nome in Intel. Nello stesso anno i militari installarono ARPANet, evolutasi poi nell'attuale InterNet. Intel cominciò producendo memorie. Il primo prodotto fu il 3101, un chip da 64b.
Una società giapponese, la Busicom, commissionò un lavoro alla Intel per un calcolatore. Il progetto iniziale prevedeva 12 chip, ma gli ingegneri in forza alla Intel studiarono il modo di integrare tutto in un unico chip, il quale sarebbe sarebbe stato programmabile non via hardware, lo standard dei chip dell'epoca, ma via software. A questo punto la palla passò a coloro che resero reale il progetto: l'italianissimo Federico Faggin, Stan Mazor e Masatoshi Shima. Nove mesi di lavoro e fu pronto il primo micro processore: Intel 4004. Il suddetto processore misurava 32x42 mm, aveva 2300 transistor ed aveva una velocità di 0,1 Mhz. Paragonato agli attuali processori fa sorridere, ma pensate che sostituì l'ENIAC I e i sui 1000 metri cubi e 18000 valvole!
Nel 1974 ci fu una svolta: l'ultima creazione Intel, l'8080 a 2 Mhz, fu scelto per il computer in kit MITS Altair 8080. Dovete sapere che allora i computer erano venduti quasi sempre in kit, poi era l'utente a doversi assemblare (inteso come "saldare") i pezzi. Dovevano addirittura costruirsi il case. L'Altair però fu il primo ad impiegare pezzi facilmente reperibili, e quindi fu il primo vero personal computer ed era "Intel inside".
Bill Gates e Paul Allen crearono il BASIC da usare sull'Altair e lo distribuirono su licenza al MITS come BASIC 2.0. Allen e Gates avevano fondato da poco la Traf-O-Data, diventata poi Micro-soft (col trattino) e successivamente Microsoft.
Nel 1975 l'Altair fu il protagonista del primo meeting di fan dell'Homebrew Computer Club. L'Altair impressionò parecchie persone, ma vennero subito alla luce le sue tante imperfezioni. Quindi i membri del club cominciarono a costruirsi delle alternative sempre più potenti basate sull'8080.
In quel periodo Jack Tramiel, padre e padrone della Commodore, acquisì la MOS Technologies per poter produrre computer a prezzi super competitivi. Chuck Peddle e il suo team di ingegnieri e tecnici produssero un chip che in qualche modo fu una svolta: il MOS 6502.
Uno dei membri dell'Homebrew Computer Club, Stephen Wozniak che lavorava in una divisione dell'HP, costruì un computer basato sul chip MOS 6502, più economico e potenzialmente più prestante dell'8080. Assemblò il tutto nel garage dell'amico Steve Jobs. I due fondarono insieme la Apple nel 1° Aprile 1976 e crearono la loro prima macchina: L'Apple I.
Successivamente, Intel si affermava con l'8088 utilizzato nel primo PC IBM. Il 6502 invece veniva usato nell'Atari 2600, l'Apple II, Commodore Vic20, NES e BBC Micro e in una miriade di computer nati fra la fine degli anni '70 e l'inizio degli anni '80. Nonostante i vari tentativi di revisioni storiche, si può tranquillamente affermare che il MOS 6502 sia stato senza alcun dubbio il vero fattore che rese possibile la diffusione dei computer su larga scala, portandoli nelle case di tutti.
Non essendoci ancora un mercato su cui orientarsi, la fantasia geniale di ingegneri ed imprenditori era totalmente libera da imposizioni o schemi, e questa libertà generò il caos citato all'inizio dell'articolo. Ne uscirono fuori tantissime macchine, alcune entrate nella storia, altre, a volte ingiustamente, nel dimenticatoio.
..
MBry0
In effetti lunghi e importanti capitoli della storia di videogiochi e computer sono stati scritti da 6502, Z80 e MC68000...
Facile da programmare, ben documentato, compatibile con i socket delle cpu motorola (Peddle lo fece quasi per ripicca, essendo un ex ingegniere motorola al quale non era stato dato ascolto... ebbe anche molte grane legali con la motorola).
Purtroppo con Chuck Peddle sono estremamente di parte. E' stato il vero rivoluzionario, il vero visionario, è andato contro tutto e tutti, ha portato avanti il suo progetto per anni con una caparbietà allucinante. altro che Stefano Lavori...
Pensate che negli anni della nascita del MOS 6502, la gente non aveva assolutamente idea di cosa farci. Chuck non solo ideò il chip, ma inventò anche gli utilizzi. Giro l'America contattando fabbriche di pinball, fotocopiatrici e altro, dicendo che il suo chip poteva sostituire tutta l'elettromeccanica presente nei loro prodotti. E poi lo dimostrava progettando e costruendo il flipper, la fotocopiatrice ecc ecc
Nel film "pirati della Silicon Valley" c'è una scena di una fiera in cui tutti andavano allo stand apple lasciando vuoti gli altri stand. Questo è uno dei tantissimi casi di revisionismo storico.
La fiera in questione era il West Coast Computer Faire svoltasi fra il 15 e il 17 Aprile 1977 a San Francisco. Fra i vari espositori, Commodore presentò il PET e Steve e Woz presentarono l'Apple II.
Bene, il vero protagonista della fiera fu proprio il PET, per vari motivi:
- era un sistemo completo (monitor, tastiera, registratore a cassette)
- aveva set di caratteri sia maiuscoli che minuscoli (l'apple II aveva solo le maiuscole)
- costava praticamente la metà dell'apple II, grazie alla verticalizzazione della Commodore
- era molto più "user friendly" dei concorrenti
Proprio in quell'anno, fra l'altro, c'era una trattativa in corso per l'acquisizione di Apple da parte di Commodore. La trattativa stava per essere portata a termine quando si presento Mike Markulla, che con i suoi $250.000 soffiò la Apple a Jack.
Nel libro "Fire in the valley" (dal quale è tratto il film), si fa un timido accenno alla commodore qui e li, mentre nel film è totalmente omessa, cosa davvero ingiustificabile a detta anche dei protagonisti.
Potete scaricare il programma completo della fiera qui: http://www.6502lane.net/files/FWCCF.pdf
anche quando era alla ATARI la "sua" commodorre gli ha soffiato i 3 Chip custom di amiga Inc. acquisendo tutta la "baracca" amiga
( se non ricordo male ci fu una causa che però fu vinta da ATARI ma ricevette solo un indennizzo monetario e non la possibilità di usufrue dei cihp in questione )
Ma la storia di jack è ricca, imprenditorialmente parlando...
Inviato dal mio GT-I9100 con Tapatalk 2
Già... ne avevo sentito parlare :
http://www.retrogaminghistory.com/ho...condivisa.html
Il ogni modo la vicenda finì in tribunale con la nuova Atari di Tramiel contro la sua vecchia Commodore. Alla fine la controversia si chiuse con il pagamento di una penale da parte di Commodore che, in ogni modo, mantenne i diritti sul marchio Amiga.
è sicuro che per "soffiare" questo accordo la Commodorre ha sicuramente messo sul "tavolo" una grossa somma e si è portata a casa tutta la AMIGA.inc in modo da essere la nuova proprietaria e far saltare qualsiasi accordo ci fosse con la Atari
di certo una bella battaglia
Bello, mi piace parecchio la parte pionieristica dei calcolatori.
Mi ricordo che tanti anni fa lessi un bel libro che di base doveva dare un infarinatura sul mondo dell'intelligenza artificiale, ma in pratica faceva una carrellata sulla storia dell'informatica e dei calcolatori.
Purtroppo del libro non ricordo il titolo.
La cosa più incredibile dell'informatica è che quasi tutto quello che utilizziamo oggi si basa su algoritmi progettati e scritti quando i calcolatori praticamente non esistevano.
Penso ad esempio all'algoritmo di compressione di Huffman.
O alla teoria sull'intelligenza artificiale di Von Newmann.
O anche a quella straordinaria intuizione di Claude Elwood Shannon, di mettere in relazione i circuiti elettrici con l'algebra di Boole. Che è alla base di tutti i microprocessori, senza questa intuizione i processori non potrebbero analizzare informazioni o verificare predicati, ma solo limitarsi a meri calcoli matematici.
Tra l'altro lo ritengo un esempio lampante di ricerca scientifica.
Una cosa scoperta nell'ottocento, che apparentemente non aveva nessun fine pratico, quasi 100 anni dopo è stata la base per una delle più grandi rivoluzioni dell'umanità quella dei computer.
Complimenti per l'articolo: interessante, tecnico senza essere pedante e non troppo prolisso quindi adatto anche a chi come me non è propriamente un esperto del settore. Spero che tu ne faccia altri: la mia cultura in questo settore ringrazierebbe.
In ogni caso, se hai voglia di approfondire, fai un giro in libreria più che in internet. La rete sarà anche una grandissima banca dati, ma spesso riuscire a trovare qualcosa di decente è impossibile. Solitamente i libri sono frutto di ricerca e dedizione, gli articoli su internet possono essere copia incolla di mille siti, dato che non ci sono molte restrizioni e controlli sulle pubblicazioni.
La causa dell'omissione è, a mio parere, la sua non incidenza diretta sulle subito successive evoluzioni del computer. Il Colossus fu costruito durante la 2^ guerra mondiale, ed era un progetto segreto. Questa sua segretezza ha ovviamente impedito qualsiasi evoluzione diretta. Tecnicamente possiamo quindi dire che fu l'ENIAC, e non il Colossus, l'evoluzione del MARK I
Molti anni dopo, a segreto decaduto, il Colossus è stato riconosciuto come primo computer programmabile.
Chuck snobbava alla grande i prodotti "low cost" come il Vic20, il suo obiettivo era il segmento business. Ai tempi gestiva un centro di ricerca e sviluppo interno a commodore, a Moorpark in California. I progetti che venivano sviluppati in questo posto erano assolutametne all'avanguardia. Ai tempi del lancio del VIC-1001 in Giappone, a Moorpark stavano sviluppando 3 floppy drives. Il primo era l'8060, singolo drive in grado di memorizzare 750kb. poi c'era l'8061, doppio drive che gestiva 1,6 mb, e l'8062, doppio drive che arrivava a 3,2 mb. In cantiere c'era anche un HD, ai tempi appannaggio di Seagate. A tutto questo bisogna aggiugnere il progetto più ambizioso: il TOI, un computer molto interessante per l'epoca.
Jack, visto il successo del VIC-1001 in Giappone, diede molto meno peso al settore ricerca e sviluppo, e dopo uno dei tanti diverbi con Chuck, decise di chiudere Moorpark e altri 2 centri, il tutto per una semplice dimostrazione di forza nei confronti di Chuck, il quale pretendeva una libertà che Jack non voleva concedere.
Approfondendo la storia di quel periodo, sto ridimensionando parecchio la figura di Jack Tramiel. Il team di ingegneri in forza alla Commodore e alla MOS erano il top dell'epoca: visionari, geniali, estremamente capaci. Eppure la politica di Jack ha sempre posto un freno al tutto.
Quando Jack vide lo ZX80 ne rimase folgorato. Questa folgorazione lo portò a concentrare tutte le risorse sui prodotti low cost (i famosi computer for the masses...) a discapito del potenziale infinito che aveva sotto le mani...
Il gruppo MOS è stato veramente rivoluzionario e visionario, costituito da persone capaci e geniali che avevano la grande dote di vedere "oltre", di anticipare i tempi e, pertanto, di progettare chip e hardware destinati a future applicazioni ancora da inventare al tempo della loro uscita.
Sin dalla notte dei tempi, il progresso dell'umanità è dovuto a questi pionieri di immenso valore.
Lunga vita al MOS6502!
A conti fatti, il limite più grosso per gli ingegnieri della MOS era Jack Tramiel
Che tempi, ragazzi!!! Vera innovazione, vero pionerismo, non le stronzate che ti propinano oggi, stagnazione mascherata da progresso.