Plik generacje komputerów od początku jej używania do chwili obecnej jest ich sześć, chociaż niektórzy autorzy określają ich tylko na pięć. Historia tych maszyn obliczeniowych rozpoczęła się w latach 40-tych XX wieku, podczas gdy ta ostatnia rozwija się do dziś.
Przed latami czterdziestymi XX wieku, kiedy opracowywano ENIAC, pierwszy elektroniczny komputer cyfrowy, podejmowano próby stworzenia podobnych maszyn. Tak więc w 1936 roku wprowadzono Z1, który dla wielu jest pierwszym programowalnym komputerem w historii..
W terminologii komputerowej zmiana generacji następuje, gdy pojawiają się istotne różnice w dotychczas używanych komputerach. Początkowo termin ten był używany tylko do rozróżniania różnic w sprzęcie, ale teraz odnosi się również do oprogramowania.
Historia komputerów sięga od tych, które zajmowały całe pomieszczenie i nie miały systemu operacyjnego, po badania nad zastosowaniem technologii kwantowej. Od czasu wynalezienia maszyny te zmniejszały swoje rozmiary, wprowadzając procesory i znacznie zwiększając swoje możliwości..
Indeks artykułów
Pierwsza generacja komputerów, pierwsza, rozprzestrzeniła się między 1940 a 1952 rokiem, w kontekście drugiej wojny światowej i początku zimnej wojny. W tym czasie pojawiły się pierwsze automatyczne maszyny obliczeniowe oparte na lampach próżniowych i elektronice zaworowej..
Eksperci tamtych czasów nie ufali zbytnio rozszerzeniu wykorzystania komputerów. Według ich badań tylko 20 z nich nasyciłoby rynek amerykański w zakresie przetwarzania danych.
Chociaż pierwszym komputerem był niemiecki Z1, ENIAC, skrót od Electronic Numerical Integrator and Computer, jest powszechnie uważany za ten, który zapoczątkował pierwszą generację tego typu maszyny..
ENIAC był komputerem całkowicie cyfrowym, więc wszystkie jego procesy i operacje były wykonywane przy użyciu języka maszynowego. Publiczności został zaprezentowany 15 lutego 1946 roku, po trzech latach pracy.
W tym czasie II wojna światowa już się skończyła, więc cel badań komputerowych przestał całkowicie koncentrować się na aspekcie militarnym. Od tego momentu poszukiwano, aby komputery mogły sprostać potrzebom prywatnych firm.
Późniejsze badania doprowadziły do powstania następcy ENIAC, EDVAC (Electronic Discrete Variable Automatic Computer).
Pierwszym komputerem, który trafił na rynek ogólny, był Saly w 1951 r. W następnym roku UNIVAC został użyty do liczenia głosów w wyborach prezydenckich w USA: do uzyskania wyników wystarczyło tylko 45 minut..
Wczesne komputery wykorzystywały lampy próżniowe w obwodach, a także bębny magnetyczne jako pamięć. Zespoły były ogromne, do tego stopnia, że zajmowały całe sale.
Ta pierwsza generacja potrzebowała do funkcjonowania dużej ilości energii elektrycznej. To nie tylko podniosło koszty użytkowania, ale także spowodowało ogromne wytwarzanie ciepła, które powodowało określone awarie..
Programowanie tych komputerów zostało wykonane w języku maszynowym i mogły one mieć tylko jeden program do rozwiązania naraz. Wówczas instalacja każdego nowego programu wymagała dni lub tygodni. W międzyczasie dane wprowadzano za pomocą kart perforowanych i taśm papierowych.
Jak wspomniano, ENIAC (1946) był pierwszym elektronicznym komputerem cyfrowym. W rzeczywistości była to eksperymentalna maszyna, która nie mogła być programem w dzisiejszym rozumieniu.
Jego twórcami byli inżynierowie i naukowcy z University of Pennsylvania (USA), kierowani przez Johna Mauchly'ego i J. Prespera Eckerta. Maszyna zajmowała całą piwnicę uczelni i ważyła kilka ton. W pełnej eksploatacji mógł wykonać pięć tysięcy sum w ciągu jednej minuty.
EDVA (1949) był już komputerem programowalnym. Chociaż był to prototyp laboratoryjny, ta maszyna miała konstrukcję z pewnymi pomysłami obecnymi we współczesnych komputerach.
Pierwszym komercyjnym komputerem był UNIVAC I (1951). Mauchly i Eckert stworzyli Universal Computer, firmę, która wprowadziła komputer jako swój pierwszy produkt..
Chociaż IBM wprowadził już wcześniej niektóre modele, IBM 701 (1953) był pierwszym, który odniósł sukces. W następnym roku firma wprowadziła nowe modele, które dodały bęben magnetyczny, mechanizm pamięci masowej..
Druga generacja, która rozpoczęła się w 1956 roku i trwała do 1964 roku, charakteryzowała się włączeniem tranzystorów w celu zastąpienia lamp próżniowych. Dzięki temu komputery zmniejszyły swój rozmiar i zużycie energii elektrycznej.
Wynalezienie tranzystora miało fundamentalne znaczenie dla zmiany generacji komputerów. Dzięki temu elementowi maszyny mogłyby być mniejsze, a ponadto wymagałyby mniejszej wentylacji. Mimo to koszt produkcji był nadal bardzo wysoki.
Tranzystory oferowały znacznie lepszą wydajność niż lampy próżniowe, co również sprawiało, że komputery były mniej wadliwe.
Kolejnym wielkim postępem, który miał miejsce w tym czasie, było ulepszenie programowania. W tej generacji pojawił się język COBOL, język komputerowy, który po komercjalizacji stanowił jeden z najważniejszych postępów w przenoszeniu programów. Oznaczało to, że każdy program mógł być używany na wielu komputerach..
IBM wprowadził pierwszy system dysków magnetycznych o nazwie RAMAC. Jego pojemność wynosiła 5 megabajtów danych.
Jednym z najważniejszych klientów tych komputerów drugiej generacji była marynarka wojenna Stanów Zjednoczonych. Jako przykład posłużyły do stworzenia pierwszego symulatora lotu.
Oprócz przełomu, który reprezentowały tranzystory, nowe komputery zawierały również sieci rdzeni magnetycznych do przechowywania.
Po raz pierwszy komputery mogły przechowywać instrukcje w swojej pamięci.
Te zespoły pozwoliły na pozostawienie języka maszynowego w tyle, aby zacząć używać asemblerów lub języków symbolicznych. W ten sposób pojawiły się pierwsze wersje FORTRAN i COBOL.
Wynalazek mikroprogramowania Maurice'a Wilkesa z 1951 roku oznaczał, że projektowanie procesorów zostało uproszczone.
Wśród modeli, które pojawiły się w tej generacji, wyróżniał się IBM 1041 Mainframe. Choć według dzisiejszych standardów drogie i nieporęczne, firmie udało się sprzedać 12 000 sztuk tego komputera..
W 1964 roku IBM wprowadził serię 360, pierwsze komputery, których oprogramowanie można było skonfigurować pod kątem różnych kombinacji pojemności, szybkości i ceny..
System / 360, również zaprojektowany przez IBM, był kolejnym bestsellerem w 1968 roku. Zaprojektowany do użytku indywidualnego, sprzedano około 14 000 sztuk. Jego poprzednik, System / 350, zawierał już multiprogramowanie, nowe języki oraz urządzenia wejściowe i wyjściowe.
Wynalezienie chipa lub obwodu zamkniętego przez Amerykanów Jacka S. Kilby i Roberta Noyce'a zrewolucjonizowało rozwój komputerów. W ten sposób rozpoczęła się trzecia generacja tych maszyn, która trwała od 1964 do 1971 roku.
Pojawienie się układów scalonych było rewolucją w dziedzinie komputerów. Zwiększona zdolność przetwórcza i spadły koszty produkcji..
Te obwody lub chipy zostały wydrukowane na silikonowych tabletkach, do których dodano małe tranzystory. Jego wdrożenie stanowiło pierwszy krok w kierunku miniaturyzacji komputerów.
Ponadto chipy te pozwoliły na bardziej wszechstronne wykorzystanie komputerów. Do tego czasu maszyny te były projektowane do zastosowań matematycznych lub biznesowych, ale nie do obu dziedzin. Chipy umożliwiły uelastycznienie programów i ujednolicenie modeli.
To IBM uruchomił komputer, który zapoczątkował trzecią generację. W ten sposób 7 kwietnia 1964 roku przedstawił IBM 360 z technologią SLT..
Od tego pokolenia elektroniczne komponenty komputerów były zintegrowane w jeden element - chipy. Wewnątrz tych kondensatorów umieszczono bogów i tranzystory, które pozwoliły zwiększyć prędkość ładowania i zmniejszyć zużycie energii..
Ponadto nowe komputery zyskały na niezawodności i elastyczności oraz wieloprogramowości. Zmodernizowano urządzenia peryferyjne i pojawiły się minikomputery o znacznie bardziej przystępnej cenie.
Uruchomienie IBM 360 przez tę firmę było wydarzeniem, które zapoczątkowało trzecią generację. Jego wpływ był tak duży, że wyprodukowano ponad 30 000 sztuk.
Innym wyróżniającym się modelem tej generacji był CDC 6600, zbudowany przez firmę Control Data Corporation. W tamtym czasie ten komputer był uważany za najpotężniejszy wyprodukowany, ponieważ był skonfigurowany do wykonywania 3 000 000 instrukcji na sekundę..
Wreszcie wśród minikomputerów wyróżniały się PDP-8 i PDP-11, oba wyposażone w dużą moc obliczeniową.
Następna generacja komputerów, między 1971 a 1981 rokiem, zawierała komputery osobiste. Powoli te maszyny zaczęły docierać do domów.
Tysiące układów scalonych w jednym chipie krzemowym pozwoliły na pojawienie się mikroprocesorów, głównych bohaterów czwartej generacji komputerów. Maszyny, które wypełniały pomieszczenie w latach czterdziestych XX wieku, zostały zmniejszone, aż potrzebowały tylko małego stołu.
Na jednym chipie, jak w przypadku Intel 4004 (1971), pasują wszystkie podstawowe komponenty, od modułu pamięci i centralnego przetwarzania po kontrolki wejścia i wyjścia..
Ten wielki postęp technologiczny zaowocował pojawieniem się komputerów osobistych lub PC.
Na tym etapie narodziła się jedna z najważniejszych firm w branży informatycznej: APPLE. Jego narodziny nastąpiły po tym, jak Steve Wozniak i Steve Jobs wynaleźli pierwszy mikrokomputer masowego użytku w 1976 r..
IBM wprowadził swój pierwszy komputer do użytku domowego w 1981 roku, a APPLE wypuścił komputer Macintosh trzy lata później. Moc obliczeniowa i inne postępy technologiczne były kluczem do tego, aby te maszyny zaczęły łączyć się ze sobą, co ostatecznie doprowadziło do powstania Internetu..
Inne ważne elementy, które pojawiły się w tej fazie, to GUI, mysz i urządzenia przenośne..
W czwartej generacji pamięci z rdzeniami magnetycznymi zostały zastąpione pamięciami z chipów krzemowych. Ponadto miniaturyzacja komponentów pozwoliła na zintegrowanie wielu innych elementów w tych chipach..
Oprócz komputerów PC w tej fazie opracowano również tak zwane superkomputery, zdolne do wykonywania znacznie większej liczby operacji na sekundę.
Inną cechą charakterystyczną tej generacji była standaryzacja komputerów, zwłaszcza pecetów. Ponadto zaczęto produkować tak zwane klony, które miały niższy koszt bez utraty funkcjonalności.
Jak zauważono, redukcja rozmiarów była najważniejszą cechą komputerów czwartej generacji. W dużej mierze udało się to osiągnąć dzięki zastosowaniu mikroprocesorów VLSI.
Ceny komputerów zaczęły spadać, co pozwoliło im dotrzeć do większej liczby gospodarstw domowych. Elementy takie jak mysz czy graficzny interfejs użytkownika ułatwiły obsługę maszyn.
Moc przetwarzania również odnotowała duży wzrost, podczas gdy zużycie energii uległo dalszemu zmniejszeniu.
Ta generacja komputerów wyróżniała się wyglądem wielu modeli, zarówno PC, jak i klonów.
Z drugiej strony pojawił się również pierwszy superkomputer, który wykorzystywał komercyjny mikroprocesor dostępowy, CRAY-1. Pierwsza jednostka została zainstalowana w Los Alamos National Laboratory. Później sprzedano kolejnych 80.
Wśród minikomputerów PDP-11 wyróżniał się trwałością na rynku. Model ten pojawił się w poprzedniej generacji, przed mikroprocesorami, ale jego akceptacja spowodowała, że został dostosowany tak, aby te komponenty zostały zainstalowane.
Altair 8800 został wprowadzony na rynek w 1975 roku i wyróżniał się włączeniem języka podstawowego po wyjęciu z pudełka. Ten komputer był wyposażony w Intel 8080, pierwszy 17-bitowy mikroprocesor. Jego autobus, S-1000, stał się standardem na kilka następnych lat..
Część sukcesu tego najnowszego modelu wynikała z faktu, że był on sprzedawany razem z klawiaturą i myszą..
W 1977 roku pojawił się Apple II, który był sprzedawany z dużym powodzeniem przez siedem lat. Oryginalny model miał procesor 6502, 4 KB pamięci RAM i architekturę 8-bitową. Później, w 1979 roku, firma wprowadziła Apple II Plus ze zwiększoną pamięcią RAM..
Dla niektórych autorów piąta generacja komputerów rozpoczęła się w 1983 roku i trwa do dnia dzisiejszego. Inni natomiast zachowują datę początkową, ale twierdzą, że zakończyła się w 1999 roku.
Piąta generacja komputerów rozpoczęła się w Japonii. W 1981 roku ten azjatycki kraj poinformował o swoich planach opracowania inteligentnych komputerów, które mogłyby komunikować się z ludźmi i rozpoznawać obrazy.
Przedstawiony plan obejmował aktualizację sprzętu i dodanie systemów operacyjnych ze sztuczną inteligencją..
Japoński projekt trwał jedenaście lat, ale nie przyniósł oczekiwanych rezultatów. Wreszcie komputery ewoluowały tylko w ramach istniejących parametrów, bez możliwości włączenia sztucznej inteligencji.
Mimo to inne firmy wciąż próbują wprowadzić sztuczną inteligencję do komputerów. Wśród realizowanych projektów są Amazon, Google, Apple czy Tesla.
Pierwszy krok został wykonany w inteligentnych urządzeniach domowych, które starają się zintegrować wszystkie czynności w domach lub samochodach autonomicznych.
Ponadto kolejnym krokiem, który ma zostać podjęty, jest umożliwienie maszynom samodzielnego uczenia się w oparciu o zdobyte doświadczenie..
Oprócz tych projektów, w piątej generacji powszechne stało się korzystanie z laptopów lub laptopów. Dzięki nim komputer nie był już zamocowany w pokoju, ale może towarzyszyć użytkownikowi przez cały czas.
Japoński projekt budowy bardziej zaawansowanych komputerów i wyprodukowania pierwszego superkomputera pracującego z równoległymi procesami zapoczątkował piątą generację.
Od tego czasu komputery mogły wykonywać nowe zadania, takie jak automatyczne tłumaczenie języków. Podobnie, zapasy informacji zaczęto mierzyć w gigabajtach i pojawiły się płyty DVD..
Jeśli chodzi o strukturę, komputery piątej generacji zintegrowały w swoich mikroprocesorach część charakterystyk, które wcześniej były w procesorach.
W rezultacie pojawiły się bardzo złożone komputery. Ponadto użytkownik nie musi mieć żadnej wiedzy programistycznej, aby z nich korzystać: aby rozwiązać bardzo złożone problemy, wystarczy uzyskać dostęp do kilku funkcji.
Pomimo tej złożoności sztuczna inteligencja nie jest jeszcze wbudowana w większość komputerów. Odnotowano pewne postępy w komunikacji za pomocą ludzkiego języka, ale samokształcenie i samoorganizacja maszyn to coś, co wciąż się rozwija.
Z drugiej strony zastosowanie nadprzewodników i równoległego przetwarzania pozwala na wykonywanie wszystkich operacji ze znacznie większą prędkością. Ponadto znacznie wzrosła liczba jednoczesnych zadań, które maszyna może obsługiwać..
Pokonanie mistrza świata w szachach Gary'ego Kasparowa z komputerem w 1997 roku wydawało się potwierdzać postęp tych maszyn w kierunku ludzkiej inteligencji. Jego 32 procesory z równoległym przetwarzaniem mogą analizować 200 milionów ruchów szachowych na sekundę..
IBM Deep Blue, nazwa tego komputera, został również zaprogramowany do wykonywania obliczeń dotyczących nowych leków, przeszukiwania dużych baz danych i wykonywania złożonych i masowych obliczeń wymaganych w wielu dziedzinach nauki..
Innym komputerem, który zajął się ludźmi, był Watson firmy IBM. W tym przypadku maszyna pokonała dwóch mistrzów z amerykańskiego programu telewizyjnego Jeopardy..
Watson był wyposażony w wiele procesorów o dużej mocy, które działały równolegle. Pozwoliło mu to na przeszukiwanie ogromnej autonomicznej bazy danych bez połączenia z Internetem..
Aby osiągnąć ten wynik, Watson musiał przetworzyć język naturalny, przeprowadzić uczenie maszynowe, wnioskować o wiedzy i przeprowadzić dogłębną analizę. Zdaniem ekspertów ten komputer dowiódł, że udało się stworzyć nową generację, która będzie wchodzić w interakcje z ludźmi.
Jak wspomniano powyżej, nie wszyscy eksperci są zgodni co do istnienia szóstej generacji komputerów. W tej grupie piąta generacja jest nadal w użyciu.
Inni natomiast zwracają uwagę, że postęp, który obecnie się dokonuje, jest na tyle ważny, że uczyni ich częścią nowego pokolenia. Wśród tych badań wyróżnia się ten, który dotyczy tego, co uważa się za przyszłość informatyki: obliczeń kwantowych.
W ostatnich latach nie udało się powstrzymać badań technologicznych. W dziedzinie komputerów obecnym trendem jest próba włączenia neuronowych obwodów uczenia się, swego rodzaju sztucznego „mózgu”. Oznacza to produkcję pierwszych inteligentnych komputerów.
Jednym z kluczy do osiągnięcia tego celu jest zastosowanie nadprzewodników. Pozwoliłoby to na znaczne zmniejszenie zużycia energii elektrycznej, a tym samym mniejsze wytwarzanie ciepła. Systemy byłyby zatem prawie 30 razy mocniejsze i wydajniejsze niż obecne.
Budowane są nowe komputery z architekturą wektorową i komputerami, a także wyspecjalizowanymi układami procesorowymi do wykonywania określonych zadań. Do tego należy dodać wdrażanie systemów sztucznej inteligencji.
Jednak eksperci uważają, że do osiągnięcia tych celów potrzeba jeszcze dużo więcej badań. Przyszłością, zdaniem wielu z tych ekspertów, będzie rozwój informatyki kwantowej. Ta technologia definitywnie oznaczałaby wejście do nowej generacji komputerów..
Najważniejsze firmy technologiczne, takie jak Google, Intel, IBM czy Microsoft, od kilku lat starają się rozwijać kwantowe systemy obliczeniowe..
Ten rodzaj obliczeń ma inne cechy niż klasyczne obliczenia. Przede wszystkim opiera się na wykorzystaniu kubitów, które łączą zera i jedynki zamiast bitów. Ci drudzy również korzystają z tych liczb, ale nie można ich przedstawić w tym samym czasie.
Moc oferowana przez tę nową technologię pozwoli nam reagować na dotychczas nierozwiązywalne problemy.
Firma D-Wave System uruchomiła w 2013 roku swój komputer kwantowy D-Wave Two 2013, znacznie szybszy od konwencjonalnych i posiadający moc obliczeniową 439 kubitów..
Mimo tego postępu dopiero w 2019 roku pojawił się pierwszy komercyjny komputer kwantowy. Był to IBM Q System One, który łączy w sobie obliczenia kwantowe i tradycyjne. Pozwoliło to zaoferować system 20 kubitów, przeznaczony do wykorzystania w badaniach i dużych obliczeniach..
18 września tego samego roku IBM ogłosił, że planuje wkrótce wypuścić nowy komputer kwantowy z 53 kubitami. W momencie wprowadzenia na rynek ten model stał się najpotężniejszym w gamie handlowej.
Jeszcze bez komentarzy