Co studiuje informatyka?

1420
Alexander Pearson

Plik przetwarzanie danych To nowoczesna nauka, która bada metody, procesy i techniki przetwarzania, przesyłania lub zapisywania danych w sposób cyfrowy. Wraz z wielkim postępem technicznym drugiej połowy XX wieku dyscyplina ta nabierała znaczenia w działalności produkcyjnej, zwiększając jednocześnie jej specyfikę..

Rozwój komputerów, obwodów zamkniętych, robotów, maszyn, telefonów komórkowych oraz pojawienie się Internetu sprawiają, że informatyka jest jedną z najpopularniejszych nauk ostatnich dziesięcioleci..

Etymologia słowa informatyka ma kilka możliwych źródeł. Powstał głównie jako akronim dla słów informacja i automatique (informacja automatyczna).

W 1957 roku to Karl Steinbuch umieścił ten termin w dokumencie pt Informatik: Automatische InformationsverarbeitungW 1962 roku francuski inżynier Philippe Dreyfus nazwał swoją firmę Société d'Informatique Appliquée. Jednak rosyjski Aleksander Iwanowicz Michajłow jako pierwszy użył tego terminu jako „badanie, organizacja i rozpowszechnianie informacji naukowej”.

Wśród szerokiego zakresu zastosowań nauka ta zajmuje się badaniem automatycznego przetwarzania informacji za pomocą urządzeń elektronicznych i systemów komputerowych, które mogą być wykorzystywane do różnych celów..

Co studiuje informatyka? Aplikacje

Pole zastosowań informatyki poszerzyło swoje spektrum wraz z rozwojem technologicznym ostatniego półwiecza, zwłaszcza pod wpływem impulsu komputerów i internetu..

Do jego głównych zadań należy projektowanie, rozwój, planowanie w obiegu zamkniętym, przygotowywanie dokumentów, monitorowanie i sterowanie procesami..

Odpowiada również za tworzenie robotów przemysłowych, a także zadania związane z rozległą dziedziną telekomunikacji oraz tworzenie gier, aplikacji i narzędzi na urządzenia mobilne..

Zgodność informatyki

Informatyka to nauka, w której zbiegają się wiedza i wiedza z różnych dyscyplin, począwszy od matematyki i fizyki, ale także między innymi informatyki, programowania i projektowania..

To synergiczne połączenie różnych dziedzin wiedzy jest w informatyce uzupełniane pojęciami sprzętu komputerowego, oprogramowania, telekomunikacji, internetu i elektroniki..

Fabuła

Pierwszy komputer.

Historia informatyki rozpoczęła się na długo przed dyscypliną, która nosi jej nazwę. Towarzyszył ludzkości niemal od samego początku, chociaż nie został uznany za naukę.

Od czasu powstania chińskiego liczydła, zarejestrowanego w 3000 rpne i uważanego za pierwsze urządzenie obliczeniowe ludzkości, możemy mówić o informatyce.

Ta tabela podzielona na kolumny, umożliwia ruchy jej jednostek do wykonywania operacji matematycznych, takich jak dodawanie i odejmowanie. Mógłby istnieć punkt wyjścia tej nauki.

Ale ewolucja informatyki dopiero się rozpoczęła wraz z liczydłem. W XVII wieku Blaise Pascal, jeden z najbardziej znanych francuskich naukowców swoich czasów, stworzył maszynę liczącą i pchnął kolejny krok ewolucyjny.

Urządzenie to służyło tylko do dodawania i odejmowania, ale na jego podstawie niemiecki Leibniz prawie 100 lat później, w XVIII wieku, opracował podobny aparat, ale z mnożeniem i dzieleniem..

Te trzy kreacje były pierwszymi zarejestrowanymi procesami komputerowymi. Prawie 200 lat zajęło tej dyscyplinie, aby zyskała na znaczeniu i stała się nauką.

We wczesnych dziesięcioleciach XX wieku rozwój elektroniki był ostatnim impulsem dla nowoczesnych komputerów. Stamtąd ta dziedzina nauki zaczyna rozwiązywać problemy techniczne wynikające z nowych technologii.

W tym czasie nastąpiła zmiana z systemów opartych na zębatkach i prętach na nowe procesy impulsów elektrycznych, klasyfikowane jako 1, gdy prąd płynie i 0, gdy nie, co zrewolucjonizowało tę dyscyplinę..

Ostatni krok poczyniono podczas II wojny światowej, tworząc pierwszy komputer Mark I, który otworzył nowe pole do rozwoju, które wciąż się rozwija..

Podstawowe pojęcia informatyki

Informatyka, rozumiana jako automatyczne przetwarzanie informacji przez urządzenia elektroniczne i systemy komputerowe, musi mieć pewne możliwości, aby mogła się rozwijać.

Niezbędne są trzy operacje centralne: wejście, które odnosi się do przechwytywania informacji; przetwarzanie tych samych informacji i danych wyjściowych, czyli możliwość przekazywania wyników.

Zbiór tych możliwości urządzeń elektronicznych i systemów komputerowych nazywany jest algorytmem, czyli uporządkowanym zbiorem systematycznych operacji do wykonania obliczeń i znalezienia rozwiązania.

Dzięki tym procesom informatyka rozwinęła różnego rodzaju urządzenia, które zaczęły ułatwiać ludzkości zadania we wszelkiego rodzaju czynnościach.

Chociaż obszar jego zastosowania nie ma ścisłych ograniczeń, jest stosowany głównie w procesach przemysłowych, zarządzaniu biznesem, przechowywaniu informacji, kontroli procesów, komunikacji, transporcie, medycynie i edukacji..

Pokolenia

W dziedzinie informatyki i informatyki można mówić o pięciu generacjach procesorów, które naznaczyły współczesną historię od jej powstania w 1940 r. Do chwili obecnej..

Pierwsza generacja

Pierwsza generacja miała swój rozwój w latach 1940-1952, kiedy to komputery były budowane i obsługiwane z zaworami. Jego ewolucja i użyteczność były zasadniczo w dziedzinie naukowo-wojskowej..

Urządzenia te posiadały obwody mechaniczne, których wartości były modyfikowane, aby można je było zaprogramować zgodnie z potrzebnymi celami..

Drugie pokolenie

Druga generacja została opracowana między 1952 a 1964 rokiem, wraz z pojawieniem się tranzystorów, które zastąpiły stare lampy. W ten sposób powstały komercyjne urządzenia, które miały wcześniejsze programowanie.

Innym centralnym faktem tego etapu jest pojawienie się pierwszych kodów i języków programowania, Cobol i Fortran. Po latach pojawiły się nowe.

Trzecia generacja

Trzecia generacja miała nieco krótszy okres rozwoju niż jej poprzedników, trwała między 1964 a 1971 rokiem, kiedy pojawiły się układy scalone.

Niższe koszty produkcji urządzeń, wzrost pojemności magazynowej oraz redukcja gabarytów, zaznaczyły ten etap.

Ponadto dzięki rozwojowi języków programowania, który zyskał na specyfice i umiejętnościach, zaczęły kwitnąć pierwsze programy narzędziowe..

Czwarta generacja

Czwarta generacja była produkowana od 1971 roku i trwała przez dekadę, aż do 1981 roku, z komponentami elektronicznymi jako głównymi bohaterami ewolucji.

Tak zaczęły pojawiać się w świecie komputerów pierwsze mikroprocesory, które zawierały wszystkie podstawowe elementy starych komputerów w jednym układzie scalonym..

Piąta generacja

Wreszcie piąte pokolenie rozpoczęło się w 1981 roku i rozciąga się do chwili obecnej, w której technologia atakuje każdy aspekt współczesnych społeczeństw..

Głównym etapem rozwoju tej ewolucyjnej fazy informatyki były komputery osobiste (PC), które później doprowadziły do ​​powstania ogromnej grupy powiązanych technologii, które dziś rządzą światem..

Bibliografia

  1. Poinformowaćattyka, informacja i komunikacja, Dokumentacja społeczna: Journal of Social Studies and Applied Technology ”, 1999.
  2. Przetwarzanie informacji (automatyczne), Diego Dikygs, witryna cyfrowa Notions of Computing, 2011.
  3. Historia komputerówn, Patricio villalva.
  4. Czasopismo Magazyn Horizonte InformdoEtyka edukacyjna, Buenos Aires, 1999.

Jeszcze bez komentarzy