Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Storia e Fondamenti dell'Informatica: Algoritmi, ICT, Sistemi Informativi e Architetture -, Appunti di Reti informatiche

Storia dell'informaticaTeoria della ComputazioneArchitetture di CalcoloSistemi informativi

Questo testo introduttivo esplora la storia dell'informatica, dai primi principi teorici di euclide al moderno ict. Scopri i concetti di algoritmi, sistemi informativi e architetture, e il ruolo chiave di figure chiave come alan turing e steve jobs.

Cosa imparerai

  • Che cosa è un sistema informativo e come funziona?
  • Quando venne inventato il World Wide Web?
  • Che figura storica è considerata il padre della geometria e del primo passo verso l'informatica?

Tipologia: Appunti

2019/2020

Caricato il 24/02/2022

Elliebee18
Elliebee18 🇮🇹

14 documenti

1 / 4

Toggle sidebar

Documenti correlati


Anteprima parziale del testo

Scarica Storia e Fondamenti dell'Informatica: Algoritmi, ICT, Sistemi Informativi e Architetture - e più Appunti in PDF di Reti informatiche solo su Docsity! GLI INIZI Oggi nessuno può fare a meno dell’informatica, con essa si possono fare le cose più disparate ed il cellulare è ormai un pc tascabile che può svolgere molteplici funzioni. Ma quando è nata l’informatica? I primi fondamenti teorici nacquero nel III secolo a.C., a opera di Euclide, padre della geometria che, inconsapevolmente, svolse il primo passo verso il fondamento dell’informatica: l’algoritmo (che lui chiamò massimo comune divisore, noto come MCD, di due numeri e lo descrisse come metodo di due passi). Solo dopo 1000 anni un matematico persiano pubblicò un metodo per risolvere equazioni lineari e di secondo grado chiamata algoritmo → quella serie di passi finita per raggiungere un obiettivo. Essa è finita poiché se non lo fosse sarebbe impossibile raggiungere un obiettivo. Saranno circa mille anni dopo che il matematico britannico Boole diventò l’algebra booleana, madre della lingua informatica. Essa utilizza solo due valori: vero (1) e falso (0). Durante la Seconda Guerra Mondiale, Alan Turing studiò e sviluppò la sua Macchia di Turing, uno strumento teorico, ma realizzato meccanicamente, che rappresenta un modello astratto di computer. Tale macchina fu assai utile durante la guerra, poiché permise di decifrare i messaggi codificati dei nazisti. Fu a partire dal dopoguerra che l’informatica iniziò a progredire a velocità sempre maggiore. Negli anni ’60 iniziò il fenomeno noto come “convergenza ICT”, precedente alla “convergenza digitale” che, grazie allo sviluppo della ricerca nel settore delle tecnologie per il calcolo automatico, mette a fatto comune le tecnologie di comunicazione, l’elettronica e l’informatica stessa → questo portò alla nascita dell’ Information & Communication Technology (ICT). I primi utenti al di fuori degli apparati militari e degli studi di ricerca, furono le banche, seguite poi dalle aziende di maggiori dimensioni e successivamente la NASA. Negli anni ’70 si iniziarono a sviluppare le tecnologie di rete e si vede la trasformazione dell’ICT in una tecnologia commerciale. Nacquero i linguaggi di alto livello per agevolare la programmazione attraverso istruzioni che avessero una sintassi più vicino al linguaggio umano. Nel 1974 INTEL realizza il primo microprocessore (un piccolo cubetto di silicio dove la corrente passa solo per un senso) con il quale equipaggia l’Altair 8800. La caratteristica di questo computer fu il costo (495$ già montato o a 100$ in meno da montare  abbastanza abbordabile), oltre ad avere buone prestazioni. Questo portò nel 1975 Allen e Gates a fondare la Microsoft nel 1975 con lo scopo di creare un loro software, con un prezzo abbordabile e che possa essere modificato. Poco dopo, nel 1976, Steve Jobs, Steve Wozniak e Ronald Wayne fondarono a Cupertino la Apple che prevedeva qualcosa che non potesse essere modificato, puntando piuttosto all’attenzione per il design. La tecnologia arriva dunque nelle case delle persone. Il primo PC commerciale IBM uscì nel 1981, come personal computer e per essere venduto come tale. Aveva installato MS/DOS, sistema operativo sviluppato dalla Microsoft, per permettere la creazione di un oggetto semplice da utilizzare. È nello stesso periodo che nacque il Macintosh di Apple, dotato del sistema operativo MacOS le cui evoluzioni successive portarono al sistema operativo che ancor oggi equipaggia i PC Apple. Il 1990 fu un anno storico poiché permise l’uscita di Windows 3.1, la versione di Windows che conquista il grande pubblico grazie alla sua interfaccia grafica e al mouse. Nel 1991 Tim Berners-Lee, ricercatore del CERN di Ginevra, inventa il World Wide Web, sulle basi tecnologiche (ormai vecchie, ma pur sempre valide) di ARPANET, la rete finanziata dal Dipartimento della Difesa Americano nel 1969 e nel 1993 il CERN rende pubblica la tecnologia alla base del World Wide Web che portò, a partire dal 1995, la diffusione su vasta scala nel mondo tanto che nel 1995 invierà l’era di internet. Infine nel 1998 venne ideato un algoritmo che mediante lo sfruttamento delle relazioni che esistono fra i siti web migliorò enormemente la velocità ed accuratezza delle ricerche sulla rete portando alla nascita di Google. INFORMATICA Il nome deriva dalla contrazione di due termini francesi: «information» e «automatique» = informatique (informatica in italiano). IT—> Information Technologies Essa è l’insieme delle tecnologie di elaborazione dei dati e delle informazioni. ICT—> Information and Communication Technology, che amplia il concetto di «IT» comprendendo anche le tecnologie di comunicazione. Più attuale, considerata l’importanza e diffusione delle tecnologie di comunicazione (senza la comunicazione, non si fa più nulla) DATI E INFORMAZIONI DATO: è una rappresentazione asettica, oggettiva e non interpretata della realtà immediatamente presente alla conoscenza. INFORMAZIONE: è una concezione della realtà che deriva dall’elaborazione ed interpretazione (del pensiero o del computer) di uno o più dati. SISTEMA INFORMATICO E SISTEMA INFORMATIVO Sistema informatico: Infrastruttura tecnologica che serve per elaborare, memorizzare e trasmettere dati e informazioni. Sistema informativo: Insieme delle applicazioni, delle procedure e delle risorse umane che, utilizzando l’infrastruttura tecnologica sulla quale poggia (il sistema informatico), consente la produzione e la gestione delle informazioni di un soggetto, un’impresa o un individuo. È un insieme di componenti tecnologici interconnessi (integrati) che raccolgono, memorizzano ed elaborano dati e forniscono informazioni in formato digitale Architettura: disciplina che ha come scopo l’organizzazione dello spazio a qualsiasi scala. Architettura dei sistemi informativi: disciplina che ha come scopo l’organizzazione dei processi e per l’elaborazione dei dati e la produzione delle informazioni per l’ecosistema aziendale in cui opera. Architettura dei sistemi informativi: il modello (framework) di Zachman. Zachman teorizzò il modello architetturale di un sistema informativo che può essere generalizzato sulla base della prospettiva della figura professionale coinvolta rispetto alle macro componenti di cui è composto. Esso si basa sulle “5 W+ How”, risponde ad esse ed Il sistema informativo dovrà permettere agli Executive Manager di disporre delle informazioni per svolgere le attività nell’ambito della loro prospettiva. IL SISTEMA BINARIO → la base del funzionamento del computer È basato su 10 cifre: da 0 a 9. L’algebra di Boole è il fondamento del funzionamento di tutti i computer. Senza Boole, non esisterebbe l’informatica. ➔ È un modo di contare che utilizza solo 2 cifre 0 e 1, invece delle 10 cifre con le quali siamo abituati a contare. Combinare le 2 cifre alternandole → posso combinare tutti i numeri che voglio, ma ho solo bisogno di più spazio. Algebra booleana: applica al sistema binario degli operatori logici detti “operation booleani”, che hanno potere decisionale. Tramite questa teoria si diede la capacità di decisione cioè vedo se con l’algoritmo posso andare verso una parte o verso l’altra. AND: restituisce VERO se entrambe le condizioni sono vere. Se mi giungono due condizioni ed entrambe sono vere allora il risultato sarà vero. NOT: nega la condizione e restituisce VERO se la condizione è falsa e viceversa OR: restituisce VERO se almeno una condizione è vera XOR: restituisce VERO se le condizioni sono diverse fra loro Esempio: come si conta con il sistema binario? Per comprenderlo meglio, partiamo da «come si conta» nel sistema decimale (o «in base 10»): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 ... Alle elementari ci hanno insegnato che in questo caso «si scrive 1 nelle decine, 0 nelle unità e si riprende a contare sulle unità. Scrivo «10» e riparto: 11, 12, ..., 19: scrivo 2 nelle decine e riparto fino a 99. Scriverò 1 nelle centinaia, 0 nelle decine, 0 nelle unità e riparto a contare sulle unità, poi sulle decine, poi sulle centinaia fino a 999 dove scriverò 1 sulle migliaia e così via. I numeri nel sistema decimale sono espressi come potenze di 10. Per calcolare il numero dobbiamo moltiplicarlo x10 ^ posizione della cifra, da destra a sinistra. Sul sistema binario è lo stesso, solo che... ho 2 cifre. 0, 1 ... sono finite le cifre ! scrivo 10, che è «2» nel binario. 10, 11 ... 100, che è «4» nel binario. 101 è «5».110 è 6 nel sistema decimale e così via. I numeri nel sistema binario sono espressi come potenze di 2 invece che in potenze di 10 come nel sistema decimale Come conta il computer? Usa i transistor, dove la corrente passa in un senso → «1» ma non in quello inverso → «0». Esempio: come si ragiona con la logica booleana? Per la logica booleana, lo 0 e l’1 possono anche essere rappresentati come dei valori con significato, in questo caso 1= vero e 0= farlo. Boole inventa dei connettivi logici (AND, OR, NOT, e XOR). Il nostro pc fa continue traduzioni di bit, con 8 bit posso rappresentare tutta una serie di caratteri. Nei primi laboratori ne potevano usare solo 7 perché l’ottavo era un carattere di controllo. Quante combinazioni si possono fare con 8 bit? Facendo 2^ al grado massimo del valore degli 8 bit (0 based, quindi 7)  128 caratteri. Ma sono troppo pochi, per cui si è passati alla codifica Unicode, che codifica 16 bit  più di 5000 caratteri. Il codice ASCII nasce per la necessità di mappare le combinazioni possibili i 8 bit con i caratteri visti a video. L’HARDWARE Abbiamo un modello di riferimento, lo schema architetturale di Von Neumann, nato tra il ’40 e ‘50. Partecipò alla creazione di uno dei primi elaboratori, questo modello andava a identificare gli elementi fondamentali affinché un’architettura potesse essere definita un elaboratore. Ad oggi è ancora utilizzato come punto di riferimento, con le debite innovazioni. Aveva ipotizzato che per potersi chiamare elaboratore doveva avere bisogno di: - Un’unità centrale di elaborazione (CPU), che al suo interno è formata dall’ALU (unità aritmetico-logica), utilizzata per i conti, e un’unità di controllo. Oltre alla memoria divisa in: memoria centrale (nel CPU) e una memoria RAM, esterna alla CPU. - Periferiche di input: ricevono delle sollecitazioni dall’esterno, input dei dati. - Periferiche di output: tutti i dispositivi che servono per visualizzare o ritornare un risultato. - Bus di comunicazione: danno la possibilità di comunicare tra i 4 elementi sopra elencati. La CPU è il motore del computer. La ALU è la parte dedicata all’esecuzione dei calcoli. L’unità di controllo organizza al meglio l’esecuzione delle istruzioni per la ALU. La memoria centrale è organizzata in registri ed è l’area dove vengono memorizzati i
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved