Giovedì 29 Giugno 2006

Glossario

La maggior parte di questo glossario è stato redatto in collaborazione con il dott. Antonio Teolis per la "Enciclopedia dell'ECONOMIA" edita da DeAgostini.Per una più completa comprensione di queste definizioni, specialmente in relazione alle applicazioni economiche, si rimanda a questo testo.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z


A



Algoritmo. E’ la descrizione del procedimento, per ottenere la soluzione di una classe di problemi, che ha le seguenti proprietà: i) deve essere esplicita e non ambigua per l’interlocutore cui è destinata, ii) il procedimento attivato di volta in volta seguendo il testo della descrizione deve terminare in un tempo finito. Un a. presuppone quindi sempre la presenza di un linguaggio usato per la descrizione e un interlocutore che conosce quel linguaggio e sa eseguire tutte le azioni previste. In questo contesto, un procedimento è una attività che si articola in passi successivi ciascuno dei quali si svolge in un tempo finito. La parola a. deriva dal nome del matematico arabo al Khuwarizmi vissuto nel secolo IX. Fino all’avvento del computer, gli algoritmi venivano usati essenzialmente solo in matematica, nel qual caso il linguaggio era il gergo matematico e l’interlocutore era una persona che lo capisse per svolgere le operazioni descritte, cioè per eseguire i passi del procedimento. Ben noto è l’algoritmo euclideo per calcolare il M.C.D. di due numeri interi (positivi). Attualmente, l’interlocutore privilegiato è il computer: in questo caso i linguaggi usati per la descrizione del procedimento si dicono linguaggi di programmazione (vedi) e l’a. assume la forma di un programma (vedi).


anno 2000. Fenomeno di grande impatto economico che riguarda la maggior parte delle applicazioni gestionali e finanziarie realizzate prima dell’ultimo lustro del secondo millennio. Questo fenomeno è generato da due cause: la prima è che, nelle date, l’anno veniva rappresentato (in memoria o nell’interfaccia di scambio dei dati) solo con le ultime due cifre; la seconda è che negli algoritmi di gestione delle date veniva usata l’ipotesi (spesso) nascosta che tutte appartenessero allo stesso secolo. A partire dal primo gennaio dell’anno 2000, tutti i programmi che mantengono questi presupposti funzionano in maniera scorretta.


*archivio. Contenitore di informazioni usualmente strutturate in documenti e organizzato in modo da rendere possibile (e facile) il loro reperimento mediante l’utilizzo di una chiave di accesso (vedi). Esistono a. gestiti direttamente da persone

e archivi gestiti da computer. In quest’ultimo caso, le informazioni sono registrate in forma digitale (vedi), il documento prende (spesso) il nome di file (vedi) e l’archivio quello di data base (vedi).


ASCII. Acronimo di American Standard Code for Information Interchange. E’ una particolare codifica che consente, nei computer, di rappresentare con stringhe di bit (vedi) i caratteri usati per comporre documenti (lettere dell’alfabeto, cifre, segni di interpunzione, ...).


assembler. Nome generico di linguaggi di programmazione (vedi) “di basso livello” che consentono di descrivere, una per una, tutte le operazioni elementari che un computer sa eseguire. Esiste un assembler per ogni tipo di computer.


*automa. Nel linguaggio corrente è una macchina che imita il comportamento di un essere vivente (in particolare dell’uomo). In Informatica indica un meccanismo ideale introdotto per formalizzare i processi di elaborazione dell’informazione rappresentata in forma digitale (vedi). Le applicazioni pratiche degli a. sono sviluppate nell’ambito della robotica (vedi) e della Intelligenza Artificiale (vedi).


B


banca di dati. Collezione di grandi quantità di dati, inerenti a uno stesso argomento, accessibili tramite computer. Viene di norma realizzata come insieme di file (vedi) e/o di data base (vedi).


base di dati. Vedi la dizione inglese data base.


Basic. Linguaggio di programmazione procedurale ideato negli anni sessanta per rendere facile l’insegnamento e l’apprendimento della programmazione. Ha conosciuto una notevole diffusione in concomitanza con la comparsa sul mercato dei primi personal computer a causa del modesto uso di risorse richiesto. Ora il B. si è evoluto consentendo anche una facile realizzazione di interfacce grafiche interattive.


Baud. Unità di misura della velocità di trasmissione dei dati usata principalmente in telegrafia e pari a un punto telegrafico al secondo; attualmente è sinonimo di bps (vedi).


bit. E’ l’unità di informazione corrispondente alla scelta tra due alternative o tra due oggetti che, simbolicamente, vengono rappresentati con le cifre 0 e 1; il b., per metonimia, indica anche ciascuna delle due cifre. L’insieme di queste due cifre è detto alfabeto binario che è impiegato per rappresentare le informazioni direttamente usabili da un computer. La trasformazione dell’informazione, dalla forma direttamente fruibile da una persona a quella utilizzabile dal computer, si chiama codifica (vedi). Le parole costruite e usate nei computer con questo alfabeto hanno lunghezza di uno, otto o multipli di otto bit. Ciascuno dei caratteri che compare in un testo scritto (lettere, cifre, segni di interpunzione, ...) viene rappresentato con una parola, o stringa, di otto bit, detta byte (vedi).


*borsellino elettronico. E’ una carta con microchip

(vedi), usata in applicazioni di monetica (vedi), che contiene del denaro “prepagato”. Il b. può essere utilizzato in transazioni off-line (vedi) e quindi di costo trascurabile; differisce dalle vecchie carte prepagate perché è ricaricabile; tipicamente serve per i pagamenti di piccolo importo.


bpi. Acronimo di bit per inch; indica la densità di registrazione lineare su supporto magnetico.


*bps. Acronimo di bit per second; indica l’unità di misura di flusso in un canale di comunicazione. Sono di uso comune i multipli Kbps (1000 bps) e Mbps (1000 Kbps

). Il bps e i suoi multipli vengono comunemente usati per indicare la velocità di trasmissione dati di un

(vedi) o di una linea telefonica.


browser. Nome generico di applicazioni che permettono di “navigare in rete”, cioè di rintracciare informazioni in una rete di calcolatori. Tipicamente, i b. sono programmi che vengono usati su (personal) computer collegati, mediante una rete (Internet, Intranet), a uno o più server Web (vedi). I b. hanno la proprietà di trasformare ogni computer collegato in rete in un client (vedi) universale per le applicazioni World Wide Web (vedi WWW).


buffer. In informatica, è una componente hardware o software (una struttura dati) in cui transitano le informazioni che devono essere scambiate tra due processi (vedi) che evolvono a diversa velocità. Per migliorare l’efficienza dello scambio, può essere necessario aumentare la dimensione o il numero dei buffer disponibili.


bug. Termine inglese col quale si indica un errore contenuto in un programma. Per estensione indica anche un qualunque malfunzionamento o comportamento anomalo di una applicazione informatica.


burotica. Indica l’insieme dei concetti, dei metodi e delle applicazioni che l’informatica mette a disposizione per risolvere i problemi connessi al lavoro d’ufficio. La b. ha fatto nascere strumenti di produttività individuale come i word processor, fogli elettronici e piccoli sistemi di archiviazione di documenti; attualmente la b. si occupa dello sviluppo di strumenti di produttività di gruppo.


bus. In informatica, è una componente hardware che serve a far comunicare più dispositivi che hanno differenti velocità di funzionamento. In un computer (vedi) la CPU, la memoria e gli altri dispositivi sono usualmente connessi a un bus.


byte. In informatica è una parola, o stringa, di otto bit utilizzata per rappresentare ciascuno dei caratteri che compaiono in un testo scritto componibile con un tastiera. Esistono 28, cioè 256, stringhe diverse di otto bit con le quali è possibile codificare fino a 256 caratteri diversi. Il b. è anche l’unità di misura per la memoria; viene usata nei multipli Kbyte (1024 byte), Mbyte (1024 Kbyte) e Gbyte (1024 Mbyte). Talvolta, per brevità, questi multipli vengono indicati rispettivamente con KB, MB e GB.


C


C. Linguaggio di programmazione procedurale particolarmente adatto per applicazioni specialistiche nel campo dei sistemi operativi, delle reti e, più in generale, nella implementazione di algoritmi che richiedono una alta efficienza in fase di esecuzione.


*C++. Linguaggio di programmazione emerso dalla evoluzione del C (vedi) verso la programmazione ad oggetti (vedi


cache (memory). In informatica è una memoria ad accesso estremamente rapido usualmente localizzata nella CPU (vedi) e usata per contenere le istruzioni e i dati di utilizzo immediato; si misura in Kbyte. A parità di altre caratteristiche, maggiore è la c. migliore è l’efficienza della CPU.


CAD. < riportare la definizione data nella Compact De Agostini>


*CAL. Acronimo per Computer Aided Learning. Con questa sigla si intendono le applicazioni dell’Informatica volte a facilitare l’apprendimento nelle attività scolastiche. Fa riferimento al costruttivismo (nella teoria dell’apprendimento) e utilizza tecniche

(vedi).


calcolatore centrale. Vedi mainframe.


calcolatore elettronico. Vedi computer.


CAM. <riportare la definizione data nella Compact De Agostini>.


*carta con microchip. Supporto di plastica in cui è inserito un microchip (vedi) che costituisce un piccolo computer con una memoria che, attualmente, può arrivare fino a 64 Kbyte. Viene usata per applicazioni più sofisticate di quelle realizzabili con carta magnetica (vedi) come per esempio: gestire la chiave privata (vedi chiave pubblica) nelle applicazioni che devono garantire la sicurezza nello scambio di messaggi, gestire il borsellino elettronico (vedi) e altre applicazioni nelle quali è richiesto il controllo dell’identità personale.


carta magnetica. Supporto di plastica dotato di una striscia di materiale magnetico su cui è possibile registrare su tre righe, comunemente dette piste, da qualche decina a qualche centinaia di byte (a seconda degli standard). Vengono utilizzate tipicamente come strumento di identificazione in varie applicazioni o come mezzo di pagamento nelle applicazioni di monetica (vedi).


*cartella. In informatica è un insieme di documenti o di altre cartelle; nei sistemi operativi (vedi) con interfaccia grafica, è anche l’icona associata. Una c. può essere spostata, copiata e distrutta come un tutto unico (vedi anche directory).


CD. Acronimo per Compact Disk. In informatica è un disco di plastica utilizzato come supporto per contenere informazioni, registrate una volta per tutte dal produttore, e leggibili con una tecnologia ottica (laser). I CD hanno una capacità dell’ordine del Gbyte e sono particolarmente utilizzati nelle applicazioni multimediali. In alternativa a CD, spesso si usa anche la dizione CD-ROM (da Read Only Memory) per sottolineare che l’utente può solo compiere azioni di lettura.


certificazione, autorità di. Organismo che garantisce la comunicazione sicura ad una comunità di utenti che usano una rete aperta per trasmettersi dei messaggi. La sicurezza viene garantita mediante chiavi pubbliche (vedi): compito della autorità è la identificazione di ogni utente e il mantenimento di una lista aggiornata di certificati che contengono le chiavi pubbliche.


chiave di accesso E’ lo strumento usato per rintracciare informazioni in un archivio di dati strutturati; il metodo usato consiste nell’indicare la c., cioè il valore di una parte delle informazioni che si stanno cercando. Quando si consulta una enciclopedia o un dizionario, la c. è rappresentata dalla parola di cui si cerca la definizione. Quando si fanno ricerche in un archivio o in un data base, si specifica la c. sotto forma di una stringa di caratteri: vengono così rintracciati tutti i documenti o tutti i record (vedi) che contengono quella stringa.


*chiave pubblica. E’ lo strumento usato nelle applicazioni che richiedono che più utenti possano comunicare tra loro in maniera sicura utilizzando le tecniche della crittografia (vedi). La chiave è una stringa di bit ed è tanto più sicura quanto maggiore è il numero di cifre binarie usate. Nelle applicazioni tipiche, ad ogni utente interessato a partecipare a un sistema di comunicazione sicura, vengono assegnate da una autorità di certificazione (vedi) due chiavi: una pubblica, nota a tutti i partecipanti, e una privata, nota solo a lui. In linea di principio, quando l’utente A vuole comunicare con l’utente B codifica il messaggio con la sua chiave privata e con quella pubblica di B. La codifica è tale che B riesce a leggere il messaggio usando la chiave pubblica di A e la propria chiave privata. In questo modo, ciascun utente di una comunità può comunicare in maniera sicura con tutti gli altri mantenendo segreta solo la propria chiave privata. Con questa tecnica, viene realizzata la firma elettronica (vedi).


chip. In informatica indica il supporto di silicio sul quale viene realizzato in più strati un circuito elettronico integrato costituito da unità logiche (tipicamente transistor) e connessioni. L’evoluzione tecnologica consente di rendere sempre più stretta la larghezza delle connessioni e quindi sempre più alto il numero di transistor per unità di superficie. I c. vengono classificati in base al numero di transistor presenti per unità di superficie; nella evoluzione tecnologica dei c. comunemente si individuano la fase LSI (Large Scale Integration) e VLSI (Very Large Scale Integration) caratterizzate da densità dell’ordine di 103 e 105 transistor per cm2. In un computer, l’unità centrale e le memorie sono realizzate mediante c. La produzione di nuovi c. richiede grandi investimenti per la ricerca ed è appannaggio di un numero molto ristretto di produttori mondiali.


*cibernetica. <riportare la definizione che compare nella Compact>. (Vedi anche Intelligenza Artificiale).


cifratura. Vedi crittografia.


CIM. Acronimo per Computer Integrated Manufactoring: indica le tecniche di produzione che si avvalgono delle applicazioni informatiche per integrare le varie componenti di un sistema produttivo (vedi automazione).


circuito integrato. Vedi chip.


client/server. E’ un tipo di applicazioni informatiche nelle quali l’elaborazione è realizzata su (almeno) due computer diversi: il client e il server. In generale, il client è il computer dell’utente e ad esso è demandato il compito di gestire l’interfaccia dell’applicazione e di eseguire semplici elaborazioni. Il server, connesso in rete anche a più client, ha il compito di sostenere l’elaborazione vera e propria e di gestire l’accesso al data base. Le applicazioni client/server si distinguono per avere interfacce grafiche molto amichevoli, cioè usabili facilmente anche da utenti inesperti. Esistono anche applicazioni c./s. a tre livelli; in questi casi il server, collegato ai client, è connesso anche a un altro server, per esempio un mainframe, che usualmente ha il compito di gestire un (grande) data base.


COBOL. Acronimo da COmmon Business Oriented Language. Linguaggio di programmazione procedurale diffuso a partire dagli anni sessanta per la realizzazione di applicazioni gestionali. Ha conosciuto sùbito una notevole diffusione ed è tuttora molto usato specialmente nelle applicazioni di notevoli dimensioni in grandi aziende come banche ed enti pubblici.


codice a barre. Tecnica per codificare lettere e cifre con barre verticali di diverso spessore; il c. a b. viene letto velocemente con dispositivi laser ed è molto impiegato nei registratori di cassa per la vendita di prodotti di largo consumo.


codifica(1). E’ la traduzione di informazioni tra due rappresentazioni simboliche. La c. viene realizzata mediante una corrispondenza (biunivoca) tra due insiemi finiti di simboli. In informatica la c. viene usata per tradurre le informazioni dalla forma leggibile da un utente a quella utilizzabile da un computer; poiché nei dispositivi interni di memoria è possibile usare solo cifre binarie, uno dei due insiemi di simboli è sempre costituito da stringhe che, di norma, sono lunghe otto bit, cioè un byte, o multipli di otto. L’altro insieme è costituito da un alfabeto o font (vedi) con il quale vengono composti i documenti per gli utenti esterni.


codifica(2). Sinonimo di crittografia (vedi).


compilatore. In informatica è una componente software che consente di tradurre un programma scritto in un linguaggio di programmazione (per esempio Basic o Prolog) in una forma direttamente eseguibile da parte di un certo computer. Questa fase di traduzione rende l’esecuzione del programma più efficiente rispetto a quella realizzata mediante interprete (vedi) e consente, inoltre, di conservare la forma eseguibile per esecuzioni successive.


*computer. Dispositivo elettronico capace di elaborare informazioni secondo programmi memorizzati. Gli elementi fondamentali di un computer sono: la memoria centrale (o RAM, da Random Access Memory), la CPU (da Central Processing Unit) e le unità periferiche che talvolta possono non essere integrate nel medesimo dispositivo fisico che costituisce il c. La RAM serve per memorizzare informazioni codificate come stringhe di cifre binarie; queste informazioni possono essere schematicamente suddivisi in due insiemi: dati e programmi. La CPU è l’unità che esegue le elaborazione sui dati descritte in un programma: al momento dell’elaborazione, dati e programma devono risiedere nella RAM. Le unità periferiche sono dispositivi elettronici e meccanici che gestiscono informazioni (dati e programmi) e consentono di scambiarle con la memoria centrale: si dicono di input, di output e di input/output (o di I/O) rispettivamente se il flusso di informazioni è diretto solo verso la memoria, solo verso l’unità periferica o in entrambi i sensi. Le principali unità periferiche di un c. sono: la tastiera e il mouse (di input), il video e la stampante (di output) e lo hard disk, il floppy disk e il modem (di input output). (Per una descrizione dettagliata si vedano le singole voci). Nei c. attuali, RAM e CPU comunicano perché sono direttamente connesse a un bus (vedi). Le unità periferiche sono normalmente collegate al bus tramite opportune schede di connessione. I parametri principali che caratterizzano un c. sono: il clock, che determina la velocità con la quale vengono eseguite le operazioni elementari e si misura in Mhz (o megahertz); la dimensione della RAM, che influenza l’efficienza globale del sistema e si misura in Mbyte. Importanti sono anche la diagonale e la risoluzione dello schermo del video (la prima si misura in pollici e la seconda in pixel, vedi) e la dimensione dell’hard disk (si misura in Gbyte). Per il modem, essenziale per l’accesso alla rete tramite una linea telefonica, il parametro significativo è la velocità di trasmissione misurata in bps. Per altri aspetti ed argomenti collegati, si veda informatica.


convertitore analogico digitale. Dispositivo che serve per trasformare informazioni che variano in modo continuo in dati discreti elaborabili da un computer. Esempi di impiego di c. si hanno nei sensori e negli attuatori collegati a un sistema di elaborazione. I primi consentono di acquisire delle misure di temperatura, umidità, luminosità e rumore con un intervallo di tempo prestabilito detto periodo di campionamento; i secondi consentono di svolgere azioni fisiche come aprire una porta o azionare una valvola.


CPU. Acronimo per Central Processing Unit. E’, assieme con la memoria centrale, la componente essenziale di un computer (vedi) ed è caratterizzata dall’insieme di istruzioni elementari che può eseguire e dalla velocità con cui le esegue. Questo insieme costituisce il così detto linguaggio macchina. Ciascuna istruzione descrive una operazione elementare e individua i dati su cui operare specificandone, per esempio, l’indirizzo (vedi memoria). L’insieme di istruzioni che una CPU può eseguire può essere più o meno numeroso; corrispondentemente le CPU vengono classificate in CISC e RISC (vedi).


*crittografia. Tecnica che consiste nel codificare un messaggio in modo da non renderlo direttamente comprensibile. A differenza della codifica (vedi), la c. non consiste nella trasformazione dei singoli caratteri del testo, ma nella trasformazione globale di ciascuna delle parti in cui è stato suddiviso l’intero messaggio. Gli algoritmi di c. utilizzano una parola chiave (una stringa di bit, cioè un numero intero) e interpretano il messaggio da crittografare (codificato come una lunga stringa di bit) come un (grande) numero intero: ogni algoritmo di c. è una combinazione di funzioni matematiche che utilizzano questi due numeri per trasformare il messaggio iniziale in un terzo numero che costituisce il messaggio crittografato. Esistono algoritmi di c. simmetrici e asimmetrici distinti dalla maniera per ricostruire il messaggio originale; nei primi si deve usare la stessa parola chiave utilizzata per crittografare, mentre nei secondi si usa una parola chiave diversa.


D


data bank. Vedi banca di dati.


data base. E’ un insieme di tecniche per costruire, immagazzinare e reperire strutture di dati; spesso, per sineddoche, indica anche l’insieme strutturato dei dati conservati. Con riferimento alle tecniche usate, i tipi di d. b. sono: gerarchici, relazionali e ad oggetti. I d. b. gerarchici sono stati i primi ad essere usati negli anni ‘70 e ‘80 e sono ancora usati (nelle grandi organizzazioni) per le ovvie difficoltà economiche e tecniche insite nel cambiare la grande quantità di applicazioni che li usano. I d. b. relazionali, disponibili sul mercato dalla fine degli anni ‘80, vengono oggi usati in quasi tutte le nuove applicazioni (e nella riscrittura delle vecchie) per la loro maggiore flessibilità ed efficienza. Queste caratteristiche dipendono dalla semplicità dell’unica struttura elementare usata nella realizzazione di questo tipo di d. b.: la tabella (vedi). La diffusione dei data base relazionali è dipesa dal fatto che per questi sistemi è stato possibile fissare uno standard per l’utilizzo delle informazioni in essi contenute: il linguaggio SQL (vedi). Di introduzione più recente sono i d. b. ad oggetti che vengono proposti per rappresentare non solo la descrizione degli oggetti del mondo reale, ma anche il loro comportamento. L’evoluzione tecnologica fa intravedere anche la diffusione dei così detti universal d. b. che sono particolarmente adatti per gestire informazioni multimediali (dati, testi, suoni, immagini, disegni e animazioni). Per rintracciare le informazioni contenute in un d. b. si usano le chiavi di accesso (vedi).


data file. Archivio di dati (vedi file).


data mining. Insieme di tecniche e programmi per scoprire in modo semi automatico eventuali relazioni tra dati contenuti in archivi gestiti anche con diverse modalità (vedi anche data warehouse).


*data processing. Vedi EDP.


data set. Altro nome per file (vedi).


data warehouse. Insieme di tecniche e programmi per usare contemporaneamente più data base in modo estemporaneo, cioè per rintracciare dati, senza conoscerne preventivamente la localizzazione, correlarli e presentarli all’utente finale. Il d. w. è lo strumento della direzione aziendale per individuare e utilizzare le informazioni sparse nei diversi sottosistemi informativi gestionali.


dato. In informatica si dice dato una informazione rappresentata in forma digitale (vedi); un d. può quindi essere gestito, elaborato e trasmesso da un computer.


DBMS. Acronimo per Data Base Management System. Indica l’insieme dei programmi usati per la gestione di un data base.


debug. Processo mediante il quale si cercano e si correggono errori e comportamenti anomali delle applicazioni informatiche. Deriva dall’inglese bug (vedi).


default. In inglese significa mancanza: in informatica viene utilizzato in espressioni del tipo “valore di default” in relazione al valore che deve assumere un parametro in mancanza di una indicazione esplicita.


desktop. In informatica, è l’appellativo delle apparecchiature (personal computer, stampanti e altre periferiche) quando hanno dimensioni adatte a essere poste su una scrivania. Una delle locuzioni più diffuse è “desktop publishing”, cioè la così detta editoria da tavolo, che consiste nel disporre di un personal computer con un wordprocessor (vedi) e di una stampante per la produzione di documenti di alta qualità editoriale.


digit. Nome inglese per cifra. Deriva dal latino digitus (dito) tramite l’idea del contare con le dita. In informatica sono usate, come digit, le due cifre binarie (0, 1), le dieci cifre decimali (0, 1, ..., 9) e le sedici cifre esadecimali (0, 1, ..., 9, A, B, C, D, E, F) rispettivamente per i sistemi di numerazione in base due, dieci e sedici.


digitale. Aggettivo usato in informatica (vedi) e nelle applicazioni di telecomunicazioni (per esempio telefono e televisione) per fare riferimento alla rappresentazione discreta, cioè mediante simboli come i numeri interi o digit, delle informazioni; d. è usato in maniera intercambiabile con numerico in contrapposizione ad analogico che si riferisce invece ad una rappresentazione continua delle informazioni, come avviene per esempio mediante onde sonore o elettromagnetiche.


directory. In informatica è il termine che indica una porzione di memoria su disco, dotata di nome, che può contenere uno o più file o altre (sotto)directory (vedi anche cartella).


disco magnetico. Apparecchiatura periferica di I/O per la memorizzazione di dati (vedi computer).

Organizzazione fisica. Il d. m. è costituito da uno o più dischi rigidi sovrapposti che ruotano attorno al medesimo asse. Sulle due facce di ogni disco è distribuita una pellicola contenente materiale magnetizzabile. In senso radiale può scorrere un sistema di bracci all’estremità dei quali è posta una testina di lettura e scrittura per ogni faccia del disco. Il sistema dei bracci può assumere un numero discreto di posizioni dalla più esterna (con le testine vicine al bordo dei dischi) alla più interna (con le testine vicine all’asse di rotazione). Si dice traccia la parte del disco che scorre durante la rotazione di fronte a una testina quando rimane ferma. Su ogni faccia del disco ci sono tante tracce quante sono le posizioni discrete che il sistema dei bracci può assumere. Una traccia può essere divisa in settori. La più piccola quantità di dati scambiata tra memoria centrale (RAM) e disco magnetico è il record (fisico). Per accedere a un record occorre posizionare il sistema dei bracci sulla traccia (o sul settore) che lo contiene e aspettare che, a causa della rotazione del disco, passi di fronte alla testina di lettura/scrittura; per la necessità di questi movimenti (dei bracci e del disco) nel caso dei dischi magnetici si può parlare solo di tempi medi di accesso che, nei dispositivi attuali, si misurano in millisecondi. La capacità di memorizzazione dei dischi si misura in Gbyte.
Organizzazione logica. Un disco serve per memorizzare dei file che, per facilità di gestione, sono organizzati in “cartelle” o directory. Un disco, per essere usato, deve essere inizializzato: questa operazione, detta anche formattazione, rende disponibile l’intera capacità del disco, cancellando i dati in esso eventualmente preesistenti. Dopo la formattazione, si possono creare le nuove cartelle che conterranno i documenti, cioè i file.


disco ottico. Vedi CD.


DOS. Acronimo per Disk Operating System. Indica un generico sistema operativo (vedi) memorizzato su disco; è anche il nome proprio del sistema operativo per personal computer che ne ha favorito la grande diffusione negli anni ottanta.


drive. In informatica è la componente hardware che serve per collegare una apparecchiatura periferica a un computer; esiste un d. per ogni tipo e tecnologia caratteristici dei dispositivi da collegare.


driver. In informatica è la componente software del sistema operativo che serve per gestire lo scambio di informazioni tra una apparecchiatura periferica (per esempio una stampante) e la memoria centrale (vedi computer). Esiste un d. per ogni tipo, tecnologia e marca del dispositivo da collegare.


duemila, anno. Vedi anno 2000.


DVD. Acronimo per Digital Versatile Disc. Rappresenta l’evoluzione tecnologica del CD (vedi) e può contenere una quantità di informazioni dell’ordine della decina di Gbyte.


E


EDI. Acronimo per Electronic Data Interchange. Insieme di protocolli e tecniche usati per lo scambio di dati tra sistemi informatici di enti e aziende diverse.


editor. Nome generico di programma per la costruzione di documenti mediante un computer. Gli editor particolarmente adatti per costruire testi e documenti di alta qualità sono detti word processor.


EDP. Acronimo di Electronic Data Processing. Tecnica di gestione e di elaborazione delle informazioni mediante computer. L’aggettivo “elettronica” in EDP nasce negli anni sessanta con il diffondersi dei computer, visti come prodotti della tecnologia elettronica in ambienti dove erano già abbastanza diffusi strumenti di calcolo elettromeccanici. Attualmente il termine EDP viene spesso usato per indicare le applicazioni tradizionali dell’informatica in contrapposizione con quelle più avanzate.


elaboratore (elettronico). Vedi computer.


elaboratore di processo. Vedi automazione.


elaborazione elettronica dei dati. Vedi EDP.


email. Contrazione di electronic mail. Indica il servizio di posta elettronica su reti di computer. E’ una delle applicazioni più diffuse su Internet e ha contribuito al rapido sviluppo di questa infrastruttura. Per usufruire di questo servizio occorrono un personal computer predisposto (cioè connesso alla rete e dotato di un opportuno programma) e la concessione di una casella postale (e quindi di un indirizzo) da parte del gestore della rete. Per ottenere questa concessione su Internet, un privato si può rivolgere a un provider (vedi). Gli indirizzi di posta elettronica su Internet sono formati da due stringhe di caratteri separate dal simbolo @ che si legge “at”. Ciascuna di queste due stringhe può essere articolata in sottostringhe separate da un punto. Il seguente è un esempio di indirizzo john.smith@united.artist.com
.


ethernet. Protocollo fisico, tra i più usati, per le reti locali di trasmissione dati tra computer (vedi LAN); comporta l’uso di una particolare scheda (o porta) per collegare il computer alla rete.


F


fault tollerance. Proprietà caratteristica di un sistema (informatico) che consente un funzionamento corretto (eventualmente degradato) anche in presenza di certi guasti. La f. t. comporta un aumento del costo del sistema in quanto richiede la replica delle componenti più critiche.


file. In Informatica è una struttura di dati registrata su supporto magnetico e organizzata in record (vedi) disposti sequenzialmente; per estensione indica spesso una qualunque struttura di dati memorizzata su supporto magnetico. Esempi di f. sono le strutture che contengono dati, programmi, documenti testuali, immagini e disegni. Un f. è contraddistinto da un nome costituito da una stringa di caratteri suddivisa in parti da punti come per esempio qwerty.ini oppure alfa.beta.gamma. Di norma i nomi sono costituiti solo da due parti: la prima parte (qwerty o alfa) è inventata dall’utente e costituisce il nome proprio del file; la seconda indica, di norma, l’applicazione che utilizza quel f.


firma elettronica. Tecnica che viene usata per rendere certa la provenienza di documenti che circolano su una rete di trasmissione dati, come per esempio su Internet. Solitamente, la f. e. consiste nell’aggiungere al documento un’appendice crittografata che caratterizza in maniera univoca l’emittente.


firmware. Termine inglese che indica componenti software usualmente predisposte dal produttore di computer per mettere a disposizione funzioni non realizzate direttamente in hardware. Il f. risiede su memorie non volatili, cioè capaci di mantenere le informazioni anche in assenza di alimentazione elettrica: usualmente sono impiegate memorie di tipo ROM (vedi).


floppy disk. Supporto simile a un disco magnetico (vedi) caratterizzato dall’essere costituito da un solo piatto di materiale flessibile protetto da un sottile involucro di plastica che ne permette un facile trasporto. E’ stato il mezzo tipico di memorizzazione e scambio delle informazioni nei primi personal computer. La capacità dei f. d. è passata da qualche centinaio di Kbyte (anni ottanta) a qualche Mbyte (anni novanta).


foglio elettronico. E’ un sistema che consente di manipolare facilmente dati sotto forma di tabelle nelle cui celle si possono inserire numeri, testi e formule. Il F. e. è una applicazione che, assieme al word processor (vedi), ha determinato la larga diffusione dei personal perché permette facilmente di realizzare applicazioni statistiche, economiche e aziendali di grande utilità


font. Termine (americano) che indica un insieme di caratteri di stampa di stile o dimensioni predefinite. In informatica, l’uso dei vari font si è diffuso con il miglioramento della tecnologia che ha consentito la produzione di stampanti ad alta definizione e a basso costo (mediante tecnologie a getto d’inchiostro e laser). La possibilità di usare vari font ha rivoluzionato l’editoria perché ha reso possibile produrre (e trasmettere) documenti di alta qualità tipografica ad ogni utente dotato di personal computer.


formattare. Suddividere una porzione di memoria in parti ciascuna delle quali dotata di un particolare significato. Nel caso di dischi magnetici, f. significa inizializzare il disco, cioè individuare in quale parte del disco possono essere memorizzate informazioni dell’utente e in quale parte viene registrato l’indice del contenuto. Un documento si dice formattato se è stato suddiviso in parti, dette campi, in cui devono essere registrate informazioni predefinite: una fattura commerciale è un esempio di documento formattato; un articolo di giornale è un esempio di documento non formattato o a “formato libero”.


FORTRAN. Linguaggio di programmazione procedurale disponibile fin dalla seconda metà degli anni cinquanta. Il nome deriva dall’inglese FORmula TRANslator e indica l’uso, in applicazioni a prevalente contenuto fisico e matematico, cui il linguaggio era destinato.


G


Giga. Prefisso che indica il multiplo di una unità di misura corrispondente a un miliardo. In informatica il G. corrisponde a 230 = 1024 ´ 1024 ´ 1024.


H


hard disk. Vedi disco magnetico.


hardware. Termine inglese che, in informatica, indica le componenti fisiche (meccaniche ed elettroniche) di un computer e delle apparecchiature ad esso correlate; spesso è usato in contrapposizione a software (vedi) che indica le componenti logiche coinvolte nei processi di elaborazione automatica dei dati. Si vedano anche le voci: chip, computer, CPU, memoria, bus, periferiche e (per altri aspetti ed argomenti correlati) informatica.


home computer. Personal computer per uso domestico la cui diffusione è associata alla crescente disponibilità di applicazioni dell’informatica connesse con i servizi telefonici e televisivi.


*HTML. Acronimo per Hyper Text Mark-up Language. E’ il linguaggio standard utilizzato per realizzare ipertesti (vedi)

(vedi) nella fase iniziale di espansione di Internet a livello mondiale.


I


icona. In informatica è una (piccola) figura che viene usata nelle interfacce grafiche per l’interazione uomo macchina. In queste applicazioni le i. rappresentano oggetti (programmi, documenti, directory, ecc.) su cui è possibile compiere azioni (per esempio selezionare, aprire, chiudere) mediante il mouse. L’efficacia delle i. dipende dal fatto che le figure utilizzate sono metafore degli oggetti che rappresentano.


implementare. In informatica è sinonimo di realizzare: implementare un programma significa scriverlo e farlo funzionare correttamente su un computer.


indirizzo. In informatica è il nome identificativo di ciascuno degli elementi di un insieme omogeneo. Per esempio hanno un indirizzo tutti gli utenti del servizio di posta elettronica (vedi email) e tutte le celle della memoria centrale di un computer: nel primo caso l’indirizzo è costituito da una stringa di caratteri, nel secondo caso da un numero.


*informatica. E’ la disciplina che studia metodi e problemi relativi alla elaborazione dell’informazione eseguita con strumenti automatici. E’ nata come disciplina autonoma, e si è rapidamente affermata in virtù delle sue applicazioni, con la disponibilità dei primi computer elettronici durante la seconda guerra mondiale; in realtà, l’origine dell’i. si può far risalire a quando l’uomo ha cominciato a rappresentare le informazioni con un alfabeto (un insieme finito di simboli) che costituisce il primo esempio di “digitalizzazione” dell’informazione; l’evoluzione è continuata con la comparsa di regole esplicite e non ambigue per elaborare queste rappresentazioni, che hanno portato alla definizione formale di algoritmo. Il momento decisivo si può associare alla comparsa del computer, cioè di una macchina universale capace di attuare un qualunque algoritmo. All’interno di questa evoluzione si possono distinguere due processi distinti: quello numerico-aritmetico-matematico e quello testuale-logico-filosofico. Le tappe salienti del primo sono l’invenzione della numerazione posizionale indo-araba, la conseguente comparsa di regole formali di calcolo (quindi dell’idea di algoritmo) e la costruzione delle prime macchine per eseguire operazioni aritmetiche (Pascal). Le tappe significative del secondo filone sono l’individuazione di norme su cui basare il ragionamento (dai sofisti ad Aristotele), la scoperta di strutture logiche contenute nel linguaggio naturale e quindi la possibilità di automatizzare il ragionamento comune (Giansenisti, Hobbes e Leibniz) e, infine, la esplicitazione di regole formali per la elaborazione di simboli a prescindere dal loro significato (Boole). I due filoni evolutivi convergono quando è stato possibile progettare e costruire una macchina programmabile (dal tentativo di C. Babbage, a metà dell’ottocento, ai primi successi di K. Zuse, H. Aiken, G. Stibitz e J. Atanasoff, a cavallo fra gli anni trenta e quaranta del novecento). Il passo ulteriore è rappresentato dalla costruzione dell’ENIAC (acronimo di Electronic Numerical Integrator And Computer) realizzata da J. P. Eckert e G. Mauchly su un progetto derivato dalle idee di Atanosoff. I primi computer con i quali prende realmente avvio la distinzione tra hardware e software (avendo il programma registrato su una memoria) sono l’EDSAC, il Whirlwind e l’IAS basati sul progetto di Jhon Von Neumann pubblicato nel 1946; (pressoché) tutti i computer costruiti finora vengono detti macchine di Von Neumann perché ricalcano sostanzialmente quella struttura. Con l’inizio degli anni cinquanta comincia l’era commerciale dell’i. e si susseguono varie generazioni di macchine caratterizzate dalla tecnologia elettronica impiegata per costruire la CPU del computer (vedi). La prima generazione impiegava valvole termoioniche, la seconda i transistor, la terza i circuiti integrati e la generazione successiva usa la tecnica VLSI (vedi). Il computer, nato come strumento scientifico, è ben presto diventato anche uno strumento per applicazioni di carattere gestionale. Dopo un primo periodo pionieristico, la grande diffusione dei computer inizia negli anni sessanta ed è caratterizzata dalla comparsa dei linguaggi di programmazione ad

dette architetture modulari. I primi hanno reso facile ed economico sviluppare le applicazioni; le seconde hanno consentito di mettere sul mercato in ogni momento più modelli di dimensioni diverse (quindi adatti a differenti esigenze, anche se basati sul medesimo progetto) e di farli evolvere nel tempo con prestazioni sempre maggiori; un vantaggio decisivo di queste architetture è la così detta compatibilità, cioè la capacità di usare sempre lo stesso software su qualunque modello. Durante la fase pionieristica, ogni computer, comunque grande, aveva sempre un solo utente per volta. Durante la fase di espansione (anni sessanta e settanta), con lo sviluppo dei sistemi operativi, i computer vengono connessi a reti di terminali che ne consentono l’utilizzo contemporaneo da parte di più utenti; da questo momento è stata quindi introdotta la distinzione tra mainframe (usabili da decine o centinaia di utenti) e mini (usabili da qualche utente per volta). La trasformazione successiva avviene agli inizi degli anni ottanta con la comparsa e la diffusione dei personal computer che hanno consentito interfacce uomo macchina innovative permettendo la realizzazione di applicazioni di larga diffusione come i word processor e i fogli elettronici. Un ulteriore rivoluzione si è avuta con la comparsa delle reti come infrastrutture autonome che permettono di utilizzare servizi senza doversi preoccupare esplicitamente di chi li fornisce.

A partire dalla comparsa di macchine a programma memorizzato, l’i. può essere pensata articolata in quattro aree: hardware, software, teoria e applicazioni; l’hardware (vedi) è un’area condivisa con l’elettronica, la teoria è condivisa con la matematica e le applicazioni sono sviluppate in comune con le discipline che pongono i diversi problemi: l’area completamente nuova dovuta alla comparsa del computer è quella del software (vedi), termine che indica non solo i programmi, ma anche, per metonimia, metodi, tecniche e strumenti coinvolti nella loro produzione.

Teoria. Nella seconda metà degli anni trenta, prima della costruzione di un computer funzionante, i matematici avevano affrontato il tema della effettiva calcolabilità delle funzioni matematiche che è concettualmente simile a quello di individuare la classe dei problemi di cui è realmente costruibile la soluzione; particolarmente rilevante, anche per gli sviluppi futuri dell’i., è il lavoro di A. Turing che, mediante l’introduzione di un dispositivo puramente concettuale noto come macchina di Turing, fornisce una definizione rigorosa di questa classe. Un argomento naturalmente collegato alla calcolabilità è la complessità del procedimento effettivo per ottenere la soluzione; questa è il costo in termini di operazioni elementari da eseguire e di memoria da utilizzare. Sostanzialmente la complessità studia come crescono le risorse necessarie per trovare la soluzione al crescere della “dimensione” del problema; nasce quindi un filone di studi che, per ogni problema, cerca di trovare l’algoritmo migliore (cioè il più economico); i risultati significativi delle ricerche sulla complessità sono stati la messa a punto di numerosi algoritmi efficaci e la individuazione dei così detti problemi intrattabili per i quali non è stato (ancora) trovato un algoritmo utilizzabile in pratica per dimensioni non banali. Sia l’esigenza di scrivere programmi per computer, sia la necessità di formulare algoritmi hanno portato alla introduzione del concetto di linguaggio di programmazione. Infatti, per problemi realistici, non era possibile scrivere il programma direttamente nella memoria del computer usando le singole istruzioni (vedi); la strategia che si è venuta delineando è stata quella di scegliere un insieme di “formule e costrutti linguistici” che da una parte fossero facilmente traducibili in programma e dall’altra servissero ad esprimere facilmente l’algoritmo risolutivo. Dai primi tentativi non sistematici, è emersa la teoria dei linguaggi di programmazione che, mediante regole appropriate, definisce la sintassi di questi linguaggi. Questa evoluzione ha dato origine ai così detti linguaggi di basso livello (condizionati dalla facile traducibilità e quindi dalla struttura del computer) e ai così detti linguaggi ad alto livello (condizionati dalla facilità d’uso e quindi dalla struttura dei problemi). A cavallo del 1960 sono nati i linguaggi di programmazione FORTRAN, Algol, COBOL, Lisp e Basic che hanno contribuito in modo determinante al successo economico dell’i. durante gli anni sessanta e settanta. Nel corso degli anni settanta, la crescita tumultuosa delle applicazioni ha reso evidente la carenza di strumenti metodologici per dominare da una parte la complessità dei progetti e dall’altra la complicazione dei programmi. Per fronteggiare questa situazione sono comparse l’ingegneria del software che riguarda la gestione del progetto dei così detti sistemi informativi e la programmazione strutturata per facilitare la costruzione dei singoli programmi; quest’ultima ha sostanzialmente risolto in modo soddisfacente il problema che si era posto e attualmente si insegna e si pratica una maniera disciplinata di scrivere programmi sostanzialmente messa a punto verso la fine degli anni settanta. Viceversa, la complessità crescente dei sistemi informativi sempre più integrati e globali rende ancora attuale lo studio e la continua evoluzione dell’ingegneria del software. Durante questo percorso, ha assunto un ruolo centrale il concetto di correttezza di un programma: un programma si dice corretto quando soddisfa le esigenze che lo hanno generato. Nel tentativo di tradurre questa definizione (che sembra una petizione di principio) in un enunciato operativo, si sono venuti individuando due filoni di attività: la semantica dei linguaggi di programmazione e il metodo top-down. Il primo filone studia il significato di un programma come “composizione” del significato dei singoli costrutti (linguistici) che vi compaiono; il secondo vede la costruzione del programma come una sequenza di trasformazioni semi-formali che partono dall’enunciato delle esigenze (scritto in linguaggio naturale) e, per passi successivi, portano alla stesura del testo del programma (scritto in un linguaggio di programmazione).

Le attività di ricerca sopra illustrate traggono origine dall’obiettivo di rendere possibile e facile la soluzione dei problemi; una seconda linea di ricerche ha invece indagato argomenti relativi alla utilizzazione ottimale delle risorse di calcolo presenti in un computer: sono così nati i sistemi operativi che coinvolgono argomenti come la concorrenza, la teoria delle code, la ottimizzazione, ecc. A partire dagli anni ottanta, un’area di indagine teorica tendente a risolvere problemi sempre più complessi, nota con il nome di calcolo parallelo, ha contribuito a rendere disponibili computer con più CPU e quindi è iniziata una attività di indagine sull’uso di queste architetture; sono stati realizzati esemplari con migliaia di CPU che naturalmente richiedono software specializzato realizzabile solo se basato su schemi concettuali appropriati. Una ulteriore area di ricerca ha avuto origine dal tentativo di affrontare anche problemi “difficili”, cioè quelli per cui non esiste un algoritmo praticabile; queste ricerche, riferite in genere come di Intelligenza Artificiale (vedi), hanno prodotto metodi e linguaggi particolarmente efficaci per le applicazioni quando hanno interagito con la matematica discreta, la logica formale e le scienze cognitive, sviluppando nuovi concetti e nuove tecniche con vantaggio di tutte le discipline coinvolte.

Applicazioni. Le prime applicazioni dei computer, che ne hanno anche accelerato la comparsa, sono state sviluppate in ambito militare e riguardavano la decifrazione dei codici crittografici, il calcolo delle traiettorie balistiche e la soluzione di problemi di ricerca operativa. Su questa linea si sono poi moltiplicate le applicazioni in ambito scientifico e, in particolare, alla fisica, alla chimica e all’ingegneria rendendo possibile, ad esempio, lo svolgimento di complessi esperimenti e le conseguenti scoperte di nuove particelle elementari, lo studio e la sintesi di nuove molecole e la costruzione di sistemi di trasporto in ambito aeronautico e spaziale. Grande impatto sull’organizzazione del lavoro e sull’economia (mondiale) hanno avuto le applicazioni in ambito aziendale per la gestione delle risorse (il personale, il patrimonio, il bilancio, ecc.) a sostegno del ciclo produttivo (scorte e approvvigionamento, controllo di processo, ecc.) e del ciclo di distribuzione e vendita (gestione dei depositi, ordini e consegne, clienti, ecc.). Lo sviluppo del trasporto aereo è stato reso possibile, oltre che dal progredire delle tecnologie aeronautiche, anche e soprattutto dalla possibilità di realizzare una struttura informatica e telematica per la prenotazione e la vendita dei biglietti aerei su scala mondiale. Anche le aree bancarie, assicurative e finanziarie sono state, e sono tuttora, grandi consumatrici di applicazioni informatiche le quali, d’altra parte, ne hanno grandemente condizionato e facilitato lo sviluppo. In campo medico, oltre alle applicazioni che sostengono lo sviluppo delle conoscenze (come avviene in tutte le altre discipline scientifiche), si annoverano le prime applicazioni dell’Intelligenza Artificiale (sotto forma di sistemi esperti di aiuto alla diagnosi, il primo dei quali, MYCIN, è stato sperimentato a metà degli anni settanta); sono già in uso, ma se ne prevede un significativo ampliamento, i sistemi per supportare il ciclo di cura, cioè sistemi che hanno nozione dei (possibili) pazienti, delle risorse e dei servizi a disposizione e del loro utilizzo razionale. Un’altra area destinata a diventare grande utilizzatrice di applicazioni informatiche è senza dubbio quella delle Pubbliche Amministrazioni e ciò per almeno tre motivi: in quanto aziende devono razionalizzare la loro gestione interna; per la loro missione devono trattare (grandi quantità di) informazioni testuali (leggi, regolamenti, disposizioni, atti, ecc.); per la loro natura politica, devono rendere pubblico (e trasparente) lo svolgimento e il risultato dei procedimenti amministrativi. In molti altri casi, non è stata l’i. a mettere a disposizione applicazioni utili in una certa disciplina, ma è stato all’interno di questa che sono stati sviluppati nuovi campi di indagine resi possibili dall’i.: in matematica hanno assunto nuovo vigore l’analisi numerica e il calcolo simbolico; nel diritto si è affermato un filone di applicazioni che va sotto il nome di i. giuridica; in statistica sono state potenziate e rese disponibili direttamente all’utente finale tecniche (anche raffinate) di analisi dei dati e di “esplorazione” di grandi data base per scoprire regolarità e suggerire eventuali correlazioni. Un’area nella quale è ragionevole aspettarsi un grande cambiamento è quello della didattica nella quale l’i. mette a disposizione sia strumenti per aiutare (e sostituire parzialmente) il docente, sia ambienti di apprendimento innovativi nei quali lo studente si esercita, compie esperimenti e controlla il livello di comprensione della materia. Come applicazioni autonome sono da segnalare i giochi e i passatempi disponibili su personal computer che sono rilevanti sia per la loro diffusione come prodotti (e quindi per l’importanza economica), sia per l’impegno e la ricerca necessari per il loro sviluppo. L’i. ha messo a disposizione strumenti di produttività individuale, come word processor, fogli elettronici e data base, che hanno avuto un grande impatto non solo nella organizzazione del lavoro in ogni tipo di azienda, ma anche nelle attività dei singoli. Sono di recente comparsi anche strumenti di produttività di gruppo (posta elettronica, work flow, agende condivise, ecc.) che assieme con la telematica fanno emergere nuove strutture organizzative e logistiche come il telelavoro e la così detta azienda a rete (organizzazione di specialisti distribuiti sul territorio e riuniti in una azienda virtuale). Per altre applicazioni, si veda automazione, burotica, monetica.

Informatica e mestieri. L’i. ha influenzato e continua a influenzare il mondo del lavoro perché il computer può richiedere nuove professionalità, può sostituire (totalmente o parzialmente) l’uomo, può essere usato come strumento che chiede un aggiornamento o un addestramento periodico anche pesante. Fino alla fine degli anni settanta, sono esistiti tre ambiti di lavoro distinti: per l’installazione e la manutenzione degli impianti hardware, per la gestione del sistema di elaborazione e per lo sviluppo e la predisposizione delle applicazioni. Il primo ambito era formato da personale tecnico specializzato (per individuare e sostituire le componenti elettroniche difettose); il secondo comprendeva gli operatori (per gestire le componenti hardware) e i sistemisti (per predisporre e ottimizzare il sistema operativo); il terzo prevedeva gli analisti (per studiare e progettare le applicazioni), i programmatori (per scrivere i programmi mediante uno specifico linguaggio di programmazione) e i perforatori (che trasferivano su schede perforate i programmi e i dati per renderli leggibili dal computer). La diffusione dei terminali (anni settanta) e dei personal (anni ottanta) ha fatto scomparire quest’ultima figura professionale e le schede come supporto per l’input; quasi contemporaneamente, le due figure di analista e programmatore si sono di fatto unificate anche a causa delle metodologie introdotte dall’ingegneria del software. Contemporaneamente la diffusione dei data base ha fatto nascere la professione del data base administrator che ha la responsabilità della coerenza delle informazioni registrate, della autorizzazione al loro uso e della ottimizzazione delle prestazioni. La comparsa e la diffusione delle reti ha comportato la nascita di figure professionali per la loro progettazione e gestione e ha trasformato gli operatori in addetti ai servizi di assistenza remota agli utenti (via telefono) e i tecnici di manutenzione in addetti alla assistenza in loco. Come in molti altri settori, anche in i. esistono alcune specializzazioni di nicchia che compaiono e scompaiono nel tempo: attualmente sono da segnalare per esempio gli specialisti per le interfacce (specialmente per i giochi elettronici) e quelli per la realizzazione di siti WWW (vedi), gli esperti per la sicurezza della rete e quelli per il progetto di ipertesti multimediali. Oltre a questi, che sono mestieri dell’informatica in senso stretto, occorre ricordare anche le specializzazioni connesse con la ricerca, l’ideazione e produzione delle componenti hardware (che fanno più propriamente riferimento all’elettronica e alla scienza dei materiali) e quelle connesse con la ricerca e l’insegnamento relativi ai sistemi software. D’altra parte, l’i. ha anche causato la scomparsa (o la radicale trasformazione) di numerosi mestieri come per esempio contabili, disegnatori (industriali) e dattilografe; per molte altre professionalità, l’introduzione dei sistemi informativi integrati e pervasivi sta provocando cambiamenti strutturali (anche profondi) che inducono la necessità di un aggiornamento così pesante e diffuso che ne diventa problematica la gestione.

Prospettive. Fare previsioni sullo sviluppo dell’i. è particolarmente difficile; basti pensare alla affermazione di T. J. Watson, allora presidente della società IBM, il quale nel 1943 stimava che il mercato mondiale sarebbe stato in grado di assorbire non più di cinque computer. In realtà, agli inizi dell’i. molte persone condividevano l’uso del medesimo computer; oggi (contando i microchip presenti negli orologi, nei telefoni, negli elettrodomestici, nelle automobili, ecc.) parecchi computer condividono una stessa persona. Passi determinanti per sfruttare ulteriormente questa disponibilità tecnologica possono essere: primo, la possibilità che un sistema automatico riconosca il parlato corrente (per esempio scriva sotto dettatura o esegua semplici comandi); secondo, la possibilità di definire un protocollo che consenta a tutti i microchip che si occupano di una persona di comunicare direttamente tra loro senza che sia necessaria l’intermediazione umana; terzo, la capacità di comprendere il senso di messaggi formulati in linguaggio naturale (con eventuali deboli limitazioni). E’ da notare inoltre che l’evoluzione delle applicazioni dell’i. non è determinata solo dallo sviluppo tecnologico, ma anche dall’emergere di idee che hanno apparentemente costo zero come Internet che deve il suo successo più al consenso spontaneo nell’uso di certi standard che alla disponibilità di nuove tecnologie.


informatica distribuita. Inizialmente (anni ottanta) era un termine per indicare, in una grande organizzazione, applicazioni che prescindessero dall’uso di un mainframe (vedi). Successivamente i.d. è passata a indicare applicazioni che fanno uso determinante di una rete di trasmissione dati in cui sono presenti più computer collegati tra loro (per esempio per gestire più data base); l’utente di una applicazione distribuita non è, in generale, consapevole della lacalizzazione delle risorse (computer, programmi e dati) che usa. Attualmente, il termine viene usato anche per indicare applicazioni che richiedono la collaborazione attiva di più agenti (uomini o computer) in comunicazione tra loro.


informazione. Indica il complesso delle interazioni logiche tra un sistema fisico o biologico (per esempio un essere vivente) e l’ambiente che lo circonda. L’informazione, per essere utilizzata, viene suddivisa in messaggi che possono essere rappresentati in forma analogica o digitale. L’informatica si occupa essenzialmente della gestione e del trattamento dei messaggi in forma digitale che vengono chiamati dati (vedi); nell’uso corrente, quando non siano possibili equivoci, i due termini dato e informazione sono spesso usati in maniera intercambiabile.


informazione, teoria della. In questa teoria l’informazione è sempre (e solo) associata a un messaggio il cui contenuto informativo dipende dall’essere stato scelto da un insieme (finito) di messaggi possibili. La teoria della i. si occupa, in particolare, del problema di misurare l’informazione: per esempio, nel caso che tutti gli N messaggi possibili siano equiprobabili, l’informazione connessa con uno di questi è log2N. Questa formula evidenzia l’idea intuitiva che scegliere tra molte alternative (equiprobabili) richiede più informazione che scegliere tra poche: la quantità minima di informazione è quella associata alla scelta tra due alternative equiprobabili ed è detta bit (vedi). La teoria dell’i. si occupa anche di “ridondanza”, cioè delle maniere di arricchire il messaggio in modo che non perda informazione anche quando viene trasmesso su un canale che introduce disturbi.


input. Termine inglese che in informatica indica il processo in cui si ha trasferimento di dati o informazioni verso un computer. Con l’espressione unità o canale di input si indica il dispositivo usato a tale scopo. Il processo inverso, dal computer verso l’esterno, si dice di output.


Intelligenza Artificiale. E’ un settore dell’informatica nato nel 1956 a Dartmouth durante un convegno al quale parteciparono McCarthy, Minsky, Simon e Newell: essi coniarono il termine I. A. e sono considerati i fondatori della disciplina. La I. A. si occupa della realizzazione di sistemi artificiali capaci di comportamenti che un osservatore comune attribuirebbe all’intelligenza umana, oppure di sistemi, abbastanza complessi, che sanno apprendere e adattarsi (con successo) all’ambiente. Il primo caso deriva dalla definizione data da A. Turing agli inizi degli anni cinquanta, la seconda è una definizione che deriva dal fatto che qualunque tentativo di definire l’intelligenza è ragionevolmente collegata alla complessità e all’apprendimento. Fin dall’inizio è apparso chiaro che il problema tipico di questa disciplina è quello di produrre sistemi artificiali capaci di risolvere problemi appartenenti ad una certa classe. Esempi di aree tipiche dell’I.A. sono: la comprensione del linguaggio naturale, la dimostrazione automatica di teoremi, la visione e la robotica. Molto difficilmente queste tematiche troveranno una risposta definitiva, ma probabilmente saranno costruite soluzioni via via sempre più soddisfacenti. Può servire ad esempio la tematica del gioco degli scacchi; i primi programmi per questo gioco erano facilmente battuti anche dal più modesto dei dilettanti; nella primavera del 1997 per la prima volta un sistema artificiale ha sconfitto in una gara ufficiale il campione del mondo in carica, risultato questo che fino a pochi anni prima era ritenuto impossibile da raggiungere.

Le applicazioni principali delle ricerche sulla comprensione del linguaggio naturale sono volte alla realizzazione di sistemi automatici di aiuto alla traduzione tra linguaggi naturali e alla realizzazione di interfacce uomo-macchina.

Le ricerche sulla dimostrazione automatica di teoremi, oltre alla automazione della deduzione in sistemi formali, hanno come oggetto la costruzione meccanica dei programmi (cioè la così detta programmazione automatica) e la realizzazione di sistemi a regole (vedi sistemi esperti).

Nell’area della visione vengono svolte attività sul riconoscimento di un oggetto o di una persona in una fotografia o in una ripresa televisiva e nella ricostruzione tridimensionale del contenuto di una o più immagini a due dimensioni.

Le applicazioni della robotica riguardano lo studio e la realizzazione di meccanismi per l’esecuzione di piani di azioni o di movimenti per raggiungere un determinato scopo in un ambiente complesso.

Parole chiave (metodi e tecniche) caratteristiche di I.A. sono: la rappresentazione della conoscenza, la soluzione di problemi per tentativi (esplorazione dello spazio degli stati ed euristica), la programmazione a regole (vedi sistemi esperti), l’apprendimento automatico (reti neurali e algoritmi genetici) e la gestione dell’incertezza.

A parte teorie e tecniche sviluppate per classi particolari di applicazioni, un ruolo rilevante nella I.A. è giocato dalla logica formale sia per la rappresentazione della conoscenza sia come tecnica generale per la soluzione di problemi; i linguaggi di programmazione più usati per realizzare sistemi “intelligenti” sono il Lisp e il Prolog.


interattivo, sistema. Applicazione software che presuppone un colloquio tra utente e computer che si protrae durante tutto il processo di soluzione di un problema. Di norma l’interazione è costituita da una successione di scambi di (brevi) messaggi intervallati dallo svolgimento delle azioni definite dal dialogo. A titolo di esempio si possono citare i sistemi per le prenotazioni dei biglietti aerei, l’applicazione per la gestione di uno sportello bancario e le certificazioni anagrafiche di un comune. Attualmente quasi tutte le applicazioni informatiche sono interattive e si differenziano tra loro per la qualità dell’interfaccia (vedi). Con un tale sistema si possono affrontare anche problemi altrimenti (quasi) intrattabili (come per esempio la traduzione automatica e la progettazione assistita da calcolatore) poiché l’interazione consente di distribuire i compiti tra utente e computer a seconda delle rispettive abilità.


interazione uomo macchina. In informatica è l’area disciplinare che si occupa di tecniche e di metodologie per realizzare interfacce che consentono di governare e usare sistemi reali o virtuali. La i. u. m. è nata per facilitare la gestione di grandi impianti (centrali elettriche, catene di montaggio, macchine utensili, sistemi ferroviari, ...) e, con la diffusione dell’informatica, si è evoluta verso lo studio delle interazioni tra uomo e computer; attualmente il sistema informatico è l’unico con cui l’operatore umano entra in contatto e in alcuni casi, come per esempio nei simulatori, l’impianto reale può anche mancare. Quando il sistema (reale o simulato) con cui interagire è particolarmente complesso o quando si vuole realizzare una interfaccia (vedi) particolarmente raffinata (per esempio in linguaggio naturale) è necessario usare i metodi dell’Intelligenza Artificiale (vedi).


interfaccia. Componente capace di gestire e tradurre i messaggi che due sistemi devono scambiarsi. In informatica le i. vengono coinvolte o nella comunicazione tra due dispositivi fisici (per esempio il computer e una stampante) o nella comunicazione tra computer e utente umano. Nel primo caso le interfacce sono prevalentemente hardware (per esempio seriali o parallele), nel secondo caso le i. sono spesso sistemi software anche molto complessi. I primi esempi significativi di interfacce uomo computer erano costituiti da telescriventi che permettevano di scambiare messaggi di una o più righe; successivamente sono comparsi il video, la tastiera e il mouse che consentono di scambiare messaggi formati da testi lunghi anche più di una pagina e contenenti eventualmente disegni. Le aumentate possibilità degli strumenti hanno consentito la comparsa delle così dette interfacce amichevoli, caratterizzate da menu, icone, bottoni, finestre ecc., che hanno favorito l’uso e la diffusione dei computer tra gli utenti saltuari e non professionali. Un’altra linea di sviluppo ha portato alle così dette interfacce intelligenti sviluppate nell’ambito delle applicazioni dell’Intelligenza Artificiale (vedi) che sono caratterizzate principalmente dalla comprensione del linguaggio naturale.


Internet. Sistema mondiale di interconnessione cui possono collegarsi singoli computer e reti locali. Questo sistema è evoluto da quello progettato dall’ARPA (Advanced Research Projects Agency) negli USA agli inizi degli anni settanta come supporto della ricerca scientifica avanzata. Su I. sono stati inizialmente resi disponibili servizi di posta elettronica, ma l’evento che ne ha determinato la “esplosione” è stata (oltre la fine della guerra fredda) la comparsa del sistema Web (vedi) messo a punto da ricercatori del CERN di Ginevra. I. consente a qualunque computer di comunicare con un qualunque altro e i servizi che I. è in grado di offrire a un utente stanno per diventare una delle ragioni principali per acquistare un computer. Il protocollo di comunicazione usato da I. per gestire la molteplicità delle comunicazioni si chiama TCP/IP. Una organizzazione sovranazionale amministra e gestisce gli indirizzi e, in ciascuna nazione, esiste un organismo che li distribuisce agli utenti, direttamente o tramite provider (vedi). Col diffondersi delle tecnologie telematiche (sicure, a basso costo e con prestazioni sempre crescenti) il ruolo di I. nel sistema mondiale delle telecomunicazioni è destinato continuamente ad espandersi: le applicazioni più significative sono quelle commerciali, quelle bancarie e, in generale, quelle coinvolte nella distribuzione dei servizi pubblici e privati.


interprete. In informatica è una componente software che permette l’esecuzione diretta di un programma scritto in un linguaggio di programmazione (per esempio Basic o Prolog) da parte di un certo computer. Un programma, quando è interpretato, ha in generale prestazioni inferiori rispetto a quando è compilato (vedi compilatore).


intranet. Sistema costituito da una o più reti locali (di norma appartenenti ad una sola organizzazione) su cui sono disponibili servizi informatici distribuiti con la tecnica dei sistemi Web (vedi).


I/O. Acronimo per Input/Output. Indica i processi di scambio di dati tra un computer e le apparecchiature periferiche ad esso collegate. La sigla I/O viene utilizzata anche per caratterizzare le componenti hardware e software coinvolte in questi processi.


ipertesto. E’ un prodotto informatico tipicamente disponibile su CD-ROM o su rete e quindi per utilizzarlo occorre un computer con un lettore di CD o connesso alla rete. Un i. è un insieme di documenti che contengono dei collegamenti, detti link; questi partono da elementi (parole, figure, icone) e vanno a elementi del medesimo o di altro documento che, in questo contesto, viene spesso chiamato pagina indipendentemente dalla sua lunghezza. Un utente può leggere un i. seguendo di volta in volta un percorso diverso che viene costruito attivando col mouse i link ritenuti più opportuni. Le prime realizzazioni di i. erano essenzialmente di tipo “enciclopedia” in cui le parole rimandavano alla propria definizione; attualmente la tecnica degli ipertesti viene spesso impiegata assieme con i supporti multimediali per realizzare i così detti ipermedia che sono di fatto ipertesti nei quali i documenti possono contenere anche immagini, suoni e animazioni. Attualmente si va sempre più diffondendo l’uso degli ipermedia come interfaccia universale di interazione uomo macchina; per esempio, molti sistemi interattivi aziendali vengono realizzati facendo accedere gli utenti ai data base mediante interfacce ipertestuali di tipo WWW (vedi) sulla Intranet dell’organizzazione.


ISDN. Sigla per Integrated Services Digital Network. E’ una rete telefonica digitale caratterizzata, attualmente, da una velocità di trasmissione di 64 Kbit al secondo tra utente e utente; può trasmettere dati, voce e servizi per la gestione di rete. Esiste anche la così detta rete B-ISDN (per Broadband ISDN) che è caratterizzata da velocità molto maggiori (superiori a 2 Mbit per secondo). Con la diffusione di ISDN è possibile usufruire di più servizi contemporaneamente su una stessa linea telefonica attestata presso l’utente.


istruzione. In informatica ha due accezioni, una software e una hardware; nel primo caso i. è ciascuno dei singoli costrutti elementari di un linguaggio di programmazione; nel secondo caso è ciascuna delle operazioni elementari che possono essere eseguite dalla CPU di un computer; in quest’ultima accezione è detta anche istruzione macchina. Un programma (vedi), per essere eseguito, deve essere formulato come una successione di istruzioni macchina; un programma scritto in un qualsiasi linguaggio di programmazione deve quindi essere preventivamente tradotto (vedi interprete e compilatore).


J


Java. E’ un linguaggio utilizzato per realizzare ipertesti su WWW che hanno comportamenti simili a quelli dei sistemi interattivi.


K


Kilo. Prefisso che indica il multiplo di una unità di misura corrispondente a mille. In informatica il K. corrisponde a 210 = 1024.


L


Lan. Sigla da Local Area Network. E’ una rete locale, cioè un sistema di connessioni passive (prese, cavi di rame, fibre ottiche, ecc.) e attive (hub, switch, ecc.) che consentono a più computer di collegarsi tra loro e di scambiare dati. Di norma, i computer collegati con una L. sono dislocati nel medesimo edificio o in edifici adiacenti. I protocolli fisici (vedi) più diffusi per queste reti sono ethernet, token ring e ATM.


lap top. In Informatica, è l’appellativo delle apparecchiature (personal computer, stampanti, e altre periferiche) quando hanno dimensioni adatte a essere usate sul grembo di una persona seduta. Queste apparecchiature sono di norma assai più maneggevoli dei desk top (vedi).


libreria. In informatica indica un insieme di file (vedi) raggruppati perché contengono informazioni omogenee (per esempio una libreria di programmi per elaborazioni di tipo statistico).


linea telefonica. Infrastruttura di comunicazione inizialmente costituita da una o due coppie di fili di rame intrecciati, dette doppini, utilizzata per le comunicazioni telefoniche; attualmente indica una connessione realizzata con un qualunque supporto (fibra ottica, ponte radio, collegamento satellitare) utilizzata per trasmettere voce, dati e immagini tra due qualunque sistemi; le prestazioni di una l. t. dipendono dalla velocità di trasmissione che si misura in bps (vedi).


linguaggio di programmazione. E’ un linguaggio artificiale che viene usato per descrivere (facilmente) procedimenti di elaborazione che devono essere eseguiti da computer. La nascita dei linguaggi di programmazione è successiva alla comparsa dei computer (vedi informatica); la loro motivazione principale è stata quella di disaccoppiare l’attività di programmazione, cioè di soluzione di problemi, dalla conoscenza delle particolarità hardware del computer. A partire dagli anni cinquanta sono comparsi numerosissimi l. di p. (migliaia) che possono essere classificati in vario modo. Una prima suddivisione è fra l. di p. di basso e alto livello. I primi sono caratterizzati dalla immediata traducibilità in istruzioni del computer (e quindi, in qualche modo, ne riflettono la struttura); i secondi sono caratterizzati dal loro facile uso nella soluzione di (classi di) problemi (e quindi, in qualche modo, riflettono le caratteristiche di queste classi). Da un altro punto di vista, i l. di p. si possono distinguere in quattro tipi: imperativi, funzionali, logico-dichiarativi e ad oggetti. I primi, che comprendono tutti i linguaggi di basso livello e buona parte di quelli ad alto livello (come FORTRAN, COBOL, Basic e Pascal), hanno costrutti linguistici che sembrano rivolgersi all’interlocutore (il computer) per ordinargli di compiere delle azioni; sono molto adatti per descrivere in modo efficiente il procedimento di elaborazione e, per questo, vengono anche detti procedurali. I linguaggi funzionali (come Lisp e Logo) mutuano l’idea di funzione dalla matematica e la usano come struttura fondamentale: l’esecuzione di un programma risulta così equivalente ad una sequenza di valutazioni di funzioni. I linguaggi logico-dichiarativi (come il Prolog), invece di descrivere esplicitamente il procedimento di soluzione, descrivono le relazioni tra le entità coinvolte mettendo in evidenza la struttura della scomposizione di un problema (complesso) in sottoproblemi (più semplici). Il quarto tipo dei l. di p. (come C++ e Java) è basato sugli oggetti, che sono strutture di dati, raggruppati gerarchicamente in classi per le quali è specificato un comportamento mediante un insieme di proprietà (o attributi) e un insieme di operazioni (o metodi).

Poiché un computer può eseguire solo istruzioni macchina, i programmi scritti in un qualunque l. di p. possono essere eseguiti solo se opportunamente “tradotti”; questa operazione può avvenire in due maniere: mediante compilazione o interpretazione. Nel primo caso, il testo del programma viene preliminarmente tradotto in una sequenza di istruzioni macchina (vedi) chiamata programma eseguibile; questo può essere successivamente caricato in memoria e quindi essere eseguito. Nel secondo caso, viene caricato in memoria un programma eseguibile detto interprete il quale legge ed esegue, ad uno ad uno, i singoli costrutti linguistici che compongono il programma originale. La possibilità di costruire i compilatori e gli interpreti dipende sia dalla definizione rigorosa della sintassi dei l. di p., sia dalla possibilità di definire formalmente il significato di ogni costrutto linguistico; infatti, la versione tradotta deve avere il medesimo comportamento del programma originale, cioè avere lo stesso significato (vedi programma e informatica: teoria).


linguaggio naturale. E’ la facoltà tipica di una comunità di uomini di comunicare mediante un sistema di simboli (concetti e suoni) detto anche lingua naturale. In informatica si contrappone a linguaggio di programmazione che viene usato dagli uomini per comunicare a un computer il compito da svolgere. L’elaborazione del linguaggio naturale costituisce una delle principali applicazioni della Intelligenza Artificiale.


Lisp. Linguaggio di programmazione funzionale introdotto nel 1960 da J. McCarthy per realizzare applicazioni non numeriche. Ha conosciuto una notevole diffusione nell’insegnamento universitario e nelle applicazioni di Intelligenza Artificiale.


log. Termine inglese entrato nell’uso comune in informatica per indicare la registrazione delle azioni compiute durante l’esecuzione di un programma (specie nei confronti di un data base), per documentare quanto è avvenuto e poter ricostruire una situazione pregressa in caso di malfunzione o errore.


Logo. Linguaggio di programmazione funzionale definito alla fine dagli anni sessanta da S. Papert per l’insegnamento della programmazione agli alunni delle scuole primarie. Usa la metafora di una tartaruga alla quale ci si rivolge, in modo interattivo, per farle disegnare una figura geometrica sul piano. Il L. è stato molto apprezzato per il suo valore didattico.


M


mainframe. Termine inglese con il quale viene indicato un computer molto potente, fornito di un gran numero di unità periferiche e utilizzato, usualmente, da molti utenti contemporaneamente. Le grandi aziende, oltre ai personal computer assegnati a singoli dipendenti, utilizzano m. per le applicazioni che richiedono grandi quantità di dati ed elevati standard di sicurezza. Con la diffusione delle reti (vedi), i m. sono visti come server dedicati alle componenti critiche del sistema informativo.


Man. Sigla da Metropolitan Area Network. E’ una rete di dimensione “metropolitana”, cioè un sistema di connessioni che consentono a più computer di collegarsi tra loro e di scambiare dati in un’area urbana nella quale esistono potenti infrastrutture di comunicazione. Di norma una M. è composta di varie reti locali (o Lan) collegate tra loro, di norma, mediante fibre ottiche.


manutenzione. In informatica ha due accezioni: è una fase del ciclo di vita dei programmi applicativi che consiste nella revisione (continua) per rimediare alle malfunzioni (m. correttiva) e realizzare (piccoli) adeguamenti che ne migliorino e ne estendano l’usabilità e le prestazioni (m. evolutiva); ha l’accezione comune quando è riferita alle apparecchiature (hardware).


mass storage. Dispositivo che consente la memorizzazione e la gestione di grandi quantità di dati utilizzabili da un computer senza l’intervento di un operatore. La capacità di un m. s. è dell’ordine di (o superiore a) 1012 byte e si misura quindi in Terabyte.


Mega. Prefisso che indica il multiplo di una unità di misura corrispondente a un milione. In informatica il M. corrisponde a 220 = 1024 ´ 1024.


memoria. In informatica è il dispositivo per mantenere registrate le informazioni in forma digitale. Nei computer moderni esistono diversi livelli di memoria in funzione della velocità di reperimento dei dati, della capacità e del costo. L’unità di misura per la dimensione di una memoria è il byte (vedi): i diversi tipi di memoria presenti in un computer hanno dimensioni che si misurano con i multipli Kilobyte (o Kbyte), Megabyte (o Mbyte), Gigabyte (o Gbyte) e Terabyte (o Tbyte); il Kbyte vale 1024 byte, il Mbyte vale 1024 Kbyte, il Gbyte vale 1024 Mbyte e il Tbyte vale 1024 Gbyte. La memoria è suddivisa in parti elementari ciascuna delle quali ha un indirizzo, rappresentato da un numero intero. Nella memoria centrale, le parti indirizzabili, dette celle, contengono un singolo byte e gli indirizzi sono rappresentati dai numeri interi compresi tra zero e la capacità massima. Nei dischi magnetici (vedi) le parti indirizzabili sono le tracce o i settori che possono contenere un numero variabile di byte. Un parametro significativo delle memorie è la velocità di accesso che rappresenta il tempo necessario per rendere disponibile l’informazione memorizzata nel segmento specificato dall’indirizzo. I tempi di accesso per la memoria centrale sono dell’ordine dei micro o pico-secondi; per i dischi questi tempi sono dell’ordine dei millisecondi.


menu. In informatica è una tecnica di presentazione delle possibilità di scelta in un sistema interattivo; la tecnica a m. consiste nel presentare le alternative sullo schermo solo quando è possibile effettuare la scelta, rendendola effettuabile di solito mediante l’uso del mouse.


microchip. E’ un chip (vedi) di dimensioni dell’ordine del millimetro utilizzato in dispositivi che impongono misure molto ridotte come per esempio le carte a microchip (vedi) e gli orologi digitali.


microprogrammazione. Tecnica che consiste nel costruire programmi registrati in particolari memorie dal produttore del computer (vedi firmware) e non modificabili dall’utente; la m. serve per estendere le funzionalità dell’hardware.


modem. E’ un dispositivo che consente di connettere un computer a una linea telefonica per la trasmissione e la ricezione di dati. Il nome deriva da MOdulatore e DEModulatore che indicavano le funzione che il m. doveva svolgere quando le trasmissioni telefoniche non erano digitali.


monetica. Area dell’informatica che si occupa dell’automazione delle transazioni economiche (scambio di denaro) mediante applicazioni telematiche; strumenti essenziali della m. sono le carte (di credito o di debito) magnetiche o a microchip che, in qualche modo, sostituiscono la moneta corrente.


mouse. In informatica è una apparecchiatura periferica di input (vedi) utilizzata in applicazioni tipicamente interattive; consiste in un oggetto che può essere spostato su un tavolo usando una sola mano. Ad ogni spostamento del mouse corrisponde lo spostamento sullo schermo del computer di una piccola icona (solitamente a forma di barra, di freccia o di mano) detta cursore. L’azione di input avviene premendo un tasto posto sul mouse quando il cursore è situato sull’immagine associata all’azione che si vuole svolgere.


multimedia. Sistema che utilizza molti supporti per convogliare informazioni verso un utente; un esempio di applicazione multimediale “ante litteram” è rappresentata dai film sonori (che usano testi, suoni e immagini). In informatica la multimedialità è stata resa possibile da schermi grafici a colori con alta definizione, da elevata velocità di calcolo (che rende possibile l’animazione), dai supporti di memorizzazione di grande dimensione quali i dischi ottici (per esempio per contenere in forma digitale i filmati e le registrazioni sonore) e dalla possibilità di usare altoparlanti e microfoni come apparecchiature di output e di input.


multiprocessor. E’ un computer (vedi) in cui sono presenti due o più CPU. I m. richiedono opportuni sistemi operativi che permettono di utilizzare contemporaneamente tutte le risorse presenti nel sistema; in realtà non si ottiene mai il completo sfruttamento di tutte le CPU e ciò dipende da limiti dei sistemi operativi o da esigenze delle applicazioni che devono essere eseguite (contemporaneamente).


Mvs
â
. Nome di una famiglia dei più diffusi sistemi operativi per mainframe.


N


network. Per il significato di n. in informatica, vedi rete.


netcomputer. Computer progettato appositamente per essere usato con un browser (vedi) su una rete tipo Internet. Il n. ha una architettura semplificata perché usa in modo determinante le risorse (hardware e software) della rete. In alcuni tipi di n. (per uso domestico), il video è sostituito da un comune televisore.


O


OCR. Sigla da Optical Character Recognition. E’ un sistema costituito da una componente hardware (detta scanner, vedi) da collegare a un computer e da una componente software. Questo sistema viene usato per memorizzare in un computer un testo a stampa scritto precedentemente. L’utilizzo avviene in due fasi: durante la prima (scanning) la pagina di testo viene acquisita sotto forma di immagine (come se fosse una fotografia digitalizzata); durante la seconda fase vengono riconosciuti i caratteri del testo e resi disponibili per una utilizzazione mediante un comune word processor.


office automation. Applicazione delle tecnologie informatiche e delle telecomunicazioni a supporto del lavoro d’ufficio. Vedi anche burotica.


off-line. Termine inglese usato come aggettivo per indicare lo stato di apparecchiature o processi quando non sono controllati direttamente da un computer. Le applicazioni off-line sono quelle che prevedono l’uso autonomo di apparecchiature periferiche; per esempio il terminale presente allo sportello di una banca quando non è disponibile il collegamento al mainframe dell’azienda o la stampa di un file che viene eseguita autonomamente da una stampante non direttamente collegata al computer che ha generato il testo.


on-line. Termine inglese usato come aggettivo per indicare lo stato di apparecchiature o processi quando sono controllati direttamente da un computer. Una tipica applicazione on-line è la prenotazione dei posti e l’emissione dei biglietti aerei.


open system. Vedi sistema aperto.


output. Termine inglese che in informatica indica il processo in cui si ha trasferimento di dati o informazioni in uscita da un computer. Con l’espressione unità o canale di output si indica il dispositivo usato a tale scopo. Il processo inverso, dall’esterno verso il computer, si dice di input.


P


pacchetto. In informatica indica un insieme di programmi commercializzati e usati come una singola unità per risolvere una particolare classe di problemi applicativi; in alternativa si usa il termine inglese package. In telematica p. indica una stringa di caratteri inviata su una rete; in alternativa si usa il termine inglese packet.


palm top. In Informatica è l’appellativo delle apparecchiature (personal computer, calcolatrici, agende elettroniche, ecc. ) quando hanno dimensioni adatte a essere tenute in mano durante il loro utilizzo.


Pascal. Linguaggio di programmazione procedurale diffuso a partire dalla fine dagli anni sessanta; il P. è stato definito da N. Wirth con l’obiettivo di creare un linguaggio facile da insegnare e facile da implementare. Ha sùbito conosciuto una notevole diffusione ed è tuttora molto usato perché è semplice e rigoroso e inoltre rende naturale la costruzione di programmi efficienti, corretti e leggibili.


password. Termine inglese per parola d’ordine. In informatica è una stringa di caratteri che l’utente deve fornire a un sistema per essere riconosciuto e avere quindi accesso alle risorse che gli sono state assegnate.


PC. Acronimo per personal computer (vedi).


periferica. Nome generico di dispositivo collegabile a un computer (vedi). Alcune p. sono ormai presenti in ogni tipo di configurazione (per esempio tastiera e video) e talvolta ne fanno parte integrante (dischi, stampanti, modem, ecc.).


personal computer. E’ un sistema di elaborazione, costituito da un computer e alcune periferiche, che presuppone l’uso esclusivo da parte di un solo utente. La sua comparsa alla fine degli anni settanta ha contribuito in modo determinante alla diffusione capillare delle applicazioni dell’informatica. Vedi computer.


pixel. Neologismo inglese derivato dalla contrazione di “picture element”: è la parte più piccola di un’immagine rappresentata su un video collegato a un computer. Lo schermo del video può essere pensato come una disposizione regolare di p. distribuiti su righe (per esempio 860) e colonne (per esempio 1024); ciascun p. è una combinazione dei tre colori fondamentali più o meno illuminati.


plotter. In informatica è una apparecchiatura di output collegata a un computer utilizzata per costruire grafici e disegni anche a colori; usa varie tecnologie quali: penne colorate, metodi elettrostatici, getto di inchiostro, laser, ecc.


plug compatible. Termine inglese usato in informatica come aggettivo per indicare la proprietà di una apparecchiatura (non originale) di collegarsi a un computer (senza problemi). Questa locuzione è entrata nell’uso comune quando diversi produttori hanno posto sul mercato apparecchiature accessorie equivalenti.


porta. In informatica indica un dispositivo che, in un computer, consente il collegamento di apparecchiature periferiche.


posta elettronica. Vedi email.


printer. Vedi stampante.


processo. In informatica è la sequenza temporale delle azioni effettivamente eseguite dal computer per svolgere un certo compito. In ogni momento, in un computer sono attivi diversi p. ed è compito del sistema operativo (vedi) gestirli al meglio; un p. si evolve, cioè è in esecuzione, quando ha disponibili i dati da elaborare e la CPU per farlo; pertanto possono essere in esecuzione, al più, tanti p. quante sono le CPU del computer. Un p. si dice pronto quando ha disponibili i dati e non la CPU; si dice bloccato quando non ha a disposizione i dati (e quindi neppure la CPU): in questo caso, il p. è in attesa di un evento che gli renda disponibili i dati. Un p. è quindi costituito da un programma (che specifica le azioni da compiere) e da informazioni di controllo (che ne specificano lo stato e gli eventi di cui è in attesa) gestite da una componente del sistema operativo detta dispatcher.


programma. In informatica è la descrizione di un procedimento formulata per ottenere la soluzione di un problema da parte di un computer. La produzione industriale dei p. è una attività altamente specializzata svolta da una figura professionale specifica (vedi programmatore); mentre la conoscenza delle nozioni di base delle tecniche di programmazione, per il loro contenuto culturale qualificante, dovrebbe far parte degli obiettivi generali della istruzione obbligatoria. Un p. può esistere essenzialmente in due forme: eseguibile e simbolica. Un p. eseguibile è scritto in “linguaggio macchina”, e quindi non è leggibile da una persona, solitamente è registrato in un file (vedi) e può essere eseguito dopo essere stato trasferito nella memoria del computer. Un p. simbolico è scritto in un linguaggio di programmazione da persone e non può essere direttamente eseguito da un computer; l’elaborazione descritta da un p. simbolico può avvenire in due maniere diverse che prevedono rispettivamente l’utilizzo di un “interprete” o di un “compilatore”. L’interprete è una componente software (nella forma di p. eseguibile) che legge ed esegue, ad uno ad uno, i singoli costrutti linguistici che compongono il p. simbolico originale. Nel secondo caso, una differente componente software (anch’essa nella forma di p. eseguibile) detta compilatore, trasforma il p. simbolico nel corrispondente p. eseguibile che viene conservato su un file per essere successivamente eseguito. L’equivalenza sostanziale fra le due diverse forme di un medesimo p. richiede una definizione accurata del suo “significato” (che è ciò che rimane costante nelle diverse forme). La proprietà fondamentale degli interpreti e dei compilatori è quella di conservare inalterato il significato del p. simbolico su cui agiscono. Tale significato, o più in breve la semantica di un p, è sostanzialmente legato a ciò che il p. fa e si ottiene componendo i significati di ciascuno dei costrutti linguistici che contiene (vedi linguaggio di programmazione). Un p. si dice corretto quando il suo significato (cioè ciò che fa) risolve il problema per cui è stato scritto. Nei casi semplici, la correttezza può essere dimostrata formalmente; nei casi complessi (per problemi del mondo reale), la correttezza di un p. può essere (in qualche modo) assicurata solo dal processo di produzione. Attualmente sono disponibili ambienti di sviluppo dei p. (vedi programmazione) che ne permettono la produzione industriale, che rappresenta il miglior compromesso tra l’economicità e la correttezza. Le caratteristiche principali di un p. simbolico prodotto industrialmente, oltre ovviamente alla correttezza, sono: la leggibilità, la riusabilità, la documentazione, la manutenibilità e l’efficienza. La leggibilità è la proprietà di un p. di essere capito facilmente (da chi conosce solo il linguaggio) ed è necessaria perché, in ambiente industriale, più programmatori si alternano nella produzione. La riusabilità è la caratteristica che consente di usare lo stesso p. per risolvere un medesimo problema in ambiti diversi garantendo in tal modo una maggiore economia. Queste due caratteristiche discendono da una appropriata progettazione che consente di dividere un problema complesso in (sotto)problemi a ciascuno dei quali è associato un (sotto)programma (o modulo) di dimensioni opportune. La manutenibilità è legata alla facilità con cui un p. può essere modificato per far fronte a nuove esigenze; essenziale a tale scopo è anche la documentazione, che è un testo comprensibile dal prorammatore, che descrive le caratteristiche salienti del p.; l’efficienza, infine, è la proprietà, strettamente legata all’algoritmo scelto, di usare la minor quantità di risorse (tempo di elaborazione e spazio di memoria) per risolvere il problema. Vedere anche programmazione e linguaggi di programmazione.


programmatore. In informatica è la figura professionale cui è demandato il compito di realizzare applicazioni; la sua caratteristica è quella di saper usare i linguaggi di programmazione per descrivere i procedimenti di soluzione di problemi. Per i problemi semplici (programmazione in piccolo), il lavoro del p. consiste nello scrivere l’algoritmo usando il linguaggio di programmazione prescelto; per i problemi complessi (programmazione in grande) diventa significativa l’analisi del problema e la formulazione degli algoritmi adeguati per risolverlo: la figura professionale coinvolta in queste attività veniva di solito chiamata analista. Nel linguaggio corrente, attualmente, la dizione analista-programmatore indica una figura di alta professionalità. Nella attuale organizzazione industriale del software, oltre alla conoscenza dei linguaggi e delle tecniche di programmazione, al p. sono richieste competenze specifiche su: data base, interfacce uomo-macchina, sistemi operativi e (per applicazioni più avanzate e distribuite) reti per trasmissioni di dati.


programmazione. In informatica è l’attività di costruire programmi per computer. Si distinguono due livelli: la p. in piccolo che ha come obiettivo la costruzione di singoli programmi (quando sono noti gli algoritmi) e la p. in grande quando occorre risolvere problemi complessi che, opportunamente studiati e analizzati, comportano la produzione di centinaia o migliaia di programmi. Nei primi anni di sviluppo dell’informatica (fino alla fine degli anni sessanta) la p. viene ritenuta una attività essenzialmente esecutiva e non è oggetto di studio. La scarsa attenzione all’aspetto metodologico e l’impetuoso diffondersi delle applicazioni hanno causato, agli inizi degli anni settanta, la così detta crisi del software, maturata con il crescere della consapevolezza che la produzione dei programmi era una attività facilmente soggetta ad errori ed estremamente costosa. Nei primi anni settanta la p. ha cominciato a delinearsi come una disciplina “scientifica” e di conseguenza la produzione dei programmi si è trasformata da attività artistico-artigianale in una attività disciplinata da principi metodologici precisi (a quei tempi noti come programmazione strutturata); dopo un decennio di utilizzo e sperimentazione, le idee più efficaci hanno dato origine ai così detti ambienti di p. che, attorno a un linguaggio, forniscono editor, compilatore, strumenti di test e di verifica, librerie e sistemi che consentono di gestire grandi quantità di programmi anche in più versioni. L’uso sistematico di questi ambienti ha reso possibile la produzione industriale del software che ha come obiettivo ultimo l’indipendenza del prodotto dagli individui coinvolti nella attività di p.: ciò ha il vantaggio della interscambiabilità delle persone fra i ruoli contribuendo in tal modo alla riduzione dei costi di produzione. Si veda anche informatica e linguaggio di programmazione.


Prolog. Linguaggio di programmazione dichiarativo proposto da A. Colmerauer e R. A. Kowalski agli inizi degli anni settanta per realizzare il calcolo dei predicati, cioè per automatizzare particolari deduzioni logiche. Ha conosciuto una certa diffusione per le applicazioni di intelligenza artificiale e, in particolare, per realizzare sistemi esperti.


protocollo (di comunicazione). In informatica indica una convenzione con cui due applicazioni si scambiano messaggi; l’importanza di un protocollo dipende dalla sua standardizzazione (cioè dal fatto che un organismo internazionale ne abbia fissato le caratteristiche) e dalla sua diffusione (cioè dalla sua accettazione da parte di una vasta comunità di utenti). Quando due interlocutori devono scambiarsi un messaggio sono coinvolti più livelli (l’hardware, il software di base e il software applicativo); corrispondentemente, per ragioni di flessibilità, l’effettivo scambio di un messaggio coinvolge più protocolli, uno per ciascun livello.


provider. In informatica indica un fornitore di servizi; tipicamente viene usato per indicare un fornitore di connessione e di email per Internet.


Q


R


RAM. Sigla da Random Access Memory. Indica la memoria (vedi) di un computer. La RAM si dice volatile perché il suo contenuto viene perso quando si interrompe l’alimentazione elettrica. A differenza delle memorie di tipo ROM (vedi), in una RAM le informazioni possono essere scritte e lette. La tecnologia di costruzione, il tempo di accesso e le dimensioni di una RAM sono determinanti per le prestazioni di un computer. Il tempo per accedere a una informazione contenuta in una RAM è indipendente dalla sua posizione.


realtà virtuale. E’ la costruzione di situazioni artificiali nelle quali, mediante l’impiego di appropriati strumenti di interfaccia (come per esempio occhiali e guanti per “vedere e toccare”) si dà all’utente l’impressione di esservi immerso. In queste situazioni artificiali possono essere riprodotte le normali leggi della natura o eventuali varianti che l’utente può direttamente sperimentare. Per sineddoche indica anche la riproduzione, più o meno fedele, di scene tridimensionali.


real time. Vedi tempo reale.


record. In informatica è una struttura di dati associata al file (vedi) e rappresenta la quantità di dati coinvolta in un singolo scambio di I/O (vedi). Il r. è costituito da uno o più parti elementari dette campi. Concettualmente un utente può pensare che quando il file corrisponde a una tabella, il r. corrisponde a una riga di quella tabella e i campi sono le suddivisioni della riga mediante le colonne; quando invece il file corrisponde a un documento, il r. ha un solo campo e corrisponde a una riga di stampa.


rete. In informatica indica una struttura di comunicazione per scambiare dati tra due o più sistemi di elaborazione. A seconda della estensione si distinguono, da una parte r. locali (o LAN realizzate in genere con cavi e apparecchiature di proprietà privata) e dall’altra r. metropolitane (o MAN), r. regionali (o WAN) e r. globali (vedi Internet), ottenute collegando tra loro più LAN. Un ruolo speciale svolgono le r. di telecomunicazioni gestite dalle società telefoniche in quanto elementi essenziali per i collegamenti remoti tra LAN o singoli computer. Nell’uso comune, r. indica l’infrastruttura di comunicazione e anche i computer (client/server) ad essa collegati.


rete locale. Vedi Lan.


RISC. Sigla da Reduced Instruction Set Computer. Indica una architettura di computer caratterizzata da un insieme ridotto di istruzioni (vedi), le più usate e le più efficaci, la cui esecuzione è estremamente veloce ed efficiente. I computer RISC sono stati creati in contrapposizione all’architettura CISC (sigla da Complex Instruction Set Computer) caratterizzata da un insieme più ampio di istruzioni potenzialmente di esecuzione più lenta. In linea di principio, entrambe le architetture sono comunque adatte a risolvere qualsiasi tipo di problema applicativo.


robotica. Indica l’insieme dei concetti, dei metodi e delle applicazioni che l’Informatica mette a disposizione per risolvere i problemi connessi all’automazione industriale. Attualmente la r. si caratterizza sempre di più per applicazioni che si collocano nell’ambito della Intelligenza Artificiale.


router. E’ una apparecchiatura usata nella realizzazione di reti di comunicazione tra computer per l’instradamento dei “messaggi”; serve essenzialmente per connettere una Lan (vedi) a una rete più vasta.


ROM. Sigla da Read Only Memory. E’ una memoria che consente solo la lettura di informazioni preregistrate. Le ROM sono non volatili, cioè le informazioni in esse registrate si conservano anche in assenza di alimentazione elettrica; vengono spesso usate come memorie di massa, come per esempio nei CD-ROM (vedi), oppure per contenere informazioni essenziali per il funzionamento di un computer e non accessibili all’utente.


S


SAS
â
. Nome commerciale di una libreria di programmi molto diffusi e dedicati alla elaborazione statistica, alla presentazione di dati e alla ricerca di informazioni contenute in (numerosi) data base (anche) di grandi dimensioni.


scanner. In informatica indica una apparecchiatura di input che consente l’acquisizione di immagini (in forma digitale) da documenti cartacei, diapositive, foto, ecc. Lo s. è un dispositivo essenziale per la realizzazione di applicazioni multimediali e di OCR (vedi). La qualità di uno s. dipende dal numero di punti per pollice (per esempio 1200 dpi, da dot per inch) usato per digitalizzare l’immagine.


scart.


scheda. In informatica per lungo tempo ha indicato un cartoncino rettangolare di 9 cm ´ 19 cm, circa, su cui venivano codificate informazioni mediante perforazioni (schede perforate); questo supporto è caduto in disuso verso la fine degli anni settanta. Attualmente indica una piastra di materiale isolante su cui è realizzato un circuito elettronico usato tipicamente per la gestione di apparecchiature periferiche e dei collegamenti alle reti.


server. Vedi client/server.


sicurezza. In informatica indica la proprietà che solo gli utenti autorizzati hanno accesso alle informazioni di loro competenza. In particolare in telematica (per esempio su Internet), la s. è definita dalla certezza dell’identità dell’interlocutore, dalla assicurazione che solo interlocutori predefiniti possano comprendere i messaggi scambiati e dalla garanzia che i messaggi non sono stati manomessi. Per la gestione di un sistema sicuro sono necessari l’impiego della crittografia e l’esistenza una autorità di certificazione (vedi) per gestire e garantire gli standard di solito realizzati mediante un sistema di chiavi pubbliche.


sistema aperto. In informatica indica un sistema di elaborazione che ha le seguenti caratteristiche: i) non è proprietario (cioè non è prodotto da un solo costruttore secondo sue specifiche) e rispetta diffusi standard di mercato, ii) le sue componenti sono ben documentate, conosciute e modificabili. Il vantaggio dei s. a. è che essi possono facilmente integrarsi in complessi più vasti perché facilmente connettibili. Unix è il s. a. per antonomasia. In altra accezione, un s. a. è un sistema software che può essere facilmente ampliato o completato con componenti scelte dall’utente.


sistema di calcolo. Complesso delle componenti hardware e software di base strutturate in una configurazione adeguata per fornire servizi di elaborazione di tipo scientifico o gestionale. Di norma indica installazioni di dimensioni medio grandi che talvolta comprendono anche uno o più mainframe (vedi) eventualmente distribuiti in rete.


sistema esperto. E’ una applicazione sviluppata nell’ambito della Intelligenza Artificiale che affronta la soluzione di problemi senza sfruttare uno specifico algoritmo risolutivo, ma utilizzando di volta in volta al meglio la conoscenza che anche un esperto umano avrebbe usato per risolvere quel problema. Nella struttura di un s. e. si distinguono tre componenti fondamentali: una base della conoscenza, un motore inferenziale e un’interfaccia. L’interfaccia serve per due tipi di attività: la prima è quella di porre problemi al sistema e ottenere le relative soluzioni; la seconda è quella di modificare e accrescere la base della conoscenza relativa alla classe dei problemi da trattare. Il motore inferenziale accetta la descrizione del problema dall’interfaccia e ne cerca una soluzione, utilizzando la conoscenza contenuta nella base e procedendo in generale per tentativi guidati da una opportuna euristica. La base contiene la conoscenza fornita da esperti della disciplina, descritta mediante opportune strutture che ne facilitano l’uso da parte del motore e l’aggiornamento da parte dell’interfaccia. Nati dall’idea di realizzare un solutore generale di problemi, i s. e. hanno avuto successo quando si sono specializzati su classi abbastanza specifiche di problemi. I primi s. e. usati con successo sono stati sviluppati nella diagnosi medica, in strutturistica chimica e nelle prospezioni geologiche. L’efficienza di un s. e. nella soluzione di problemi reali dipende in larga misura dall’euristica, termine che, in questo contesto, si riferisce alla strategia utilizzabile per individuare ed eseguire (solo) i tentativi più promettenti per ricercare una soluzione (anche approssimata). Dal punto di vista concettuale, un posto di particolare rilievo è occupato dai così detti sistemi a regole nei quali la base della conoscenza viene organizzata secondo le tecniche della logica formale e quindi assume l’aspetto di un insieme di particolari regole di deduzione del tipo:

se <premessa o condizione> allora <conseguenza o azione>.

In questo caso il motore inferenziale può essere costruito come un vero e proprio sistema deduttivo basato sul calcolo dei predicati.


sistema informatico. E’ la componente informatica di un sistema informativo aziendale (vedi). Il s. i. è composto da hardware, software e competenze umane necessarie per la gestione e lo sviluppo.


sistema informativo. E’ uno degli strumenti più importanti per raggiungere i fini di una azienda; consiste nell’insieme delle informazioni, del loro flusso “attraverso” l’organizzazione e delle risorse umane e strumentali che ne permettono la gestione. Nei casi reali non è tanto cruciale la costruzione iniziale del s. i. adeguato ai bisogni di una organizzazione, quanto il suo mantenimento in funzione del cambiamento dei bisogni e della evoluzione della offerta tecnologica. In questa prospettiva è essenziale la formazione continua e just-in-time della componente umana che non deve essere solo padrona del s. i. in gestione, ma anche della tecnologia emergente per porre in maniera nuova i problemi e sollecitare soluzioni più integrate e più efficienti; l’efficacia globale di un s. i. aziendale dipende quindi sia dalla percentuale del fatturato investito nelle infrastrutture informatiche, sia dal programma di formazione continua previsto dal piano di sviluppo strategico.


sistema interattivo. Vedi interattivo, sistema.


sistema operativo. Componente software di base indispensabile per l’utilizzo di un computer. Durante l’utilizzo di un computer (anche da parte di un solo utente) si svolgono numerose attività che richiedono l’uso delle risorse del sistema; compito essenziale di un s. o. è la gestione ottimizzata di CPU, memoria e apparecchiature periferiche utilizzate dai vari processi (vedi) presenti contemporaneamente. I sistemi operativi più diffusi sono: MVSâ usato su mainframe delle grandi organizzazioni, la famiglia UNIX usata su server e workstation e la famiglia WINDOWSâ usata su server e personal computer.


sistemista. Figura tecnico-professionale dedicata alla definizione dell’architettura, alla realizzazione e alla gestione dei sistemi informatici: questa figura, nata con la gestione dei mainframe, gioca oggi un ruolo fondamentale nella diffusione delle reti.


software. Termine inglese che, in informatica, indica le componenti logiche (insieme dei dati e dei programmi) coinvolte nell’utilizzo dei computer e si contrappone ad hardware che indica l’insieme delle componenti fisiche. Correntemente si distingue fra s. di base (come per esempio sistemi operativi, interpreti e compilatori), che estende le funzionalità dell’hardware e lo rende facilmente utilizzabile, e s. applicativo, che comprende tutti i programmi utilizzati esplicitamente per la soluzione dei problemi degli utenti. Vedere anche: data base, informatica, linguaggi di programmazione, programma, programmazione, sistemi operativi.


software, ciclo di vita del. Fasi dello sviluppo di una applicazione informatica, dalla formulazione del problema alla verifica del funzionamento corretto e alla manutenzione; il numero e l’importanza delle varie fasi dipendono dalle dimensioni dell’applicazione. Un esempio di ciclo di vita, valido per una componente significativa di un sistema informativo aziendale, è costituito dalle seguenti fasi: raccolta delle esigenze degli utenti, studio di fattibilità, progetto, stesura delle specifiche funzionali e tecniche, realizzazione (scrittura dei programmi), test e accettazione da parte del committente, messa in esercizio (con adeguamenti di hardware e software e l’addestramento degli utenti) e manutenzione (correttiva ed evolutiva).


software, ingegneria del. Tecniche e metodi per costruire grandi e complesse applicazioni informatiche (vedi programmazione).


SQL. Sigla da Standard Query Language. E’ il linguaggio standard per l’interrogazione di data base relazionali (vedi), cioè per selezionare e presentare in forma opportuna i dati richiesti.


stampante. In informatica è una apparecchiatura di output collegata a un computer utilizzata per stampare testi e disegni anche a colori; usa varie tecnologie quali: laser, getto di inchiostro e impatto meccanico. La qualità delle stampanti si misura dalla risoluzione, cioè dal numero di punti scrivibili per unità di superficie (misurati in punti per pollice nelle due direzioni). La disponibilità di stampanti ad alta risoluzione (600-1200 punti per pollice) e dei wordprocessor (vedi) consente la produzione diffusa e a basso costo di documenti di alta qualità editoriale.


stringa. In informatica è una sequenza finita di simboli, cioè tipicamente di caratteri che compaiono sulla tastiera di un computer.


Swift.


switch. In informatica, (oltre che interruttore) è anche un dispositivo utilizzato in reti locali (o Lan vedi); gli s. consentono di partizionare le LAN in sottoreti mantenendo elevate le prestazioni complessive.


T


tabella. In Informatica, la tabella corrisponde all’idea intuitiva di struttura regolare di informazioni organizzata per righe e colonne. Le t. vengono usate fondamentalmente per memorizzare i dati, come per esempio nei fogli elettronici (vedi) e nei data base relazionali (vedi). In analogia a quanto avviene nell’uso delle tabelle su carta, per risolvere il problema della individuazione delle informazioni, una o più colonne possono essere dichiarate chiavi di accesso (vedi); per reperire le informazioni viene specificato il valore della chiave e vengono in tal modo restituite le righe che contengono quei valori.


task. Termine inglese che significa compito; in informatica, per metonimia, indica il processo (vedi).


tastiera. Apparecchiatura di input formata da tasti (da 80 a 130 circa) ciascuno associato a una lettera dell’alfabeto, a una cifra decimale, a segni aritmetici e di interpunzione e a funzioni speciali; premendo uno, o più tasti opportuni, si realizza l’input di un byte.


TCP/IP. Acronimo da Transmission Control Protocol/Internet Protocol. E’ un protocollo di comunicazione (vedi) di livello intermedio ormai universalmente accettato; essendo il protocollo usato da Internet, la diffusione di questa rete lo ha trasformato in uno standard di fatto.


telematica. Termine che deriva dalla contrazione di telecomunicazioni e informatica e indica l’insieme dei concetti, dei metodi e delle applicazioni che traggono la ragione di essere dall’uso contemporaneo delle due discipline. Lo sviluppo della t. consente l’espandersi delle reti (vedi), la comparsa di applicazioni specializzate (vedi WWW) e l’aumento esplosivo degli utilizzatori e quindi, in definitiva, la diffusione del computer come strumento essenziale di lavoro.


telelavoro. Indica l’insieme dei concetti, dei metodi e delle applicazioni che la telematica mette a disposizione per consentire lo svolgimento di un lavoro, che preveda l’uso essenziale di un computer, indipendentemente dal luogo in cui il lavoratore si trova, anche lontano dall’azienda, per esempio nella sua abitazione. L’impatto socioeconomico del t. è legato principalmente al fatto di non richiedere lo spostamento fisico verso il luogo di lavoro.


tempo di risposta. Nelle applicazioni informatiche interattive è il tempo che intercorre fra l’invio di un messaggio e l’arrivo della risposta. Nelle applicazioni in tempo reale (vedi), il t. d. r. deve essere sufficientemente piccolo per garantire il controllo del processo esterno; nelle applicazioni transazionali, il t. d. r. deve essere (in media) inferiore al secondo per evitare che l’utente si trovi a disagio.


tempo reale. In informatica è l’appellativo di certe applicazioni che interagiscono con attività che si svolgono all’esterno di un computer in modo tale da ricevere dati di input e di elaborarli in tempo utile per fornire una risposta efficace ed usabile. Esempi di elaborazione in t. r. sono il monitoraggio della colata di un altoforno e la guida di un missile, nelle quali l’elaborazione deve essere sufficientemente frequente e rapida per tenere sotto controllo i processi.


Tera. Prefisso che indica il multiplo di una unità di misura corrispondente a 1012. In informatica il T. corrisponde a 240 = 1024 ´ 1024 ´ 1024 ´ 1024.


terminale. In informatica è una apparecchiatura di input/output dedicata a un solo utente. I primi terminali, comparsi negli anni sessanta, erano dotati solo di tastiera e apparato scrivente e funzionavano solo se collegati a un mainframe; agli inizi degli anni settanta i t. erano composti da tastiera e video e alla fine del decennio, con la comparsa dei personal computer è cominciata la diffusione dei così detti terminali intelligenti.


token ring. Protocollo fisico per le reti locali (vedi) di trasmissione dati tra computer (vedi LAN); comporta l’uso di una particolare scheda per collegare il computer alla rete.


transazione. In informatica è una particolare interazione tra utente e una applicazione, detta appunto transazionale, in cui l’utente pone una richiesta al sistema il quale risponde facendo delle operazioni su un data base.


trasmissione dati. In informatica è il processo mediante il quale due o più computer si scambiano dati mediante una rete di telecomunicazione. Lo scambio avviene mediante un sistema di convenzioni dette protocolli (vedi) che sono stati standardizzati per consentire la realizzazione di infrastrutture di uso generale.


U


Unix. Nome di una famiglia di sistemi operativi (vedi) molto diffusi in applicazioni scientifiche, sui server e, in generale, in ambito accademico.


utility. In informatica, indica un programma che svolge una funzione di carattere generale non legata a specifici problemi dell’utente; in italiano è detto anche accessorio. Esempi notevoli di u. sono: programmi contro i virus, programmi per formattare i floppy disc, per trasferire un file da un utente a un altro, ecc.


V


video. In informatica, è una apparecchiatura di output che permette di visualizzare le informazioni elaborate da un computer su una superficie rettangolare detta schermo. La qualità di un v. dipende dalla dimensione dello schermo (di cui si misura la diagonale in pollici) e dalla sua risoluzione che è indicata in pixel (vedi). Il v. si collega al computer mediante una scheda (vedi). Per la costruzione dei v. si usano due tecnologie: i tubi a raggi catodici, simili funzionalmente ai televisori e gli schermi a cristalli liquidi che permettono di costruire apparecchiature piatte e leggere particolarmente adatte per i computer portatili.


Videotel. Servizio (parzialmente) interattivo per accedere a banche di dati mediante la normale rete telefonica; le informazioni sono visualizzate su un apposito terminale a basso costo o anche sul televisore domestico mediante un adattatore. Le informazioni sono in genere strutturate ad albero e vengono individuate tramite menu con cui si interagisce mediante la tastiera del terminale o il telecomando del televisore. Il V. è caduto in disuso con la diffusione di Internet.


virus. In informatica, indica un programma messo a punto dai così detti hackers, cioè da programmatori particolarmente abili che sfidano se stessi nel costruire queste applicazioni “pirata”. I v. hanno le seguenti due caratteristiche: i) si riproducono (con lo scambio di informazioni mediante la rete o dischetti); ii) inducono (anche a distanza di tempo) comportamenti del computer anomali o dannosi. Esistono programmi, detti antivirus, che segnalano la presenza di v. e attivano procedimenti di “disinfezione”.


VLSI. Sigla da Very Large Scale Integration. Indica una tecnica di costruzione dei chip (vedi).


W


Wan. Sigla da Wide Area Network. E’ una rete, cioè un sistema di connessioni che consentono a più computer di collegarsi tra loro e di scambiare dati, di dimensione “regionale”. Di norma una W. è composta di varie reti locali (o Lan) collegate tra loro tramite linee telefoniche (vedi).


Web. Termine inglese che significa ragnatela; consiste in una molteplicità di server, ciascuno localizzabile mediante un nome, cui una molteplicità di client si può connettere mediante una rete con protocollo TCP/IP (Internet o Intranet). L’idea del W. si deve a Tim Berners-Lee che, nel 1990, ha realizzato il primo prototipo di questo sistema per la comunità dei ricercatori del CERN (Centro Europeo per la Ricerca Nucleare) di Ginevra; la sua diffusione effettiva ebbe inizio nel 1993 quando Marc Andreessen, della Università dell’Illinois, realizzò Mosaic che è la prima applicazione per client di larga diffusione. Nella architettura del W. si individuano quattro componenti: i) software per gestire il server, ii) linguaggi (per esempio HTML o Java) per costruire le applicazioni che risiedono su server, iii) servizi di comunicazione (http) costruiti su protocollo di rete e iv) software (browser) che risiede sul client per accedere alle applicazioni. Inizialmente, le applicazioni erano di fatto ipertesti multimediali e il browser consentiva di “navigare” seguendo collegamenti che potevano rinviare anche a server diversi; successivamente lo spettro delle applicazioni si è fortemente ampliato con la possibilità di realizzare interfacce più efficaci e con l’accesso a data base. Attualmente, l’interfaccia rappresentata dai browser si avvia quindi a essere la più diffusa perché consente anche di accedere sia alle tradizionali applicazioni EDP sia agli strumenti di produttività individuale e di gruppo.

La facilità, l’efficacia e la diffusione di queste applicazioni hanno come conseguenza che una parte via via crescente della cultura umana diventa disponibile su W. La possibilità di effettuare comunicazioni sicure, e quindi la fattibilità delle transazioni commerciali, fanno assumere al W. anche il ruolo di centro commerciale (oltre a quello di biblioteca, museo o mostra che ha avuto all’inizio della sua evoluzione).

Il browser va sempre più assumendo il ruolo di strumento sociale di diffusione e accesso all’informatica nel senso che la maggior parte delle persone, appresa l’abilità di usare questo strumento, hanno acquisito l’autonomia culturale per poter accedere a gran parte delle applicazioni dell’informatica.


Windows
â
. Nome di una famiglia dei più diffusi sistemi operativi per personal computer e server.


word processor. Termine inglese che indica una applicazione (o insieme di programmi) che consente il trattamento, cioè la costruzione e la manipolazione, di documenti composti, in genere, da testi, grafici e tabelle. Questa applicazione è una delle più diffuse su personal computer e (con la disponibilità di stampanti laser, vedi) ha introdotto una profonda modifica nella organizzazione del lavoro per la produzione dei documenti aziendali.


WORM. Sigla per Write Once Read Many. Indica un disco ottico utilizzabile come memoria di massa. A differenza dei CD (vedi), su ogni traccia del WORM l’utente può registrare, però una sola volta, delle informazioni che possono, successivamente, essere lette ogni volta che è necessario.


workstation. Termine inglese per indicare un computer in genere più potente di un personal computer, dotato anche di una unità video con uno schermo di maggiori prestazioni; la w. è destinata a un solo utente per applicazioni che necessitano di elevate risorse di calcolo, come per esempio le elaborazioni grafiche a due o tre dimensioni richieste dalla progettazione assistita dal calcolatore (vedi CAD e CAM). Talvolta, per estensione, indica un qualunque posto di lavoro dotato di personal computer.


WWW. Sigla da World Wide Web. Alla lettera indica il complesso (la ragnatela) delle particolari applicazioni (realizzate in genere con HTML e Java ) presenti su Internet. Per sineddoche viene anche usato per indicare un singolo server che ospita una di queste applicazioni (vedi Web).

X


Y

Z

Home Tour virtuale